JP3370934B2 - Optical character reading method and apparatus - Google Patents

Optical character reading method and apparatus

Info

Publication number
JP3370934B2
JP3370934B2 JP15629598A JP15629598A JP3370934B2 JP 3370934 B2 JP3370934 B2 JP 3370934B2 JP 15629598 A JP15629598 A JP 15629598A JP 15629598 A JP15629598 A JP 15629598A JP 3370934 B2 JP3370934 B2 JP 3370934B2
Authority
JP
Japan
Prior art keywords
character
category
output
background
similarity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP15629598A
Other languages
Japanese (ja)
Other versions
JPH11328309A (en
Inventor
崎 桂 一 宮
正 人 南
田 敏 行 香
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP15629598A priority Critical patent/JP3370934B2/en
Priority to US09/325,546 priority patent/US6636631B2/en
Priority to EP99304385A priority patent/EP0965943A3/en
Publication of JPH11328309A publication Critical patent/JPH11328309A/en
Application granted granted Critical
Publication of JP3370934B2 publication Critical patent/JP3370934B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Character Input (AREA)
  • Character Discrimination (AREA)

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、帳票あるいは、文書上
の手書き、印刷文字を読み取る光学的文字読み取り方法
とその装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an optical character reading method and apparatus for reading handwritten or printed characters on a form or document.

【0002】[0002]

【従来の技術】従来の光学的文字読み取り装置における
類似度算出方式としては、距離尺度に基づく類似度算出
法が一般的である。距離尺度は、大きく分けるとパター
ンベクトルの個々の次元に着目した距離尺度と、次元全
体の分布を考慮した距離尺度とに分類され、電子情報通
信学会論文誌D−IIVol.J79-D-II No.1 pp.45 - 52「改
良型マハラノビス距離を用いた高精度な手書き文字認
識」に示されているように、後者の次元全体の分布を考
慮した距離尺度に基づく類似度算出方式の方が有効であ
ることが知られている。中でも、複合類似度法は、既に
実用化された一般的な類似度算出方式の1つである。
2. Description of the Related Art As a similarity calculation method in a conventional optical character reading apparatus, a similarity calculation method based on a distance scale is generally used. The distance scale is roughly classified into a distance scale that focuses on individual dimensions of the pattern vector and a distance scale that considers the distribution of the entire dimension. The IEICE Transactions D-II Vol.J79-D-II No .1 pp.45-52 As shown in "High-accuracy handwritten character recognition using improved Mahalanobis distance", the latter similarity calculation method based on the distance scale that considers the distribution of the entire dimension It is known to be effective. Above all, the composite similarity method is one of the general similarity calculation methods that have already been put to practical use.

【0003】複合類似度法の類似度算出方式は、ある1
つの文字カテゴリについて、それに含まれる学習用文字
パターンが作り出すパターン空間内の分布について主成
分分析を行い、その主成分としてえられるN個の固有ベ
クトルψi(i= 1,2,....,N)をそのカテゴ
リの辞書として、以下で定義される複合類似度Sに基づ
いて入力文字パターンベクトルfに対する類似度を算出
する。
There is one similarity calculation method of the composite similarity method.
For one character category, a principal component analysis is performed on the distribution in the pattern space created by the learning character patterns contained therein, and N eigenvectors ψi (i = 1, 2, ..., N) obtained as the principal components are analyzed. ) As a dictionary of the category, the similarity to the input character pattern vector f is calculated based on the composite similarity S defined below.

【数1】 ここで、λi は、固有値である。認識結果としては、大
きい方から2番目の類似度と最大類似度の比の大きさに
より、リジェクトの有無を判定し、リジェクト出ない場
合は、最大類似度のカテゴリを認識結果とするのが一般
的である。
[Equation 1] Here, λi is an eigenvalue. As a recognition result, the presence or absence of a reject is determined based on the magnitude of the ratio of the second largest similarity to the maximum similarity. If no rejection occurs, the category with the highest similarity is generally used as the recognition result. Target.

【0004】従来の光学的文字読み取り装置における構
造特徴を用いた認識方式としては、東芝レビュー、Vol.
41, No.12, pp.1012-1015(1986) 「自由手書き文字認
識」に示されている輪郭構造マッチング方が知られてい
る。
As a recognition method using the structural feature in the conventional optical character reading apparatus, see Toshiba Review, Vol.
41, No. 12, pp. 1012-1015 (1986) The contour structure matching method shown in "Free handwritten character recognition" is known.

【0005】この方式によれば、8方向にコード化され
たフリーマン・コード・チェインを最初の段階の特徴量
として抽出し、平滑化後曲率により分割される。分割さ
れた部分輪郭はセグメントと呼ばれ凸、直線、凹の三種
類に分類され、各セグメントには、長さ、曲率、位置、
方向等の属性情報が与えられる。
According to this method, a Freeman code chain coded in eight directions is extracted as a feature amount in the first stage, and is divided by the smoothed curvature. The divided partial contours are called segments and are classified into three types: convex, straight, and concave.Each segment has a length, curvature, position,
Attribute information such as direction is given.

【0006】一方、辞書には同様の輪郭セグメントのシ
ーケンスが記述されており、これらには前記属性情報に
関して、その値の上限、下限の値がセットされている。
入力パターンと辞書に記述されている属性情報を比較す
ることにより、入力パターンのセグメントと辞書セグメ
ントの対応関係を調べ認識が実行される。
On the other hand, a similar sequence of contour segments is described in the dictionary, and the upper and lower limit values of the attribute information are set in these sequences.
By comparing the input pattern and the attribute information described in the dictionary, the correspondence between the segment of the input pattern and the dictionary segment is checked and recognition is executed.

【0007】[0007]

【発明が解決しようとする課題】しかしながら、従来の
光学的文字読み取り装置では、主成分分析によって得ら
れた統計的特徴のみを用いているために人間の認識特性
とのずれが生じ、文字形状の構造的な相違点を反映でき
ないために、人間には容易に分離できる類似カテゴリ
が、統計的特徴を用いた認識方法では分離が困難である
という課題があった。また、構造的特徴のみを用いる認
識方法では、辞書作成の効率が悪いという課題があっ
た。
However, since the conventional optical character reader uses only the statistical features obtained by the principal component analysis, a deviation from the human recognition characteristic occurs, and the character shape is changed. There is a problem that similar categories, which can be easily separated by humans, cannot be separated by the recognition method using statistical features because structural differences cannot be reflected. In addition, the recognition method using only structural features has a problem that the efficiency of dictionary creation is low.

【0008】また、枠線(非ドロップアウト)を有する
帳票等に書かれた文字を対象にする場合、文字が枠線と
接触または、枠をはみ出し・金額等の訂正により、枠線
の1部が文字に結合したり、文字の一部がかけたり、訂
正部分や訂正印の一部が文字として切り出されるなどの
文字切りだしエラーが発生しやすく、それらのパターン
を認識し類似度の比のみでリジェクトを判定するとリジ
ェクトされずに、誤読となることが多いと言う課題もあ
った。
When a character written on a form or the like having a frame line (non-dropout) is targeted, a part of the frame line is touched by the character contacting the frame line or protruding the frame / correcting the amount of money. It is easy to generate character cut-out errors such as combining with characters, dropping a part of a character, cutting out a correction part or a part of a correction mark as a character, recognizing those patterns and only calculating the similarity ratio. There is also a problem that when a reject is judged, it is not rejected but is often misread.

【0009】本発明は、前記従来の問題点に鑑み、従来
の統計的特徴による認識方法をベースに、構造的特徴は
類似カテゴリの分離に必要なものを中心に限定して抽出
することにより辞書作成を効率化し、また統計的特徴に
よる認識方法で誤りやすい類似カテゴリの識別を構造的
特徴を利用して行うことにより、類似カテゴリの分離能
力すなわち認識性能を向上させると共に、文字パターン
の類似度の比だけではなく、類似度の大きさも併用する
事で文字切りだしエラー文字を効率的にリジェクトする
ようにした光学的文字読み取り方法とその装置を提供す
ることを目的とする。
In view of the above-mentioned conventional problems, the present invention is based on a conventional statistical feature-based recognition method, and extracts structural features by limiting extraction to those necessary for separating similar categories. By improving the efficiency of creation and by using structural features to identify similar categories that are prone to error in the recognition method using statistical features, the ability to separate similar categories, that is, the recognition performance, is improved, and the similarity of character patterns is improved. An object of the present invention is to provide an optical character reading method and an apparatus for efficiently rejecting character cut-out error characters by using not only the ratio but also the degree of similarity.

【0010】[0010]

【課題を解決するための手段】上記目的を達成するた
め、本発明は、光電変換された文字枠線を含む文字列デ
ータに対して、文字枠線と文字列パターンを分離し、分
離された文字列パターンから個々の文字パターンを切り
出し、個々の文字パターンに対する外接矩形の大きさと
外接矩形に囲まれた切り出し文字画像を出力する文字切
り出し手段と、前記文字切り出し手段で切り出された個
々の切り出し文字画像に対する輪郭情報と背景構造情報
を求める基本特徴抽出手段と、前記基本特徴抽出手段か
ら出力された輪郭方向成分と背景距離に基づいて少なく
とも一種類の統計的特徴を求める統計的特徴抽出手段
と、前記基本特徴抽出手段から出力された基本特徴に基
づいて少なくとも一種類の構造的特徴を求める構造的特
徴抽出手段と、前記統計的特徴抽出手段から出力された
統計的特徴から切り出し文字画像の各カテゴリに対する
類似度を求め、類似度の大きい順に選んだ少なくとも1
つのカテゴリの類似度と、同じ順に選んだ少なくとも一
つのカテゴリを出力する認識手段と、前記認識手段から
出力されたカテゴリと前記カテゴリに対する類似度と前
記構造的特徴抽出手段から出力された構造的特徴とに基
づいて最終的な文字パターンの属するカテゴリを判定す
る第1の構造識別手段とを備えたものである。
In order to achieve the above object, the present invention separates a character frame line and a character string pattern from character string data including a photoelectrically converted character frame line, and separates them. A character cutout unit that cuts out individual character patterns from a character string pattern, and outputs a size of a circumscribed rectangle for each character pattern and a cutout character image surrounded by the circumscribed rectangle, and individual cutout characters cut out by the character cutout unit. Basic feature extraction means for obtaining contour information and background structure information for the image; statistical feature extraction means for obtaining at least one kind of statistical feature based on the contour direction component and background distance output from the basic feature extraction means; Structural feature extracting means for obtaining at least one type of structural feature based on the basic feature output from the basic feature extracting means; Characteristics determine the similarity of each category of character images cut out from an output statistical features from the extraction means, at least one chosen in descending order of similarity
Similarity between two categories, recognition means for outputting at least one category selected in the same order, categories output from the recognition means, degrees of similarity to the categories, and structural features output from the structural feature extraction means And a first structure identifying means for determining the category to which the final character pattern belongs based on the.

【0011】この構成により、基本特徴抽出手段におい
て統計的特徴と構造的特徴の両方に利用できるような基
本特徴を抽出して構成の共通化を図り、構造的特徴抽出
手段では認識手段で識別が困難な類似カテゴリを分離す
るのに有効な構造的特徴を中心に限定して抽出すること
により、辞書作成を効率化し、統計的特徴を用いた認識
手段の認識結果に基づいて、構造識別手段において類似
カテゴリの分離に必要な特徴を選択して最終的なカテゴ
リの決定を行うことにより、効率的な処理と類似カテゴ
リの認識性能の向上の両方を可能にする。
With this configuration, the basic feature extracting means extracts the basic features that can be used as both the statistical features and the structural features to make the configuration common, and the structural feature extracting means identifies them by the recognizing means. By limiting the extraction of the structural features that are effective for separating difficult similar categories, the dictionary creation is made efficient, and the structure identification means is based on the recognition results of the recognition means using statistical features. By selecting the features required for separating similar categories and determining the final category, both efficient processing and improvement of recognition performance of similar categories are possible.

【0012】[0012]

【発明の実施の形態】本発明の請求項1に記載の発明
は、光電変換された文字枠線を含む文字列データに対し
て、文字枠線と文字列パターンを分離し、分離された文
字列パターンから個々の文字パターンを切り出し、個々
の文字パターンに対する外接矩形の大きさと外接矩形に
囲まれた切り出し文字画像を求め、前記切り出された個
々の切り出し文字画像に対する輪郭情報と背景構造情報
とを基本特徴として抽出し、前記抽出された基本特徴に
基づいて少なくとも一種類の統計的特徴を抽出し、前記
切り出された個々の切り出し文字画像と前記抽出された
基本特徴に基づいて少なくとも一種類の構造的特徴を抽
出し、前記抽出された統計的特徴から前記切り出し文字
画像の各カテゴリに対する類似度を求め、前記類似度が
最大のカテゴリを個々の文字パターンの属するカテゴリ
と判定し、前記判定された文字パターンの属するカテゴ
リと前記カテゴリに対する類似度と前記抽出されたた構
造的特徴とに基づいて最終的な文字パターンの属するカ
テゴリを判定する各ステップを備えたことを特徴とする
光学的文字読み取り方法である。
BEST MODE FOR CARRYING OUT THE INVENTION The invention according to claim 1 of the present invention separates a character frame line and a character string pattern from character string data including a photoelectrically converted character frame line, and separates the separated character. Each character pattern is cut out from the column pattern, the size of the circumscribing rectangle for each character pattern and the cut-out character image surrounded by the circumscribing rectangle are obtained, and the contour information and the background structure information for the cut out individual cut-out character image are obtained. Extracted as a basic feature, at least one type of statistical feature is extracted based on the extracted basic feature, at least one type of structure based on the clipped individual cut-out character image and the extracted basic feature Characteristics are extracted, the degree of similarity to each category of the cut-out character image is obtained from the extracted statistical characteristics, and the category with the highest degree of similarity is individually calculated. Each of the character patterns to which the final character pattern belongs is determined based on the category to which the determined character pattern belongs, the degree of similarity to the category, and the extracted structural feature. An optical character reading method comprising steps.

【0013】この構成により、統計的特徴と構造的特徴
の両方に利用できるような基本特徴を抽出することによ
り構成の共通化が可能になり、統計的特徴による認識処
理では識別が困難な類似カテゴリの分離に有効な構造的
特徴を中心に限定して抽出することにより辞書作成を効
率化し、統計的特徴を用いて識別を行う認識手段から出
力された認識結果に基づいて、構造識別手段において必
要な構造的特徴を選択し最終的なカテゴリを決定するこ
とによって処理の効率化と類似カテゴリの認識性能の向
上が可能になるという作用を有する。
With this configuration, it is possible to standardize the configuration by extracting basic features that can be used for both statistical features and structural features. Similar categories that are difficult to identify by recognition processing using statistical features It is necessary in the structure identification means based on the recognition result output from the recognition means that makes the dictionary efficient by extracting only the structural features effective for separating By selecting various structural features and determining the final category, it is possible to improve processing efficiency and improve recognition performance of similar categories.

【0014】本発明の請求項2に記載の発明は、光電変
換された文字枠線を含む文字列データに対して、文字枠
線と文字列パターンを分離し、分離された文字列パター
ンから個々の文字パターンを切り出し、個々の文字パタ
ーンに対する外接矩形の大きさと外接矩形に囲まれた切
り出し文字画像を求め、前記切り出された個々の切り出
し文字画像に対する輪郭情報と背景構造情報とを基本特
徴として抽出し、前記抽出された基本特徴に基づいて少
なくとも一種類の統計的特徴を抽出し、前記切り出され
た個々の切り出し文字画像と前記抽出された基本特徴に
基づいて少なくとも一種類の構造的特徴を抽出し、前記
抽出された統計的特徴から前記切り出し文字画像の各カ
テゴリに対する類似度を求め、前記類似度が最大のカテ
ゴリを個々の文字パターンの属するカテゴリと判定し、
前記切り出された個々の文字パターンに対する外接矩形
の大きさと前記判定された文字パターンの属するカテゴ
リと前記抽出された構造的特徴との少なくとも一つに基
づいて前記類似度を修正し、修正後の類似度に基づいて
最終的な文字パターンの属するカテゴリを判定する各ス
テップを備えたことを特徴とする光学的文字読み取り方
法である。
According to a second aspect of the present invention, in the character string data including the photoelectrically converted character frame line, the character frame line and the character string pattern are separated, and the separated character string pattern is individually separated. , The size of the circumscribing rectangle for each character pattern and the clipped character image surrounded by the circumscribing rectangle are obtained, and the outline information and background structure information for each of the clipped individual clipped character images are extracted as basic features. Then, at least one type of statistical feature is extracted based on the extracted basic feature, and at least one type of structural feature is extracted based on the extracted individual cut-out character image and the extracted basic feature. Then, the degree of similarity to each category of the cut-out character image is obtained from the extracted statistical characteristics, and the category with the highest degree of similarity is set to an individual character. It is determined that belongs to turn category,
The similarity is corrected based on at least one of the size of the circumscribed rectangle for each of the cut out character patterns, the category to which the determined character pattern belongs, and the extracted structural feature, and the similarity after correction is corrected. It is an optical character reading method characterized by comprising respective steps of judging a category to which a final character pattern belongs based on a degree.

【0015】この構成により、前記切り出し文字画像の
各カテゴリに対する類似度の微妙な差を最終的なカテゴ
リ決定に反映させることができ、また、構造的特徴の検
出結果を定量的に類似度の修正値に反映させることがで
きるため、認識性能が向上するという作用を有する。
With this configuration, it is possible to reflect a subtle difference in the degree of similarity of the cut-out character image with respect to each category in the final category determination, and quantitatively correct the degree of similarity in the detection result of the structural feature. Since it can be reflected in the value, it has an effect of improving the recognition performance.

【0016】本発明の請求項3に記載の発明は、前記切
り出された文字パターンに対する外接矩形の大きさに基
づいて活字または手書きの字種判定を行い、前記字種判
定の結果と前記切り出された文字パターンに対する外接
矩形の大きさと前記判定された文字パターンの属するカ
テゴリと前記カテゴリに対する類似度と前記抽出された
構造的特徴の少なくとも一つに基づいて最終的な文字パ
ターンの属するカテゴリを判定する各ステップを備えた
ことを特徴とする請求項1または2記載の光学的文字読
み取り方法である。
According to a third aspect of the present invention, the type of handwritten characters or handwritten characters is determined based on the size of the circumscribed rectangle with respect to the extracted character pattern, and the result of the character type determination and the cutout are performed. Determining the category to which the final character pattern belongs based on at least one of the size of the circumscribed rectangle for the character pattern, the category to which the determined character pattern belongs, the similarity to the category, and the extracted structural feature The optical character reading method according to claim 1 or 2, further comprising respective steps.

【0017】この構成により、字種に応じて専門化処理
を行うことにより活字・手書き特有の構造的特徴を混同
することなく利用して、類似カテゴリ間の認識性能を高
め、処理の効率化が図れるという作用を有する。
With this configuration, by performing specialized processing according to the character type, the structural characteristics peculiar to print / handwriting can be used without confusion, the recognition performance between similar categories can be improved, and the processing efficiency can be improved. It has the effect of being able to achieve.

【0018】本発明の請求項4に記載の発明は、前記切
り出された文字パターンに対する外接矩形の大きさと前
記判定されたカテゴリに対する類似度と前記抽出された
構造的特徴との少なくとも一つに基づいて切り出しエラ
ーを判定し、切り出しエラーと判定された場合に文字パ
ターンの再切り出しを行う各ステップを備えたことを特
徴とする請求項1または2または3記載の光学的文字読
み取り方法である。
The invention according to claim 4 of the present invention is based on at least one of the size of a circumscribing rectangle for the cut-out character pattern, the similarity to the determined category, and the extracted structural feature. The optical character reading method according to claim 1, 2 or 3, further comprising: a step of determining a cutout error, and re-cutting out the character pattern when the cutout error is determined.

【0019】この構成により、外接矩形が他の文字の外
接矩形と大きく相違していたり規定の外接矩形から外れ
ている場合や、類似度が他の文字の類似度に比べて極端
に低い場合や、第1位の類似度と第2位以下の類似度と
の差が少ない場合などに切り出しエラーがあると判定し
再切り出しを行うことにより、切り出し誤りを減らし、
切り出し誤りに起因する誤認識を減少させることができ
るという作用を有する。
With this configuration, when the circumscribed rectangle is significantly different from the circumscribed rectangles of other characters, is out of the prescribed circumscribed rectangle, or the similarity is extremely low compared to the similarity of other characters, , If the difference between the similarity of the first rank and the similarity of the second rank or less is small, it is judged that there is a cutout error and the cutout is performed again to reduce the cutout error,
This has the effect of reducing erroneous recognition due to clipping errors.

【0020】本発明の請求項5に記載の発明は、前記切
り出された文字パターンの最大類似度、2番目の類似度
と最大類似度の比の値、前記切り出された文字パターン
の背景の複雑度に基づいて、前記判定された文字パター
ンの属するカテゴリの信頼度が低い場合にはリジェクト
処理を行い、それ以外の場合は前記判定された文字パタ
ーンの属するカテゴリを最終的な認識結果とする各ステ
ップを備えたことを特徴とする請求項1から4のいずれ
かに記載の光学的文字読み取り方法である。
According to a fifth aspect of the present invention, the maximum similarity of the cut-out character pattern, the value of the ratio between the second similarity and the maximum similarity, and the complexity of the background of the cut-out character pattern. On the basis of the degree, the reject processing is performed when the reliability of the category to which the determined character pattern belongs is low, and in other cases, the category to which the determined character pattern belongs is set as the final recognition result. The optical character reading method according to any one of claims 1 to 4, further comprising steps.

【0021】この構成により、最大類似度の大きさ及び
背景複雑度もリジェクト判定に利用する事により、類似
度の比だけではリジェクト困難な前処理エラー文字を効
率よくリジェクトできるという作用を有する。
With this configuration, the magnitude of the maximum similarity and the background complexity are also used for the rejection determination, so that the preprocessing error character that is difficult to reject only by the ratio of the similarities can be efficiently rejected.

【0022】本発明の請求項6に記載の発明は、光電変
換された文字枠線を含む文字列データに対して、文字枠
線と文字列パターンを分離し、分離された文字列パター
ンから個々の文字パターンを切り出し、個々の文字パタ
ーンに対する外接矩形の大きさと外接矩形に囲まれた切
り出し文字画像を出力する文字切り出し手段と、前記文
字切り出し手段で切り出された個々の切り出し文字画像
に対する基本特徴として輪郭情報と背景構造情報を求め
る基本特徴抽出手段と、前記基本特徴抽出手段から出力
された基本特徴に基づいて少なくとも一種類の統計的特
徴を求める統計的特徴抽出手段と、前記文字切り出し手
段で切出された個々の切り出し文字画像と前記基本特徴
抽出手段から出力された基本特徴に基づいて少なくとも
一種類の構造的特徴を求める構造的特徴抽出手段と、前
記統計的特徴抽出手段から出力された統計的特徴から切
り出し文字画像の各カテゴリに対する類似度を求め、類
似度の大きい順に選んだ少なくとも1つのカテゴリの類
似度と、同じ順に選んだ少なくとも一つのカテゴリとを
出力する認識手段と、前記認識手段から出力されたカテ
ゴリと前記カテゴリに対する類似度と前記構造的特徴抽
出手段から出力された構造的特徴とに基づいて最終的な
文字パターンの属するカテゴリを判定する第1の構造識
別手段とを備えたことを特徴とする光学的文字読み取り
装置である。
According to a sixth aspect of the present invention, in the character string data including the photoelectrically converted character frame line, the character frame line and the character string pattern are separated, and the character string pattern is separated from the separated character string pattern. A character cutting means for cutting out the character pattern of, and outputting a size of a circumscribing rectangle for each character pattern and a cut out character image surrounded by the circumscribing rectangle, and a basic feature for each cut out character image cut out by the character cutting means. Basic feature extracting means for obtaining contour information and background structure information, statistical feature extracting means for obtaining at least one kind of statistical feature based on the basic features output from the basic feature extracting means, and character cutting means for cutting. At least one structural feature based on the extracted individual character images and the basic features output from the basic feature extraction means. And a similarity of at least one category selected in descending order of similarity, from the structural feature extraction means for obtaining , A recognition unit that outputs at least one category selected in the same order, and a final output based on the category output from the recognition unit, the similarity to the category, and the structural feature output from the structural feature extraction unit. And a first structure identifying means for determining a category to which a specific character pattern belongs.

【0023】この構成により、基本特徴抽出手段では統
計的特徴と構造的特徴の両方に利用できるような基本特
徴を抽出することにより構成の共通化が可能になり、ま
た構造的特徴抽出手段では認識手段では識別が困難な類
似カテゴリの分離に有効な構造的特徴を中心に限定して
抽出することにより辞書作成を効率化し、統計的特徴を
用いて識別を行う認識手段から出力された認識結果に基
づいて、構造識別手段において必要な構造的特徴を選択
し最終的なカテゴリを決定することによって、処理の効
率化と類似カテゴリの認識性能の向上が可能になるとい
う作用を有する。
With this configuration, the basic feature extracting means can make the configuration common by extracting the basic features that can be used for both the statistical feature and the structural feature, and the structural feature extracting means can recognize the feature. It is possible to improve the efficiency of dictionary creation by extracting mainly structural features that are effective for separating similar categories that are difficult to identify by means, and use the statistical features to identify the recognition results output from the recognition Based on this, the structure identification means selects necessary structural features and determines the final category, which has the effect of making it possible to improve processing efficiency and improve recognition performance of similar categories.

【0024】本発明の請求項7に記載の発明は、前記第
1の構造識別手段が、前記認識手段から出力されたカテ
ゴリに基づいて、前記構造特徴抽出手段から出力された
少なくとも一つの構造的特徴の中から有効な構造的特徴
を選択する認識依存特徴選択手段と、選択された構造的
特徴に基づいてカテゴリを判定する選択構造的特徴識別
手段とを備えたことを特徴とする請求項6記載の光学的
文字読み取り装置である。
According to a seventh aspect of the present invention, the first structure identifying means outputs at least one structural element output from the structural feature extracting means based on the category output from the recognizing means. 7. The recognition-dependent feature selecting means for selecting an effective structural feature from the features, and the selected structural feature identifying means for determining a category based on the selected structural feature. The optical character reading device described above.

【0025】この構成により、統計的特徴を用いて識別
を行う認識手段から出力された認識結果に基づいて、構
造識別手段において必要な構造的特徴を選択し最終的な
カテゴリを決定することによって、更なる処理の効率化
と類似カテゴリの認識性能の向上が可能になるという作
用を有する。
With this configuration, the structural identification means selects necessary structural features and determines the final category based on the recognition result output from the recognition means that performs the identification using the statistical features. This has the effect of further improving the efficiency of processing and improving the recognition performance of similar categories.

【0026】本発明の請求項8に記載の発明は、前記文
字切り出し手段から出力された外接矩形の大きさに基づ
き活字または手書きの判定を行う字種判定手段を備え、
前記第1の構造識別手段が、前記字種判定手段で活字と
判定された文字に対して、個々の文字パターンが属する
カテゴリを判定する第1の活字処理手段と、前記字種判
定手段で手書きと判定された文字に対して、個々の文字
パターンが属するカテゴリを判定する第1の手書き処理
手段とを備えたことを特徴とする請求項6または7記載
の光学的文字読み取り装置である。
The invention according to claim 8 of the present invention comprises a character type judging means for judging a printed character or handwriting based on the size of the circumscribing rectangle outputted from the character cutting means,
The first structure identification means determines a category to which each character pattern belongs to a character determined to be a print type by the character type determination means, and a handwritten character by the character type determination means. 8. The optical character reading device according to claim 6 or 7, further comprising: first handwriting processing means for determining a category to which each character pattern belongs for the character determined to be.

【0027】この構成により、字種に応じて専門化処理
を行うことにより活字・手書き特有の構造的特徴を混同
することなく利用して、類似カテゴリ間の認識性能を高
め、処理の効率化が図れるという作用を有する。
With this configuration, by performing specialized processing according to the character type, the structural characteristics peculiar to print / handwriting can be used without confusion, the recognition performance between similar categories can be improved, and the processing efficiency can be improved. It has the effect of being able to achieve.

【0028】本発明の請求項9に記載の発明は、前記第
1の活字処理手段が、前記文字切り出し手段から出力さ
れた外接矩形の大きさと認識手段から出力されたカテゴ
リに基づいて構造的特徴抽出手段から出力された少なく
とも一つの構造的特徴の中から有効な構造的特徴を選択
する認識依存特徴選択手段と、認識依存特徴選択手段で
選択された構造的特徴に基づいてカテゴリ判定を行う選
択構造的特徴識別手段とを備えたことを特徴とする請求
項8記載の光学的文字読み取り装置である。
According to a ninth aspect of the present invention, the first type processing means is structurally characterized based on the size of the circumscribed rectangle output from the character cutting means and the category output from the recognition means. Recognition-dependent feature selection means for selecting an effective structural feature from at least one structural feature output from the extraction means, and selection for performing category determination based on the structural feature selected by the recognition-dependent feature selection means 9. The optical character reading device according to claim 8, further comprising a structural feature identifying means.

【0029】この構成により、統計的特徴を用いて識別
を行う認識手段から出力された認識結果に基づいて、構
造識別手段において必要な構造的特徴を選択し最終的な
カテゴリを決定することによって、更なる処理の効率化
と類似カテゴリの認識性能の向上が可能になるという作
用を有する。
With this configuration, the structural identification means selects necessary structural features and determines the final category based on the recognition result output from the recognition means that performs the identification using the statistical features. It has an effect that the efficiency of the processing can be further improved and the recognition performance of the similar category can be improved.

【0030】本発明の請求項10に記載の発明は、前記
第1の活字処理手段が、前記文字切り出し手段から出力
された外接矩形の大きさと認識手段から出力されたカテ
ゴリに基づいて一部のカテゴリに対する最終的なカテゴ
リ判定を行う外接矩形カテゴリ判定手段と、外接矩形カ
テゴリ判定手段で判定できない文字に対して認識手段か
ら出力されたカテゴリに基づいて構造的特徴抽出手段か
ら出力された少なくとも一つの構造的特徴の中から有効
な構造的特徴を選択する認識依存特徴選択手段と、前記
認識依存特徴選択手段で選択された構造的特徴に基づい
てカテゴリ判定を行う選択構造的特徴識別手段とを備え
たことを特徴とする請求項8記載の光学的文字読み取り
装置である。
According to a tenth aspect of the present invention, in the first character processing means, based on the size of the circumscribing rectangle output from the character cutting means and the category output from the recognizing means, A circumscribing rectangle category determining means for making a final category determination for the category, and at least one of the structural feature extracting means based on the category output from the recognizing means for a character that cannot be determined by the circumscribing rectangular category determining means. A recognition dependent feature selecting means for selecting an effective structural feature from the structural features, and a selected structural feature identifying means for performing a category determination based on the structural feature selected by the recognition dependent feature selecting means. 9. The optical character reading device according to claim 8, wherein

【0031】この構成により、外接矩形カテゴリ判定手
段で外接矩形の大きさだけで判別可能なカテゴリを最初
に判定することで効率的にカテゴリを分離し、認識依存
特徴選択手段で認識手段の結果に応じて類似カテゴリ分
離に必要な構造的特徴を選択して、選択構造的特徴識別
手段で選択した構造的特徴に応じて最終カテゴリ判断を
行うことで、効率的かつ効果的な類似カテゴリ分離が可
能であるという作用を有する。
With this configuration, the circumscribing rectangle category determining means first determines a category that can be discriminated only by the size of the circumscribing rectangle, so that the categories are efficiently separated, and the recognition-dependent feature selecting means determines the result of the recognizing means. Depending on the structural features required for similar category separation, the final category judgment can be made according to the structural features selected by the selected structural feature identification means, enabling efficient and effective similar category separation. Has the action of

【0032】本発明の請求項11に記載の発明は、前記
第1の手書き処理手段が、前記文字切り出し手段から出
力された外接矩形の大きさと認識手段から出力されたカ
テゴリに基づいて構造的特徴抽出手段から出力された少
なくとも一つの構造的特徴の中から有効な構造的特徴を
選択する認識依存特徴選択手段と、前記認識依存特徴選
択手段で選択された構造的特徴に基づいてカテゴリ判定
を行う選択構造的特徴識別手段とを備えたことを特徴と
する請求項8記載の光学的文字読み取り装置である。
The invention according to claim 11 of the present invention is a structural feature, wherein the first handwriting processing means is based on the size of the circumscribed rectangle output from the character cutting means and the category output from the recognition means. Recognition-dependent feature selection means for selecting an effective structural feature from at least one structural feature output from the extraction means, and category determination based on the structural feature selected by the recognition-dependent feature selection means 9. The optical character reader according to claim 8, further comprising a selective structural feature identifying means.

【0033】この構成により、統計的特徴を用いて識別
を行う認識手段から出力された認識結果に基づいて、構
造識別手段において必要な構造的特徴を選択し最終的な
カテゴリを決定することによって、更なる処理の効率化
と類似カテゴリの認識性能の向上が可能になるという作
用を有する。
With this configuration, the structural feature required by the structure identifying means is selected and the final category is determined based on the recognition result output from the recognizing means that performs the identification using the statistical feature. This has the effect of further improving the efficiency of processing and improving the recognition performance of similar categories.

【0034】本発明の請求項12に記載の発明は、前記
第1の手書き処理手段が、前記文字切り出し手段から出
力された外接矩形の大きさと認識手段から出力されたカ
テゴリに基づいて一部のカテゴリに対する最終的なカテ
ゴリ判定を行う外接矩形カテゴリ判定手段と、外接矩形
カテゴリ判定手段で判定できない文字に対して認識手段
から出力されたカテゴリに基づいて構造的特徴抽出手段
から出力された少なくとも一つの構造的特徴の中から有
効な構造的特徴を選択する認識依存特徴選択手段と、前
記認識依存特徴選択手段で選択された構造的特徴に基づ
いてカテゴリ判定を行う選択構造的特徴識別手段とを備
えたことを特徴とする請求項8記載の光学的文字読み取
り装置である。
According to a twelfth aspect of the present invention, in the first handwriting processing means, based on the size of the circumscribing rectangle output from the character cutting means and the category output from the recognizing means, A circumscribing rectangle category determining means for making a final category determination for the category, and at least one of the structural feature extracting means based on the category output from the recognizing means for a character that cannot be determined by the circumscribing rectangular category determining means. A recognition dependent feature selecting means for selecting an effective structural feature from the structural features, and a selected structural feature identifying means for performing a category determination based on the structural feature selected by the recognition dependent feature selecting means. 9. The optical character reading device according to claim 8, wherein

【0035】この構成により、外接矩形カテゴリ判定手
段で外接矩形の大きさだけで判別可能なカテゴリを最初
に判定することで効率的にカテゴリを分離し、認識依存
特徴選択手段で認識手段の結果に応じて類似カテゴリ分
離に必要な構造的特徴を選択して、選択構造的特徴識別
手段で選択した構造的特徴に応じて最終カテゴリ判断を
行うことで効率的かつ効果的な類似カテゴリ分離が可能
であるという作用を有する。
With this configuration, the circumscribing rectangle category determining means first determines a category that can be discriminated only by the size of the circumscribing rectangle, so that the categories are efficiently separated, and the recognition-dependent feature selecting means determines the result of the recognizing means. Depending on the structural features required for similar category separation, the final category judgment is performed according to the structural features selected by the selected structural feature identification means, which enables efficient and effective similar category separation. Has the effect of being.

【0036】本発明の請求項13に記載の発明は、光電
変換された文字枠線を含む文字列データに対して、文字
枠線と文字列パターンを分離し、分離された文字列パタ
ーンから個々の文字パターンを切り出し、個々の文字パ
ターンに対する外接矩形の大きさと外接矩形に囲まれた
切り出し文字画像を出力する文字切り出し手段と、前記
文字切り出し手段で切り出された個々の切り出し文字画
像に対する基本特徴として輪郭情報と背景構造情報を求
める基本特徴抽出手段と、前記基本特徴抽出手段から出
力された基本特徴に基づいて少なくとも一種類の統計的
特徴を求める統計的特徴抽出手段と、前記文字切り出し
手段で切出された個々の切り出し文字画像と前記基本特
徴抽出手段から出力された基本特徴に基づいて少なくと
も一種類の構造的特徴を求める構造的特徴抽出手段と、
前記統計的特徴抽出手段から出力された統計的特徴から
切り出し文字画像の各カテゴリに対する類似度を求め、
類似度の大きい順に選んだ少なくとも1つのカテゴリの
類似度と、同じ順に選んだ少なくとも一つのカテゴリを
出力する認識手段と、前記文字切り出し手段から出力さ
れた文字パターンの外接矩形の大きさと前記認識手段か
ら出力されたカテゴリと前記構造的特徴抽出手段から出
力された構造的特徴との少なくとも一つに基づいて前記
認識手段から出力された類似度を修正し、修正後の類似
度に基づいて文字パターンが属するカテゴリを最終的に
判定する第2の構造識別手段とを備えたことを特徴とす
る光学的文字読み取り装置である。
According to a thirteenth aspect of the present invention, the character frame line and the character string pattern are separated for the character string data including the photoelectrically converted character frame line, and the character string pattern is separated from the separated character string pattern. A character cutting means for cutting out the character pattern of, and outputting a size of a circumscribing rectangle for each character pattern and a cut out character image surrounded by the circumscribing rectangle, and a basic feature for each cut out character image cut out by the character cutting means. Basic feature extracting means for obtaining contour information and background structure information, statistical feature extracting means for obtaining at least one kind of statistical feature based on the basic features output from the basic feature extracting means, and character cutting means for cutting. At least one structural type based on the extracted individual character images and the basic features output from the basic feature extraction means. And structural features extracting means for obtaining the symptoms,
Obtaining the degree of similarity to each category of the cut-out character image from the statistical features output from the statistical feature extraction means,
Similarity of at least one category selected in descending order of similarity, recognition means for outputting at least one category selected in the same order, size of the circumscribed rectangle of the character pattern output from the character cutting means, and the recognition means The similarity output from the recognition means based on at least one of the category output from the structural feature extraction means and the structural feature output from the structural feature extraction means, and the character pattern based on the corrected similarity. And a second structure identifying means for finally determining a category to which the character belongs.

【0037】この構成により、認識手段から出力された
類似度の微妙な差を最終的なカテゴリ決定に反映させる
ことができ、また、構造的特徴の検出結果を定量的に類
似度の修正値に反映させることができるため、認識性能
が向上するという作用を有する。
With this configuration, a subtle difference in the similarity output from the recognition means can be reflected in the final category determination, and the detection result of the structural feature can be quantitatively used as a correction value for the similarity. Since it can be reflected, it has an effect of improving recognition performance.

【0038】本発明の請求項14に記載の発明は、前記
第2の構造識別手段が、前記文字切り出し手段から出力
された文字パターンの外接矩形の大きさと前記認識手段
から出力された少なくとも一つのカテゴリと前記構造的
特徴抽出手段から出力された構造的特徴に基づいて、前
記認識手段から出力された類似度を修正する類似度修正
手段と、前記認識手段から出力された少なくとも一つの
カテゴリの類似度と前記類似度修正手段により修正され
た類似度と加算して修正類似度を算出する加算器と、前
記加算器から出力された修正類似度から個々の文字パタ
ーンが属するカテゴリを決定する修正カテゴリ判定手段
とを備えたことを特徴とする請求項13記載の光学的文
字読み取り装置である。
According to a fourteenth aspect of the present invention, in the second structure identifying means, the size of the circumscribed rectangle of the character pattern output from the character cutting means and at least one output from the recognizing means. Similarity correction means for correcting the similarity output from the recognition means based on the category and the structural feature output from the structural feature extraction means, and similarity of at least one category output from the recognition means Degree and the similarity degree corrected by the similarity degree correction means to calculate a corrected similarity degree, and a correction category for determining a category to which each character pattern belongs from the corrected similarity degree output from the adder. 14. The optical character reading device according to claim 13, further comprising a determining unit.

【0039】この構成により、認識手段から出力された
類似度の微妙な差を最終的なカテゴリ決定に反映させる
ことができ、また、構造的特徴の検出結果を定量的に類
似度の修正値に反映させることができるため、認識性能
が向上するという作用を有する。
With this configuration, the subtle difference in the similarity output from the recognition means can be reflected in the final category determination, and the detection result of the structural feature can be quantitatively used as the correction value of the similarity. Since it can be reflected, it has an effect of improving recognition performance.

【0040】本発明の請求項15に記載の発明は、前記
文字切り出し手段から出力された外接矩形の大きさに基
づき活字または手書きの判定を行う字種判定手段を備
え、前記第2の構造識別手段が、前記字種判定手段で活
字と判定された文字に対して、個々の文字パターンが属
するカテゴリを判定する第2の活字処理手段と、前記字
種判定手段で手書きと判定された文字に対して、個々の
文字パターンが属するカテゴリを判定する第2の手書き
処理手段とを備えたことを特徴とする請求項13または
14記載の光学的文字読み取り装置である。
According to a fifteenth aspect of the present invention, there is provided a character type determining means for determining a printed character or handwriting based on the size of the circumscribing rectangle output from the character cutting means, and the second structure identification. A second character processing unit that determines a category to which each character pattern belongs to a character that is determined to be a print character by the character type determination unit; and a character that is determined to be handwritten by the character type determination unit. On the other hand, the optical character reader according to claim 13 or 14, further comprising a second handwriting processing means for determining a category to which each character pattern belongs.

【0041】この構成により、字種に応じて専門化処理
を行うことにより活字・手書き特有の構造的特徴を混同
することなく利用して、類似カテゴリ間の認識性能を高
め、処理の効率化が図れるという作用を有する。
With this configuration, by performing the specialized processing according to the character type, the structural characteristics peculiar to print / handwriting can be used without confusion, the recognition performance between similar categories can be improved, and the processing efficiency can be improved. It has the effect of being able to achieve.

【0042】本発明の請求項16に記載の発明は、前記
第2の活字処理手段が、前記文字切り出し手段から出力
された文字パターンの外接矩形の大きさと前記認識手段
から出力された少なくとも一つのカテゴリと前記構造的
特徴抽出手段から出力された構造的特徴に基づいて、前
記認識手段から出力された類似度を修正する類似度修正
手段と、前記認識手段から出力された少なくとも一つの
カテゴリの類似度と前記類似度修正手段により修正され
た類似度と加算して修正類似度を算出する加算器と、前
記加算器から出力された修正類似度から個々の文字パタ
ーンが属するカテゴリを決定する修正カテゴリ判定手段
とを備えたことを特徴とする請求項15記載の光学的文
字読み取り装置である。
According to a sixteenth aspect of the present invention, in the second character processing means, the size of the circumscribing rectangle of the character pattern output from the character cutting means and at least one output from the recognizing means. Similarity correction means for correcting the similarity output from the recognition means based on the category and the structural feature output from the structural feature extraction means, and similarity of at least one category output from the recognition means Degree and the similarity degree corrected by the similarity degree correction means to calculate a corrected similarity degree, and a correction category for determining a category to which each character pattern belongs from the corrected similarity degree output from the adder. 16. The optical character reading device according to claim 15, further comprising a determining unit.

【0043】この構成により、認識手段から出力された
類似度の微妙な差を最終的なカテゴリ決定に反映させる
ことができ、また、構造的特徴の検出結果を定量的に類
似度の修正値に反映させることができるため、認識性能
が向上するという作用を有する。
With this configuration, the subtle difference in the similarity output from the recognition means can be reflected in the final category determination, and the detection result of the structural feature can be quantitatively used as the correction value of the similarity. Since it can be reflected, it has an effect of improving recognition performance.

【0044】本発明の請求項17に記載の発明は、前記
第2の手書き処理手段が、前記文字切り出し手段から出
力された文字パターンの外接矩形の大きさと前記認識手
段から出力された少なくとも一つのカテゴリと前記構造
的特徴抽出手段から出力された構造的特徴に基づいて、
前記認識手段から出力された類似度を修正する類似度修
正手段と、前記認識手段から出力された少なくとも一つ
のカテゴリの類似度と前記類似度修正手段により修正さ
れた類似度と加算して修正類似度を算出する加算器と、
前記加算器から出力された修正類似度から個々の文字パ
ターンが属するカテゴリを決定する修正カテゴリ判定手
段とを備えたことを特徴とする請求項15記載の光学的
文字読み取り装置である。
According to a seventeenth aspect of the present invention, in the second handwriting processing means, at least one of the size of the circumscribed rectangle of the character pattern output from the character cutting means and the recognition means is output. Based on the structural features output from the category and the structural feature extraction means,
Similarity correction means for correcting the similarity output from the recognition means, and correction similarity by adding the similarity of at least one category output from the recognition means and the similarity corrected by the similarity correction means An adder for calculating degrees,
16. The optical character reading device according to claim 15, further comprising a correction category determination unit that determines a category to which each character pattern belongs from the correction similarity output from the adder.

【0045】この構成により、認識手段から出力された
類似度の微妙な差を最終的なカテゴリ決定に反映させる
ことができ、また、構造的特徴の検出結果を定量的に類
似度の修正値に反映させることができるため、認識性能
が向上するという作用を有する。
With this configuration, the subtle difference in the similarity output from the recognition means can be reflected in the final category determination, and the detection result of the structural feature can be quantitatively used as the correction value of the similarity. Since it can be reflected, it has an effect of improving recognition performance.

【0046】本発明の請求項18に記載の発明は、前記
基本特徴抽出手段が、 前記文字切り出し手段から出力
される切り出し画像中の文字パターンの輪郭点を抽出す
る輪郭点抽出手段と、前記輪郭点抽出手段から出力され
た個々の輪郭点の隣接関係から画素単位の輪郭方向成分
を算出する輪郭方向算出手段と、前記輪郭点抽出手段か
ら出力された輪郭点の位置に基づいて文字パターンの外
接矩形の各々の辺から文字パターンまでの背景距離を求
める背景距離算出手段と前記文字切り出し手段から出力
された切り出し画像を水平及び垂直方向のライン毎に走
査し、一定画素以上連続する白画素(背景)の連続する
長さ・位置情報とその背景の走査方向に沿った発生順番
である背景次数を算出する背景情報算出手段とを備えた
ことを特徴とする請求項6、8、13、15のいずれか
に記載の光学的文字読み取り装置である。
In the eighteenth aspect of the present invention, the basic feature extracting means includes contour point extracting means for extracting contour points of a character pattern in a cutout image output from the character cutting means, and the contouring point extracting means. A contour direction calculation means for calculating a contour direction component in pixel units from the adjacency relation of individual contour points outputted from the point extraction means, and a circumscribed character pattern based on the position of the contour point outputted from the contour point extraction means. The background distance calculation means for obtaining the background distance from each side of the rectangle to the character pattern and the cutout image output from the character cutout means are scanned for each line in the horizontal and vertical directions, and white pixels continuous for a certain number of pixels (background ) Continuous length / position information and background information calculation means for calculating the background order which is the generation order of the background along the scanning direction. The optical character reading device according to any one of claim 6, 8, 13, and 15.

【0047】この構成により、輪郭方向算出部における
輪郭方向成分の算出、背景距離算出部における外接矩形
の各々の辺から文字パターンまでの背景距離の算出、背
景情報算出部における背景情報算出のための共通の前処
理として輪郭点抽出部で文字パターンの輪郭点を抽出す
ることにより、基本特徴抽出の効率が向上する。また、
基本特徴として輪郭点、輪郭方向成分、背景距離、背景
情報を抽出する事により統計的特徴だけでなく、文字構
造を反映した構造特徴量にも流用が可能になり特徴抽出
処理の効率化が図れるという作用を有する。
With this configuration, the contour direction component is calculated in the contour direction calculation unit, the background distance from each side of the circumscribed rectangle to the character pattern is calculated in the background distance calculation unit, and the background information calculation is performed in the background information calculation unit. By extracting the contour points of the character pattern by the contour point extraction unit as common preprocessing, the efficiency of basic feature extraction is improved. Also,
By extracting contour points, contour direction components, background distances, and background information as basic features, not only statistical features but also structural feature quantities that reflect the character structure can be diverted and the efficiency of feature extraction processing can be improved. Has the effect of.

【0048】本発明の請求項19に記載の発明は、前記
統計的特徴抽出手段が、前記文字切り出し手段から出力
された切り出し画像を水平・垂直両方向で複数のブロッ
クに分割する両方向ブロック分割手段と、前記両方向ブ
ロック分割手段で分割したブロック単位で、前記基本特
徴抽出手段の輪郭方向算出手段から出力された輪郭方向
成分について輪郭方向毎の個数を集計する輪郭方向集計
手段と、輪郭方向集計手段から出力されたブロック単位
の輪郭方向毎の輪郭方向成分の個数をブロックの大きさ
で割ることで得られる輪郭方向毎の輪郭統計特徴量を求
める輪郭方向正規化手段と、前記文字切り出し手段から
出力された切り出し画像を水平方向で複数のブロックに
分割する水平方向ブロック分割手段と、前記文字切り出
し手段から出力された切り出し画像を垂直方向で複数の
ブロックに分割する垂直方向ブロック分割手段と、前記
基本特徴抽出手段から出力された輪郭方向成分に基づい
て、前記水平方向ブロック分割部及び垂直方向ブロック
分割手段で分割したブロック単位で、ブロック分割境界
線に垂直な外接矩形の辺からブロック分割境界線に平行
方向に走査して最初に存在する文字パターンを構成する
画素の輪郭方向毎の輪郭方向成分の個数である外郭方向
成分の個数を集計する外郭方向集計手段と、外郭方向集
計手段から出力されたブロック単位の輪郭方向毎の外郭
方向成分の個数をブロックの大きさで割ることで得られ
る輪郭方向毎の外郭統計特徴量を求める外郭方向正規化
手段と、前記基本特徴抽出手段の背景距離算出手段から
出力された背景距離に基づいて、前記水平方向ブロック
分割部及び垂直方向ブロック分割部で分割したブロック
単位でブロック分割方向の背景距離を合計する背景距離
合計手段と、背景距離集計手段から出力されたブロック
単位の集計背景距離をブロックの大きさで割ることで得
られる背景距離特徴量を求める背景距離正規化手段とを
備えたことを特徴とする請求項6、8、13、15のい
ずれかに記載の光学的文字読み取り装置である。
According to a nineteenth aspect of the present invention, the statistical feature extracting means includes a bidirectional block dividing means for dividing the clipped image output from the character clipping means into a plurality of blocks in both horizontal and vertical directions. From the contour direction totalizing means and the contour direction totaling means for totaling the number of each of the contour direction components output from the contour direction calculating means of the basic feature extracting means in block units divided by the bidirectional block dividing means The contour direction normalizing means for obtaining the contour statistical feature amount for each contour direction obtained by dividing the number of the outputted contour direction components for each contour direction by the block size, and the output from the character cutting means. Output from the character cutting means and a horizontal block dividing means for dividing the cut-out image into a plurality of blocks in the horizontal direction. A vertical block dividing unit that divides the clipped image into a plurality of blocks in the vertical direction, and a horizontal block dividing unit and a vertical block dividing unit based on the contour direction component output from the basic feature extracting unit. The number of contour direction components for each contour direction of the pixels that form the first character pattern that scans in a direction parallel to the block division boundary line from the side of the circumscribed rectangle perpendicular to the block division boundary line in the unit of the block. An outline direction totaling means for totaling the number of outline direction components, and an outline for each outline direction obtained by dividing the number of outline direction components for each outline direction for each block output from the outline direction totalizing means by the size of the block. Based on the background distance output from the outline direction normalizing means for obtaining the statistical feature amount and the background distance calculating means of the basic feature extracting means, The background distance totaling means for totaling the background distances in the block dividing direction in units of blocks divided by the horizontal block dividing unit and the vertical block dividing unit, and the aggregate background distance in block units output from the background distance aggregating unit are the block sizes. 16. The optical character reading device according to claim 6, further comprising a background distance normalization unit that obtains a background distance feature amount obtained by dividing by the distance.

【0049】この構成により、両方向ブロック分割手
段、水平方向ブロック分割部及び垂直方向ブロック分割
手段によって文字パターンを複数のブロックに分割し、
輪郭方向集計手段、外郭方向集計手段及び背景距離集計
手段で各々のブロック全体の特徴量を加算集計すること
により、基本特徴抽出手段で抽出した基本特徴からブロ
ックの統計的特徴を抽出することでき、さらに輪郭方向
正規化手段、外郭方向正規化手段、及び背景距離正規化
手段でブロックの統計的特徴を正規化することにより、
認識対象の変化に影響されにくい特徴を抽出できるとい
う作用を有する。
With this configuration, the bidirectional block dividing means, the horizontal block dividing portion, and the vertical block dividing means divide the character pattern into a plurality of blocks,
By adding and totaling the feature amounts of each block by the contour direction totaling means, the outline direction totaling means, and the background distance totaling means, the statistical characteristics of the blocks can be extracted from the basic characteristics extracted by the basic characteristic extracting means, Further, by normalizing the statistical characteristics of the block by the contour direction normalizing means, the outer contour direction normalizing means, and the background distance normalizing means,
This has the effect of extracting features that are less likely to be affected by changes in the recognition target.

【0050】本発明の請求項20に記載の発明は、前記
構造的特徴抽出手段が、前記基本特徴抽出手段の背景距
離算出手段から出力された背景距離に基づいて局所的な
背景距離特徴を抽出する局所背景特徴抽出手段と、前記
基本特徴抽出手段の輪郭方向算出手段から出力された輪
郭方向成分に基づいて局所的なストローク方向の変化を
抽出する局所ストローク形状抽出手段と、 前記文字切
り出し手段から出力された切り出し文字画像と前記基本
特徴抽出手段の輪郭方向算出手段から出力された輪郭方
向成分に基づいて文字パターンのループを抽出する第1
のループ抽出手段と、前記基本特徴抽出手段の背景情報
算出手段で算出した背景情報に基づいて背景次数毎に隣
接する背景画素の塊を背景ブロックとして求めると共
に、その大きさ情報と位置情報を算出する背景ブロック
抽出手段と、前記基本特徴抽出手段の背景情報算出手段
で算出した背景情報に基づいて隣接する白画素の塊を背
景ラベルとして求めラベル番号を付与すると共に、その
大きさ、位置、その背景ラベルが外接矩形のどの辺と接
するかを表わすラベル情報を算出する背景ラベル抽出手
段と、前記基本特徴抽出手段の背景情報算出手段で算出
した背景情報に基づいて文字パターンを構成するストロ
ークの端点と交点と抽出する端点・交点抽出手段と、前
記基本特徴抽出手段の背景情報算出手段で算出した背景
情報と前記端点・交点抽出手段で抽出された端点と交点
とに基づいて直線を抽出する直線抽出手段とを備えたこ
とを特徴とする請求項6、8、13、15のいずれかに
記載の光学的文字読み取り装置である。
According to a twentieth aspect of the present invention, the structural feature extracting means extracts a local background distance feature based on the background distance output from the background distance calculating means of the basic feature extracting means. Local stroke feature extracting means for extracting a local stroke direction change based on the contour direction component output from the contour direction calculating means of the basic feature extracting means; and the character cutting means. A first extracting a loop of a character pattern based on the output cut-out character image and the contour direction component output from the contour direction calculating means of the basic feature extracting means.
Loop extraction means and the background information calculation means of the basic feature extraction means, and the background information calculated by the background information, and a block of adjacent background pixels for each background degree is obtained as a background block, and its size information and position information are calculated. The background block extracting means, and the label number is obtained as a background label lump of adjacent white pixels based on the background information calculated by the background information calculating means of the basic feature extracting means, and its size, position, its Background label extracting means for calculating label information indicating which side of the circumscribed rectangle the background label touches, and end points of strokes forming a character pattern based on the background information calculated by the background information calculating means of the basic feature extracting means. End point / intersection point extraction means for extracting the intersection point and the background information calculated by the background information calculation means of the basic feature extraction means and the end point / intersection point. 16. The optical character reading device according to claim 6, further comprising: a straight line extracting unit that extracts a straight line based on the end points and the intersections extracted by the extracting unit. is there.

【0051】この構成により、基本特徴抽出部で抽出さ
れた基本特徴に基づいて、局所背景特徴抽出部におい
て、特定のカテゴリ間の識別に有効である背景部の部分
的な凹凸情報を抽出し、局所ストローク形状抽出部にお
いて普遍性の高い類似カテゴリ間のストロークの屈曲方
向や直線性の相違を抽出し、第1のループ抽出部におい
て普遍性の高い特徴であるストロークのループ数を抽出
し、背景ブロック抽出部において文字背景部の構造を抽
出し、背景ラベル抽出部において文字背景部の大きさ、
外接矩形との位置関係を抽出し、端点・交点抽出部にお
いて端点・交点の情報を抽出し、直線抽出部で直線を抽
出することにより、文字の構造的な特徴をより明示的に
表す構造的特徴の効率的な抽出が可能で、これらの構造
的特徴を用いることにより統計的特徴量のみを利用する
識別方法では識別が困難な類似カテゴリ間の認識性能の
向上が可能であるという作用を有する。
With this configuration, based on the basic features extracted by the basic feature extraction unit, the local background feature extraction unit extracts partial unevenness information of the background portion, which is effective for discrimination between specific categories, The local stroke shape extraction unit extracts the difference in stroke bending direction and linearity between similar categories having high universality, and the first loop extraction unit extracts the number of stroke loops, which is a characteristic of high universality. The block extraction unit extracts the structure of the character background portion, the background label extraction unit extracts the size of the character background portion,
By extracting the positional relationship with the circumscribed rectangle, extracting the information of the end points / intersections in the end point / intersection point extraction section, and extracting the straight line in the straight line extraction section Features can be extracted efficiently, and by using these structural features, it is possible to improve the recognition performance between similar categories, which is difficult to identify with an identification method that uses only statistical features. .

【0052】本発明の請求項21に記載の発明は、前記
構造的特徴抽出部が、前記基本特徴抽出手段の背景距離
算出手段から出力された背景距離に基づいて局所的な背
景距離特徴を抽出する局所背景特徴抽出手段と、前記基
本特徴抽出手段の輪郭方向算出手段から出力された輪郭
方向成分に基づいて局所的なストローク方向の変化を抽
出する局所ストローク形状抽出手段と、前記基本特徴抽
出手段の背景情報算出手段で算出した背景情報から、背
景次数毎に隣接する背景画素の塊を背景ブロックとして
求めると共に、その大きさ情報と位置情報を算出する背
景ブロック抽出手段と、前記基本特徴抽出手段の背景情
報算出手段で算出した背景情報から、隣接する白画素の
塊を背景ラベルとして求めラベル番号を付与すると共
に、その大きさ、位置、その背景ラベルが外接矩形のど
の辺と接するかを表わすラベル情報を算出する背景ラベ
ル抽出手段と、前記基本特徴抽出手段の背景情報算出手
段で算出した背景情報に基づいて文字パターンを構成す
るストロークの端点と交点と抽出する端点・交点抽出手
段と、前記基本特徴抽出手段の背景情報算出手段で算出
した背景情報と前記端点・交点抽出手段で抽出された端
点と交点とに基づいて直線を抽出する直線抽出手段と、
前記背景ラベル抽出手段で算出したラベル情報に基づい
て文字パターンのループを抽出する第2のループ抽出手
段とを備えたことを特徴とする請求項6、8、13、1
5のいずれかに記載の光学的文字読み取り装置である。
In the twenty-first aspect of the present invention, the structural feature extraction unit extracts a local background distance feature based on the background distance output from the background distance calculation unit of the basic feature extraction unit. Local background feature extraction means, local stroke shape extraction means for extracting local stroke direction changes based on the contour direction component output from the contour direction calculation means of the basic feature extraction means, and the basic feature extraction means From the background information calculated by the background information calculating unit, a background block extracting unit that obtains a block of adjacent background pixels for each background degree as a background block, and calculates size information and position information thereof, and the basic feature extracting unit. From the background information calculated by the background information calculation means, a block of adjacent white pixels is obtained as a background label, a label number is given, and its size and position are calculated. A background label extracting means for calculating label information indicating which side of the circumscribing rectangle the background label touches, and a stroke forming a character pattern based on the background information calculated by the background information calculating means of the basic feature extracting means. End point / intersection point extracting means for extracting the end point and the intersection point, and a straight line is extracted based on the background information calculated by the background information calculating means of the basic feature extracting means and the end point / intersection point extracted by the end point / intersection point extracting means. Straight line extracting means,
7. A second loop extracting means for extracting a loop of a character pattern based on label information calculated by the background label extracting means.
5. The optical character reading device according to any one of 5 above.

【0053】この構成により、基本特徴抽出部で抽出さ
れた基本特徴に基づいて、局所背景特徴抽出部において
特定のカテゴリ間の識別に有効である背景部の部分的な
凹凸情報を抽出し、局所ストローク形状抽出部において
普遍性の高い類似カテゴリ間のストロークの屈曲方向や
直線性の相違を抽出し、背景ブロック抽出部において文
字背景部の構造を抽出し、背景ラベル抽出部において文
字背景部の大きさ、外接矩形との位置関係を抽出し、端
点・交点抽出部において端点・交点の情報を抽出し、直線
抽出部で直線を抽出し、第2のループ抽出部において普
遍性の高い特徴であるストロークのループ数を抽出する
ことにより、文字の構造的な特徴をより明示的に表す構
造的特徴の効率的な抽出が可能で、これらの構造的特徴
を用いることにより統計的特徴量のみを利用する識別方
法では識別が困難な類似カテゴリ間の認識性能の向上が
可能であるという作用を有する。また、ループ数をラベ
ル情報のみに基づいて抽出することにより、処理の効率
化が図れるという作用を有する。
With this configuration, based on the basic features extracted by the basic feature extraction unit, the local background feature extraction unit extracts the partial unevenness information of the background portion which is effective for discrimination between specific categories, and The stroke shape extraction unit extracts the difference in stroke bending direction and linearity between similar categories with high universality, the background block extraction unit extracts the structure of the character background portion, and the background label extraction unit extracts the size of the character background portion. Now, the positional relationship with the circumscribed rectangle is extracted, the end point / intersection point extraction unit extracts end point / intersection point information, the straight line extraction unit extracts a straight line, and the second loop extraction unit has a highly universal characteristic. By extracting the number of stroke loops, it is possible to efficiently extract structural features that more explicitly represent the structural features of a character. Ri The identification method using only statistical characteristic quantity has the effect that it is possible to improve the recognition performance between hard similar categories identified. In addition, by extracting the number of loops based only on the label information, there is an effect that the efficiency of processing can be improved.

【0054】本発明の請求項22に記載の発明は、前記
端点・交点抽出手段が、前記背景情報算出手段から出力
された垂直及び水平方向の各ラインの背景情報に基づき
文字パターンの端点及び交点の候補を抽出する端点・交
点候補抽出手段と、前記抽出された端点及び交点候補の
個々の位置関係を比較することにより不適切な端点及び
交点候補を除去して適切な端点及び交点を抽出する端点
・交点判定手段とを備えたことを特徴とする請求項20
または21記載の光学的文字読み取り装置である。
According to a twenty-second aspect of the present invention, the end point / intersection point extracting means is configured so that the end point / intersection point of the character pattern is based on the background information of each line in the vertical and horizontal directions output from the background information calculating means. By comparing the respective positional relationships of the extracted end points and intersection point candidates with the end point / intersection point candidate extraction means for extracting the candidates, inappropriate end points and intersection point candidates are removed to extract appropriate end points and intersection points. 21. An end point / intersection point determining means is provided.
Or the optical character reading device described in 21.

【0055】この構成により、端点・交点抽出手段にお
いて、基本特徴抽出手段の背景情報で予め抽出した背景
情報を利用することにより隣接するラインの背景情報を
比較して相違を調べるだけの簡単な処理により端点及び
交点の候補を抽出することができ、端点・交点判定部に
おいて、端点と交点候補の位置関係に基づき他の端点ま
たは交点候補との距離が近すぎる端点または交点候補を
除去することにより、ノイズによる端点または交点の誤
抽出を減少させ、カテゴリ2とカテゴリ3のような類似
カテゴリの分離に効果的な端点及び交点の情報をより高
精度に抽出できるという作用を有する。
With this configuration, in the end point / intersection point extraction means, the background information extracted in advance by the background information of the basic feature extraction means is used to compare the background information of the adjacent lines and to perform a simple process of checking the difference. You can extract end points and intersection candidates by using the end point / intersection determination section to remove end points or intersection candidates that are too close to other end points or intersection candidates based on the positional relationship between the end points and intersection candidates. This has the effect of reducing erroneous extraction of end points or intersections due to noise, and more accurately extracting end point and intersection information that is effective in separating similar categories such as category 2 and category 3.

【0056】本発明の請求項23に記載の発明は、前記
直線抽出手段が、前記背景情報算出手段から出力された
垂直及び水平方向の各ラインの背景情報に基づき黒画素
が予め定められた閾値よりも長く連続する領域を抽出す
る黒画素連続領域抽出手段と、前記黒画素連続領域抽出
手段から出力された黒画素連続領域に基づき垂直及び水
平方向の直線候補を抽出する直線候補抽出手段と、前記
端点・交点抽出手段から出力された端点及び交点の位置
情報に基づき前記直線候補抽出手段から出力された直線
候補の中から直線でないものを除去し、残った直線候補
の中から近傍の線との接続状態に応じて種類を判定する
直線判定手段とを備えたことを特徴とする請求項20ま
たは21記載の光学的文字読み取り装置である。
According to the twenty-third aspect of the present invention, the straight line extracting means sets a threshold value at which a black pixel is predetermined based on the background information of each line in the vertical and horizontal directions output from the background information calculating means. A black pixel continuous area extracting means for extracting a continuous area longer than that, a straight line candidate extracting means for extracting vertical and horizontal straight line candidates based on the black pixel continuous area output from the black pixel continuous area extracting means, The non-straight line candidates are removed from the straight line candidates output from the straight line candidate extraction means based on the position information of the end points and the intersection points output from the end point / intersection point extraction means, and a neighboring line is selected from the remaining straight line candidates. 22. The optical character reading device according to claim 20, further comprising: a straight line determination unit that determines the type according to the connection state of.

【0057】この構成により、黒画素連続領域抽出手段
及び直線候補抽出手段において、基本特徴抽出手段の背
景情報算出手段で予め抽出した背景情報を利用して、黒
画素の連続度及び複数ラインへの連続度を調べるだけの
簡単な処理により直線候補を抽出することができ、また
直線判定部において端点及び交点の位置情報を用いて線
の合流や分岐に伴なって発生する誤った直線候補を除去
し、残った直線候補を近傍の線との接続状態に応じて分
類することにしたことにより、水平方向の短い直線に特
徴のあるカテゴリ¥のようなカテゴリを分離に効果的な
直線を高精度に抽出できるという作用を有する。
With this configuration, in the black pixel continuous region extracting means and the straight line candidate extracting means, the background information extracted in advance by the background information calculating means of the basic feature extracting means is used, and the degree of continuity of black pixels and a plurality of lines are extracted. Straight line candidates can be extracted by a simple process that only checks continuity, and erroneous straight line candidates that occur due to line merging or branching can be removed using the position information of end points and intersections in the straight line determination unit. However, by classifying the remaining straight line candidates according to the connection state with neighboring lines, it is possible to obtain a highly accurate straight line that is effective for separating a category such as the category \ that is characteristic of a short horizontal straight line. It has the effect that it can be extracted.

【0058】本発明の請求項24に記載の発明は、前記
文字切り出し手段から出力された文字パターンの外接矩
形の大きさ、前記認識手段から出力された少なくとも一
つの類似度、前記背景情報算出手段で算出した背景情報
に基づく背景複雑度の中の少なくとも一つに基づいて切
り出しエラーを判定し、前記文字切り出し手段に再切り
出しの指示を与えるエラー判定手段を備えたことを特徴
とする請求項6、8、13、15のいずれかに記載の光
学的文字読み取り装置である。
According to a twenty-fourth aspect of the present invention, the size of the circumscribing rectangle of the character pattern output from the character cutting means, at least one similarity degree output from the recognition means, and the background information calculation means. 7. An error determination means for determining a cutout error on the basis of at least one of the background complexity levels calculated based on the background information, and for giving a recutout instruction to the character cutout means. The optical character reader according to any one of claims 8 , 8, 13 and 15 .

【0059】この構成により、外接矩形が他の文字の外
接矩形と大きく相違していたり規定の外接矩形から外れ
ている場合や、類似度が他の文字の類似度に比べて極端
に低い場合や、第1位の類似度と第2位以下の類似度と
の差が少ない場合などに切り出しエラーがあると判定し
再切り出しを行うことにより、切り出し誤りを減らし、
切り出し誤りに起因する誤認識を減少させることができ
るという作用を有する。
With this configuration, when the circumscribed rectangle is significantly different from the circumscribed rectangle of another character, is out of the prescribed circumscribed rectangle, or when the similarity is extremely lower than the similarity of other characters, , If the difference between the similarity of the first rank and the similarity of the second rank or less is small, it is judged that there is a cutout error and the cutout is performed again to reduce the cutout error,
This has the effect of reducing erroneous recognition due to clipping errors.

【0060】本発明の請求項25に記載の発明は、前記
認識手段で算出されたカテゴリ類似度の大きい方から2
つのカテゴリ類似度を選択し、2番目の類似度と最大類
似度の比の値が予め設定されている閾値aより大きい
か、または最大類似度が予め設定されている閾値bより
小さいか、または前記背景情報算出手段で算出した背景
情報に基づく背景複雑度が予め設定されている閾値cよ
り大きい場合にリジェクト信号を出力し、それ以外の場
合は認識結果として最大類似度のカテゴリを出力する第
1の認識結果算出手段を備えたことを特徴とする請求項
6、8、13、15、24のいずれかに記載の光学的文
字読み取り装置である。
According to a twenty-fifth aspect of the present invention, the category similarity calculated by the recognizing means is 2 in descending order.
One category similarity is selected, and the value of the ratio of the second similarity and the maximum similarity is larger than a preset threshold value a, or the maximum similarity is smaller than a preset threshold value b, or A reject signal is output when the background complexity calculated based on the background information calculated by the background information calculating unit is larger than a preset threshold value c, and otherwise a category of maximum similarity is output as a recognition result. The optical character reading device according to any one of claims 6, 8, 13, 15, and 24, characterized in that the recognition result calculating means (1) is provided.

【0061】この構成により、最大類似度の大きさ及び
背景複雑度もリジェクト判定に利用する事により、類似
度の比だけではリジェクト困難な前処理エラー文字を効
率よくリジェクトできるという作用を有する。
With this configuration, the magnitude of the maximum similarity and the background complexity are also used for the rejection determination, so that the preprocessing error character which is difficult to reject only by the ratio of the similarities can be efficiently rejected.

【0062】本発明の請求項26に記載の発明は、複数
の文字パターンに対して、予め大きい方から2番目の類
似度と最大類似度の比、最大類似度、前記背景情報算出
手段で算出した背景情報に基づく背景複雑度、前記認識
手段が出力する認識結果を算出し、前記類似度比と前記
最大類似度と前記背景複雑度の少なくとも1つを入力と
し、前記認識結果が不正解の場合は、リジェクト信号を
出力し、正解の場合はリジェクト信号を出力しないよう
に予め学習させた階層型ニューラルネットワークで構成
した第2の認識結果算出手段を備えたことを特徴とする
請求項6、8、13、15、24のいずれかに記載の光
学的文字読み取り装置である。
According to a twenty-sixth aspect of the present invention, for a plurality of character patterns, the ratio of the second highest similarity to the highest similarity, the highest similarity, and the background information calculating means calculate The background complexity based on the background information and the recognition result output by the recognition unit are calculated, and at least one of the similarity ratio, the maximum similarity and the background complexity is input, and the recognition result is an incorrect answer. 7. A second recognition result calculation means configured by a hierarchical neural network that is preliminarily learned so as to output a reject signal in the case of being correct and not to output the reject signal in the case of a correct answer. The optical character reading device according to any one of 8, 13, 15, and 24.

【0063】この構成により、類似度の比と最大類似度
と背景複雑度の少なくとも1つを軸とした空間上でのリ
ジェクト領域と非リジェクト領域の非線形な境界を、予
め階層型ニューラルネットワークに学習させてあるの
で、より高精度なリジェクト判定処理が可能になるとい
う作用を有する。
With this configuration, the nonlinear boundary between the reject area and the non-reject area in the space centered on at least one of the similarity ratio, the maximum similarity and the background complexity is learned in advance by the hierarchical neural network. Since this is done, there is an effect that more accurate reject determination processing becomes possible.

【0064】[0064]

【0065】[0065]

【0066】[0066]

【0067】[0067]

【0068】[0068]

【0069】(実施の形態1)以下、本発明の第1の実
施の形態を図面に基づいて説明する。図1は本発明の第
1の実施の形態における光学的文字読取装置のブロック
図を示すものである。図1において、1は文字切り出し
部で、文字枠線を含む文字列データを入力して、文字枠
線と文字列パターンを分離し、分離された文字列パター
ンから個々の文字パターンを切り出し、個々の文字パタ
ーンに対する外接矩形の大きさを経路11を経由して出
力し、切り出し文字画像を経路12を経由して出力す
る。2は基本特徴抽出部(図2参照)で、第1の文字切
り出し部1から経路12を経由して出力された各文字の
切り出し画像に基づいて、文字パターンの輪郭方向成
分、外接矩形の各辺から文字パターンまでの背景距離、
水平及び垂直ライン毎の文字部以外の白画素の連続であ
る背景情報を求め、輪郭方向成分を経路13、背景距離
を経路14、背景情報を経路15を経由して出力して出
力する。3は統計的特徴抽出部(図3参照)で、第1の
文字切り出し部1から経路12を経由して出力した文字
パターンの切り出し画像と、基本特徴抽出部2から経路
13を経由して出力した輪郭方向成分及び経路14を経
由して出力した背景距離に基づいて統計的特徴量を求め
る。4は認識部で、統計的特徴抽出部3から出力した統
計的特徴量に基づいて、文字パターンの各カテゴリに対
する類似度を求め、類似度の大きい順に複数のカテゴリ
類似度と少なくとの1つのカテゴリを出力する。5は第
1の構造的特徴抽出部(図4参照)で、基本特徴抽出部
2から経路13を経由して出力した輪郭方向成分、経路
14を経由して出力した背景距離、経路15を経由して
出力した背景情報に基づいて、構造的特徴を求める。6
は字種判定部で、文字切り出し部1から経路12を経由
して出力した外接矩形の大きさに基づいて、字種が手書
きか活字であるかを判定する。7は第1の構造識別部7
(図5参照)で、文字切り出し部1から出力された文字
パターンの外接矩形の大きさ、認識部4から出力したカ
テゴリ、第1の構造的特徴抽出部5から出力した構造的
特徴、及び字種判定部6から出力した字種判定結果に基
づいて文字パターンの属する最終的なカテゴリを決定す
る。
(Embodiment 1) Hereinafter, a first embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram of an optical character reading device according to a first embodiment of the present invention. In FIG. 1, reference numeral 1 denotes a character cutout unit, which inputs character string data including a character frame line, separates the character frame line and the character string pattern, and cuts out individual character patterns from the separated character string pattern. The size of the circumscribing rectangle with respect to the character pattern is output via the path 11, and the cut-out character image is output via the path 12. Reference numeral 2 denotes a basic feature extraction unit (see FIG. 2), which is based on the cut-out image of each character output from the first character cut-out unit 1 via the path 12 and determines the contour direction component of the character pattern and the circumscribed rectangle Background distance from side to character pattern,
The background information which is a continuation of white pixels other than the character portion for each horizontal and vertical line is obtained, and the contour direction component is output and output via the path 13, the background distance via the path 14, and the background information via the path 15. Reference numeral 3 denotes a statistical feature extraction unit (see FIG. 3), which is a cutout image of a character pattern output from the first character cutout unit 1 via a route 12 and output from the basic feature extraction unit 2 via a route 13. The statistical feature amount is obtained based on the contour direction component and the background distance output via the path 14. A recognizing unit 4 obtains the similarity for each category of the character pattern based on the statistical feature amount output from the statistical feature extracting unit 3, and selects one of a plurality of category similarities and at least one in descending order of similarity. Output category. Reference numeral 5 denotes a first structural feature extraction unit (see FIG. 4), which is a contour direction component output from the basic feature extraction unit 2 via the route 13, a background distance output via the route 14, and a route 15. Then, the structural feature is obtained based on the background information output. 6
Is a character type determination unit that determines whether the character type is handwritten or printed based on the size of the circumscribed rectangle output from the character cutout unit 1 via the path 12. 7 is the first structure identification unit 7
(See FIG. 5), the size of the circumscribed rectangle of the character pattern output from the character cutout unit 1, the category output from the recognition unit 4, the structural feature output from the first structural feature extraction unit 5, and the character Based on the character type determination result output from the type determination unit 6, the final category to which the character pattern belongs is determined.

【0070】図2は基本特徴抽出部2の構成を具体的に
示すブロック図である。21は輪郭点抽出部で、文字切
り出し部1から経路11を経由して出力した外接矩形の
大きさと文字切り出し部1から経路12を経由して出力
した切り出し画像から文字パターンの輪郭点を抽出す
る。22は輪郭方向算出部で、輪郭点抽出部21から出
力した文字パターンの輪郭点の隣接関係に基づいて各輪
郭点の輪郭方向成分を求める。23は背景距離算出部
で、輪郭点抽出部21から出力した文字パターンの輪郭
点の位置に基づいて文字パターンの外接矩形の各辺から
文字パターンまでの背景距離を求める。24は背景情報
算出部で、輪郭点抽出部21から出力した文字パターン
の輪郭点の位置に基づいて、水平及び垂直方向のライン
毎に一定画素以上連続する白画素の連続(背景)する長
さ・位置情報とその背景の走査方向に沿った発生順番で
ある背景次数を算出する。
FIG. 2 is a block diagram specifically showing the configuration of the basic feature extraction unit 2. Reference numeral 21 is a contour point extraction unit that extracts the contour points of the character pattern from the size of the circumscribing rectangle output from the character cutout unit 1 via the path 11 and the cutout image output from the character cutout unit 1 via the path 12. . A contour direction calculation unit 22 obtains a contour direction component of each contour point based on the adjacency relationship between the contour points of the character pattern output from the contour point extraction unit 21. Reference numeral 23 denotes a background distance calculation unit that calculates the background distance from each side of the circumscribed rectangle of the character pattern to the character pattern based on the position of the contour point of the character pattern output from the contour point extraction unit 21. Reference numeral 24 denotes a background information calculation unit, which is based on the positions of the contour points of the character pattern output from the contour point extraction unit 21 and has a length (consecutive background) of consecutive white pixels continuous for a certain number of pixels in each line in the horizontal and vertical directions. -Calculate the position information and the background order which is the generation order of the background along the scanning direction.

【0071】図3は統計的特徴抽出部3の構成を具体的
に示すブロック図である。31は両方向ブロック分割部
で、文字切り出し部1から経路11を経由して出力した
切り出し画像に基づいて切り出し領域全体を水平・垂直
の両方向で分割する。32は水平方向ブロック分割部
で、文字切り出し部1から経路11を経由して出力した
切り出し画像に基づいて切り出し領域を水平方向で分割
する。33は垂直方向ブロック分割部で、文字切り出し
部1から経路11を経由して出力した切り出し画像に基
づいて切り出し領域を垂直方向で分割する。34は輪郭
方向集計部で、両方向ブロック分割部31で分割したブ
ロック毎かつ輪郭方向毎に、基本特徴抽出部2から経路
13を経由して出力した各画素の輪郭方向成分の個数を
集計する。35は輪郭方向正規化部で、両方向ブロック
分割部31で分割したブロック毎に、輪郭方向集計部3
4でブロック内で集計した輪郭方向成分をブロックの大
きさで割って正規化して、統計的輪郭方向統計量を求め
る。36は外郭方向集計部で、水平方向ブロック分割部
32で分割したブロック毎と垂直方向ブロック分割部3
3で分割したブロック毎の両方について、ブロック分割
境界線に垂直な外接矩形の辺から、基本特徴抽出部2か
ら経路13を経由して出力した輪郭方向成分の中で、ブ
ロック分割境界線に平行に走査して最初に存在する文字
パターン画素の輪郭方向成分毎の輪郭方向成分の個数を
集計する。37は外郭方向正規化部で、水平方向ブロッ
ク分割部32で分割したブロック毎と垂直方向ブロック
分割部33で分割したブロック毎の両方について、外郭
方向集計部36で集計した輪郭方向成分(外郭方向成
分)をブロックの大きさで割って正規化して、統計的外
郭方向統計量を求める。38は背景距離集計部で、水平
方向ブロック分割部32で分割した各々のブロックの、
ブロック分割境界線に垂直な外接矩形の各々の辺と垂直
方向ブロック分割部33で分割した各々のブロックのブ
ロック分割境界線に垂直な外接矩形の各々の辺につい
て、基本特徴抽出部2から経路14を経由して出力した
背景距離の中で、前記外接矩形の各々の辺からブロック
分割境界線に平行な方向に計測した背景距離を選択して
集計する。39は背景距離正規化部で、背景距離集計部
38で集計した背景距離をブロック境界線に垂直な外接
矩形の辺の長さで割って正規化して、統計的背景距離特
徴を求める。
FIG. 3 is a block diagram specifically showing the configuration of the statistical feature extraction unit 3. A bidirectional block dividing unit 31 divides the entire cutout region in both horizontal and vertical directions based on the cutout image output from the character cutout unit 1 via the path 11. A horizontal block dividing unit 32 divides the cutout region in the horizontal direction based on the cutout image output from the character cutout unit 1 via the path 11. A vertical block dividing unit 33 divides the cutout region in the vertical direction based on the cutout image output from the character cutout unit 1 via the path 11. A contour direction totaling unit 34 totalizes the number of contour direction components of each pixel output from the basic feature extracting unit 2 via the path 13 for each block divided by the bidirectional block dividing unit 31 and for each contour direction. Reference numeral 35 denotes a contour direction normalization unit, which is provided for each of the blocks divided by the bidirectional block division unit 31,
In step 4, the contour direction components tabulated in the block are divided by the size of the block and normalized to obtain a statistical contour direction statistic. Reference numeral 36 denotes an outline direction totaling unit, which is for each block divided by the horizontal block dividing unit 32 and the vertical block dividing unit 3.
For each of the blocks divided in 3, parallel to the block division boundary line in the contour direction component output from the basic feature extraction unit 2 via the path 13 from the side of the circumscribed rectangle perpendicular to the block division boundary line. Then, the number of contour direction components for each contour direction component of the first character pattern pixel is counted. Reference numeral 37 denotes an outline direction normalization unit which, for both the blocks divided by the horizontal direction block division unit 32 and the blocks divided by the vertical direction block division unit 33, outline direction components (outside direction Component) is divided by the size of the block and normalized to obtain the statistical contour direction statistic. Reference numeral 38 denotes a background distance totaling unit, which is for each block divided by the horizontal block dividing unit 32.
For each side of the circumscribed rectangle perpendicular to the block division boundary line and each side of the circumscribed rectangle perpendicular to the block division boundary line of each block divided by the vertical direction block division unit 33, the path from the basic feature extraction unit 2 to the route 14 Among the background distances output via, the background distances measured from each side of the circumscribed rectangle in the direction parallel to the block division boundary line are selected and totaled. Reference numeral 39 denotes a background distance normalization unit, which divides the background distance calculated by the background distance calculation unit 38 by the length of the side of the circumscribing rectangle perpendicular to the block boundary line and normalizes the background distance to obtain a statistical background distance feature.

【0072】図4は第1の構造的特徴抽出部5の構成を
具体的に示すブロック図である。41は局所背景特徴抽
出部で、基本特徴抽出部2から経路13を経由して出力
した背景距離に基づいて、類似カテゴリを識別するため
の局所的な背景距離の変化と距離の相違を抽出する。4
2は局所ストローク形状抽出部で、基本特徴抽出部2か
ら経路14を経由して出力した輪郭方向成分に基づい
て、類似カテゴリを識別するための局所的なストローク
の傾きの変化を抽出する。43はループ抽出部で、第1
の文字切り出し部1から出力した切り出し画像と基本特
徴抽出部2から経路14を経由して出力した輪郭方向成
分に基づいて、文字パターンのストロークによって発生
するループを抽出する。44は端点・交点抽出部で、基
本特徴抽出部2から経路15を経由して出力した背景情
報に基づいて、垂直と水平方向の両方について、隣接す
るラインの背景情報の相違から、文字パターンを構成す
るストロークの端点と交点を抽出する。45は直線抽出
部で、基本特徴抽出部2から経路15を経由して出力し
た背景情報に基づいて、文字パターンを構成する直線候
補を抽出し、端点・交点抽出部44から出力した端点と
交点の位置情報を利用して、直線候補の種類を判定す
る。46は背景ブロック抽出部で、前記基本特徴抽出部
2の背景情報算出部24で算出し経路15を経由して出
力した背景情報に基づいて、背景次数毎に隣接する背景
画素の塊を背景ブロックとして求めると共に、その大き
さ情報と位置情報を算出する。47は背景ラベル抽出部
で、前記基本特徴抽出部2の背景情報算出部24で算出
し経路15を経由して出力した背景情報に基づいて、隣
接する白画素の塊を背景ラベルとして求めラベル番号を
付与すると共に、その大きさ、位置、その背景ラベルが
外接矩形のどの辺と接するかを表わすラベル情報を算出
する。
FIG. 4 is a block diagram specifically showing the configuration of the first structural feature extraction unit 5. A local background feature extraction unit 41 extracts a local change in background distance and a difference in distance for identifying similar categories based on the background distance output from the basic feature extraction unit 2 via the route 13. . Four
Reference numeral 2 is a local stroke shape extraction unit that extracts a local change in the inclination of the stroke for identifying a similar category based on the contour direction component output from the basic feature extraction unit 2 via the path 14. Reference numeral 43 denotes a loop extraction unit, which is the first
The loop generated by the stroke of the character pattern is extracted based on the cutout image output from the character cutout unit 1 and the contour direction component output from the basic feature extraction unit 2 via the path 14. Reference numeral 44 denotes an end point / intersection point extraction unit that, based on the background information output from the basic feature extraction unit 2 via the path 15, extracts a character pattern from the difference in the background information of adjacent lines in both the vertical and horizontal directions. The end points and intersections of the constituent strokes are extracted. Reference numeral 45 denotes a straight line extraction unit, which extracts straight line candidates forming a character pattern based on the background information output from the basic feature extraction unit 2 via the route 15 and outputs the end points and intersection points output from the end point / intersection point extraction unit 44. The type of straight line candidate is determined using the position information of. Reference numeral 46 is a background block extraction unit that, based on the background information calculated by the background information calculation unit 24 of the basic feature extraction unit 2 and output via the path 15, forms a block of adjacent background pixels for each background order. And the size information and position information are calculated. Reference numeral 47 is a background label extraction unit, which obtains a cluster of adjacent white pixels as a background label based on the background information calculated by the background information calculation unit 24 of the basic feature extraction unit 2 and output via the path 15. Label number And the label information indicating the size, position, and which side of the circumscribed rectangle the background label contacts.

【0073】図5は第1の構造識別部7の構成を具体的
に示すブロック図である。51は第1の活字処理部(図
6参照)で、字種判定部6において文字パターンが活字
と判定された場合に、第1の文字切り出し部から出力さ
れた文字パターンに対する外接矩形の大きさと認識部4
で判定したカテゴリに基づいて第1の構造的特徴抽出部
5で抽出した構造的特徴を選択して最終的なカテゴリを
判定する。52は第1の手書き処理部(図7参照)で、
字種判定部6において文字パターンが手書きと判定され
た場合に、第1の文字切り出し部から出力された文字パ
ターンに対する外接矩形の大きさと認識部4で判定した
カテゴリに基づいて第1の構造的特徴抽出部5で抽出し
た構造的特徴を選択して最終的なカテゴリを判定する。
FIG. 5 is a block diagram specifically showing the structure of the first structure identifying section 7. Reference numeral 51 denotes a first type character processing unit (see FIG. 6) which, when the character type determination unit 6 determines that the character pattern is a type character, determines the size of the circumscribed rectangle with respect to the character pattern output from the first character cutout unit. Recognition unit 4
The final category is determined by selecting the structural feature extracted by the first structural feature extraction unit 5 based on the category determined in. 52 is a first handwriting processing unit (see FIG. 7),
When the character type determination unit 6 determines that the character pattern is handwritten, the first structural type is determined based on the size of the circumscribed rectangle for the character pattern output from the first character cutout unit and the category determined by the recognition unit 4. The final category is determined by selecting the structural features extracted by the feature extraction unit 5.

【0074】図6は第1の活字処理部51の構成を具体
的に示すブロック図である。61は第1の外接矩形カテ
ゴリ判定部で、文字切り出し部1から出力された外接矩
形の大きさによってある1つのカテゴリに判定できる可
能性が高い場合に、前記カテゴリが認識部4から出力さ
れたカテゴリの中に含まれている場合は、前記カテゴリ
に決定する。62は第1の認識依存特徴選択部で、第1
の外接矩形カテゴリ判定部61でカテゴリ判定できなか
った文字に対して、認識部4から出力されたカテゴリに
基づいて第1の構造的特徴抽出部5から出力された複数
の構造的特徴の中で有効な構造的特徴を選択する。63
は第1の選択構造的特徴識別部で、第1の認識依存特徴
選択部62で選択した構造的特徴を利用して最終的なカ
テゴリ判定を行う。
FIG. 6 is a block diagram specifically showing the configuration of the first character processing unit 51. Reference numeral 61 denotes a first circumscribing rectangle category determining unit, which outputs the category from the recognizing unit 4 when it is highly possible to determine one category based on the size of the circumscribing rectangle output from the character cutting unit 1. If it is included in the category, the category is determined. Reference numeral 62 is a first recognition-dependent feature selection unit,
Of the plurality of structural features output from the first structural feature extracting unit 5 based on the category output from the recognizing unit 4 for the character whose category cannot be determined by the circumscribing rectangle category determining unit 61. Select valid structural features. 63
Is a first selected structural feature identifying unit, which makes a final category determination using the structural feature selected by the first recognition-dependent feature selecting unit 62.

【0075】図7は第1の手書き処理部52の構成を具
体的に示すブロック図である。71は第2の外接矩形カ
テゴリ判定部で、文字切り出し部1から出力された外接
矩形の大きさによってある1つのカテゴリに判定できる
可能性が高い場合に、前記カテゴリが認識部4から出力
されたカテゴリの中に含まれている場合は、前記カテゴ
リに決定する。72は第2の認識依存特徴選択部で、第
2の外接矩形カテゴリ判定部71でカテゴリ判定できな
かった文字に対して、認識部4から出力されたカテゴリ
に基づいて第1の構造的特徴抽出部5から出力された複
数の構造的特徴の中で有効な構造的特徴を選択する。7
3は第2の選択構造的特徴識別部で、認識依存特徴選択
部72で選択した構造的特徴を利用して最終的なカテゴ
リ判定を行う。
FIG. 7 is a block diagram specifically showing the configuration of the first handwriting processing section 52. Reference numeral 71 denotes a second circumscribing rectangle category determining unit, which outputs the category from the recognizing unit 4 when there is a high possibility that it can be determined as one category based on the size of the circumscribing rectangle output from the character cutting unit 1. If it is included in the category, the category is determined. Reference numeral 72 denotes a second recognition-dependent feature selection unit, which extracts the first structural feature on the basis of the category output from the recognition unit 4 for the character whose category cannot be determined by the second circumscribing rectangle category determination unit 71. An effective structural feature is selected from the plurality of structural features output from the unit 5. 7
Reference numeral 3 denotes a second selected structural feature identifying unit, which makes a final category determination using the structural feature selected by the recognition-dependent feature selecting unit 72.

【0076】図8は端点・交点抽出部44の構成を具体
的に示すブロック図である。81は端点・交点候補抽出
部で、背景情報算出部23から出力される垂直および水
平方向の各ラインの白画素連続領域情報に基づいて文字
パターンの端点および交点の候補を抽出する。82は端
点・交点判定部で、端点・交点候補抽出部81から出力
される端点および交点の候補の個々の位置関係を比較し
て、端点と別の端点あるいは端点と交点の距離が近い場
合は、端点と交点を除去する。
FIG. 8 is a block diagram specifically showing the structure of the end point / intersection point extraction section 44. Reference numeral 81 denotes an end point / intersection point candidate extraction unit that extracts end points and intersection points of the character pattern based on the white pixel continuous area information of each line in the vertical and horizontal directions output from the background information calculation unit 23. Reference numeral 82 denotes an end point / intersection point determination unit, which compares the individual positional relationships of the end point and the intersection point candidate output from the end point / intersection point candidate extraction unit 81. , Remove end points and intersections.

【0077】図9は直線抽出部45の構成を具体的に示
すブロック図である。91は黒画素連続領域抽出部で、
背景情報算出部23から出力される垂直および水平方向
の各ラインの白画素連続領域情報に基づいて、黒画素が
予め定められた閾値より長く連続する領域を求め、領域
の始点と終点を記憶する。92は直線候補抽出部で、黒
画素連続領域抽出部91から出力される黒画素連続領域
に基づいて垂直および水平方向の直線候補を抽出する。
93は直線判定部で、直線候補抽出部92から出力され
る直線候補と端点・交点抽出部44から出力される端点
および交点の位置情報とを照合して、直線候補から直線
ではないものを除去し、残った直線候補から近傍の線と
の接続状態に応じて直線の種類を判定する。
FIG. 9 is a block diagram specifically showing the structure of the straight line extracting section 45. 91 is a black pixel continuous area extraction unit,
Based on the white pixel continuous area information of each line in the vertical and horizontal directions output from the background information calculation unit 23, an area in which black pixels continue for longer than a predetermined threshold value is obtained, and the start point and the end point of the area are stored. . A straight line candidate extraction unit 92 extracts vertical and horizontal straight line candidates based on the black pixel continuous region output from the black pixel continuous region extraction unit 91.
A straight line determination unit 93 collates the straight line candidates output from the straight line candidate extraction unit 92 with the position information of the end points and the intersection points output from the end point / intersection point extraction unit 44, and removes the non-straight line candidates. Then, the type of straight line is determined from the remaining straight line candidates according to the connection state with the neighboring line.

【0078】以上のように構成された光学的文字読み取
り装置について、以下その動作を説明する。以下では、
認識対象が主に数字の場合について説明しているが、実
際の認識対象は数字以外の文字でも構わない。まず、文
字切り出し部1では、図10に示すように、複数の枠線
と文字文字列データで構成される多値の原画像におい
て、枠線と文字列を分離し文字列を抽出した後、1文字
単位に切り出し、各文字の外接矩形で囲まれた切り出し
画像と外接矩形の幅と高さを求め、外接矩形の幅と高さ
を経路11を経由して出力し、白黒に2値化した切り出
し画像を経路12を経由して出力する。基本特徴抽出部
2の輪郭点抽出部21では、図11に示すように、文字
切り出し部1から出力した切り出し文字画像から輪郭点
を抽出し、輪郭画像を求める。具体的な輪郭点抽出方法
としては、任意の黒画素に対して縦横斜方向に隣接する
画素が全て黒の場合に、前記任意の黒画素を白に置換
し、最終的に残った黒画素を輪郭点とする方法がある。
The operation of the optical character reading device configured as described above will be described below. Below,
Although the case where the recognition target is mainly a number has been described, the actual recognition target may be a character other than a number. First, in the character cutout unit 1, as shown in FIG. 10, in a multivalued original image composed of a plurality of frame lines and character character string data, the frame lines and the character strings are separated and the character strings are extracted. The width and height of the clipped image and the circumscribing rectangle enclosed by the circumscribing rectangle of each character are calculated, and the width and height of the circumscribing rectangle are output via route 11 and binarized to black and white. The cut-out image is output via the path 12. As shown in FIG. 11, the contour point extraction unit 21 of the basic feature extraction unit 2 extracts contour points from the cut-out character image output from the character cutout unit 1 to obtain a contour image. As a specific contour point extraction method, when all pixels adjacent in the vertical and horizontal diagonal directions to an arbitrary black pixel are black, the arbitrary black pixel is replaced with white, and the finally remaining black pixel is There is a method of setting contour points.

【0079】輪郭方向算出部22では、輪郭方向を図1
2のように符号化して、輪郭点抽出部21で抽出した輪
郭画像に対して、図13に示すようなマスクパターンと
のマッチングによって中心画素の輪郭点の方向を決定す
る。例えば、図13(a)(b)の3×3マスクにおいて灰色
で示した画素は白画素もしくは黒画素のどちらでも構わ
ず、その他の白や黒で示した画素は必ず同一の色にマッ
チングする必要があるマッチング方法では、輪郭画像の
任意の3×3領域で図13(a) の3×3マスクと同一の
パターンが存在する場合は、前記3×3領域の中央画素
を7に符号化し、図13(b) と同一の場合は、4に符号
化する。なお、輪郭方向の符号化数は8以外でも良く、
4や16でも構わない。また、輪郭方向を決定するパタ
ーンマッチングのマスクの大きさも3×3以外でも良
く、輪郭方向の符号化数に応じて2×2や5×5でも構
わない。
In the contour direction calculation unit 22, the contour direction is calculated as shown in FIG.
The direction of the contour point of the central pixel is determined by matching with the mask pattern as shown in FIG. 13 with respect to the contour image extracted by the contour point extraction unit 21 by encoding as shown in FIG. For example, in the 3 × 3 mask of FIGS. 13 (a) and 13 (b), the pixels shown in gray may be white pixels or black pixels, and the other pixels shown in white or black always match the same color. In the matching method that is necessary, if the same pattern as the 3 × 3 mask of FIG. 13 (a) exists in any 3 × 3 region of the contour image, the central pixel of the 3 × 3 region is coded into 7. , And if it is the same as in FIG. The number of coding in the contour direction may be other than 8,
It may be 4 or 16. The size of the pattern matching mask for determining the contour direction may be other than 3 × 3, and may be 2 × 2 or 5 × 5 depending on the number of coding in the contour direction.

【0080】背景距離算出部23では、輪郭点抽出部2
1で抽出した輪郭画像に対して、図14(a) に示すよう
に外接矩形の左辺の地点を原点として、画像の各行につ
いて右方向に走査して最初に発見される輪郭画素までの
距離と、図14(b) に示すように外接矩形の右辺の地点
を原点として、画像の各行について左方向に走査して最
初に発見される輪郭画素までの距離と、図14(c) に示
すように外接矩形の上辺の地点を原点として、画像の各
列について下方向に走査して最初に発見される輪郭画素
までの距離と、図14(d) に示すように外接矩形の下辺
の地点を原点として、画像の各列について上方向に走査
して最初に発見される輪郭画素までの距離を全て求め
る。
In the background distance calculation unit 23, the contour point extraction unit 2
With respect to the contour image extracted in step 1, the distance to the contour pixel first found by scanning in the right direction for each row of the image, with the point on the left side of the circumscribed rectangle as the origin, as shown in FIG. , As shown in FIG. 14 (b), with the point on the right side of the circumscribed rectangle as the origin, the distance to the first contour pixel found by scanning left in each row of the image, and as shown in FIG. 14 (c). The origin to the point on the upper side of the circumscribed rectangle, and the distance to the first contour pixel found by scanning downward in each column of the image, and the point on the lower side of the circumscribed rectangle as shown in Fig. 14 (d). As the origin, all the distances to the first contour pixel found by scanning upward in each column of the image are obtained.

【0081】背景情報算出部24では、輪郭点抽出部2
1で抽出した輪郭画像に対して、図15に示すように外
接矩形の左辺から水平方向に走査し白画素の連続である
文字背景を検出する。ラインaの場合は、外接矩形左端
と1番目の輪郭点、1番目の輪郭点と2番目の輪郭点、
2番目の輪郭点と外接矩形右端に挟まれる白画素の連続
をそれぞれ0次背景、1次背景とし、それぞれの連続長
(x、y)、位置情報としての開始点、終了点を算出す
る。ラインbの場合のように、外接矩形端と輪郭点に挟
まれる領域については、白画素の連続が0であっても背
景と見なし、この場合背景次数は2(背景数は3)とな
る。同様にして、水平方向の外接矩形右端からの走査、
垂直方向の外接矩形上・下端からの走査についても同様
である。ここで、輪郭点に挟まれる背景の検出時に、一
定以上白画素が連続する場合のみ背景と見なし背景次数
にカウントするという制限を設け背景のノイズ除去を行
っても良い。
In the background information calculation unit 24, the contour point extraction unit 2
As shown in FIG. 15, the contour image extracted in 1 is horizontally scanned from the left side of the circumscribed rectangle to detect a character background in which white pixels are continuous. In the case of line a, the left edge of the circumscribed rectangle and the first contour point, the first contour point and the second contour point,
The continuation of the white pixel sandwiched between the second contour point and the right edge of the circumscribed rectangle is used as the 0th background and the 1st background, respectively, and the respective continuous lengths (x, y) and the start and end points as position information are calculated. As in the case of the line b, the region sandwiched between the circumscribed rectangle end and the contour point is regarded as the background even if the number of continuous white pixels is 0. In this case, the background order is 2 (the background number is 3). Similarly, scanning from the right edge of the circumscribing rectangle in the horizontal direction,
The same applies to scanning from the upper and lower ends of the circumscribed rectangle in the vertical direction. Here, when detecting the background sandwiched between the contour points, the background noise may be removed by providing a restriction that only when a certain number of white pixels continue, it is regarded as the background and the background order is counted.

【0082】次に統計距離特徴抽出部3の両方向ブロッ
ク分割部31では、文字切り出し部1から入力される切
り出し画像を複数の領域に分割する。具体的には図16
に示すように、重心分割を行って各領域に含まれる黒画
素数が均等になるように水平・垂直方向に複数の領域に
分割する。なお、領域分割方法としては重心分割以外で
も良く、重心分割以外の不均等分割方法や均等分割方法
でも構わない。水平方向ブロック分割部32や垂直方向
ブロック分割部33でも同様の方法で分割を行う。な
お、両方向ブロック分割部31における水平方向の分割
位置と水平方向ブロック分割部32における分割位置を
同一にし、両方向ブロック分割部31における垂直方向
の分割位置と垂直方向ブロック分割部33における分割
位置を同一にしても構わない。
Next, the bidirectional block division unit 31 of the statistical distance feature extraction unit 3 divides the cutout image input from the character cutout unit 1 into a plurality of regions. Specifically, FIG.
As shown in, the center of gravity is divided into a plurality of regions in the horizontal / vertical direction so that the number of black pixels contained in each region becomes equal. It should be noted that the area division method may be other than the centroid division, and may be an uneven division method or an equal division method other than the centroid division. The horizontal block division unit 32 and the vertical block division unit 33 also perform division in the same manner. Note that the horizontal division position in the bidirectional block division unit 31 and the division position in the horizontal block division unit 32 are made the same, and the vertical division position in the bidirectional block division unit 31 and the division position in the vertical block division unit 33 are made the same. It doesn't matter.

【0083】輪郭方向集計部34では、基本特徴抽出部
2から経路13を経由して出力した輪郭方向成分につい
て、両方向ブロック分割部31で分割したブロック単位
かつ輪郭方向毎の個数を計算する。例えば図17(a) の
輪郭方向画像において、太線をブロック境界とし、その
中の各々の数字は各画素の輪郭方向成分の符号を表すも
のとすると、ブロック単位かつ輪郭方向毎に数を集計し
た結果は図17(b) 〜(e) のようになる。
The contour direction totaling unit 34 calculates the number of the contour direction components output from the basic feature extracting unit 2 via the path 13 for each block divided by the bidirectional block dividing unit 31 and for each contour direction. For example, in the contour direction image of FIG. 17 (a), if a thick line is used as a block boundary and each number in the block border represents the sign of the contour direction component of each pixel, the number is aggregated for each block and each contour direction. The results are shown in FIGS. 17 (b) to 17 (e).

【0084】輪郭方向正規化部35では、輪郭方向集計
部34で集計したブロック毎かつ輪郭方向毎の輪郭方向
成分の個数を、両方向ブロック分割部から出力した輪郭
方向集計対象のブロックの大きさで割って正規化して、
輪郭方向統計特徴量を求める。ブロックの大きさを表す
ものとしては、高さまたは幅のどちらか長い方や、高さ
と幅から求められる面積がある。なお、正規化の前に隣
接する輪郭方向成分の個数を重み付けして統合しても構
わない。
In the contour direction normalizing section 35, the number of contour direction components for each block and for each contour direction tabulated by the contour direction tabulating section 34 is determined by the size of the block for contour direction tabulation output from the bidirectional block dividing section. Divide and normalize,
The contour direction statistical feature amount is obtained. As the size of the block, there is either the height or the width, whichever is longer, or the area obtained from the height and the width. Note that the number of adjacent contour direction components may be weighted and integrated before normalization.

【0085】外郭方向集計部36では、基本特徴抽出部
2から経路13を経由して出力した輪郭方向成分につい
て、水平方向ブロック分割部32及び垂直方向ブロック
分割部33で分割したブロック毎に、ブロック分割境界
線に平行に走査して最初に存在する文字パターン画素の
輪郭方向成分(外郭方向成分)毎の輪郭方向成分の個数
を計算する。例えば水平方向ブロック分割部32で分割
された、あるブロックの輪郭方向画像である図18にお
いて、各々の数字は各画素の輪郭方向成分の符号を表す
ものとし、符号−は輪郭点でない画素とし、走査方向を
矢印の通り左端から右方向とすると、ブロック分割境界
線に平行に走査して最初に存在する文字パターン画素は
網掛けされた画素であり、前記網掛けされた画素全体の
輪郭方向成分(外郭方向成分)の個数を輪郭方向毎(例
では0〜3)に集計する。水平方向ブロック分割部で分
割されたブロックにおいては、左端から右方向と、右端
から左方向の二方向で走査し、垂直方向ブロック分割部
で分割されたブロックにおいては、上端から下方向と、
下端から上方向の二方向で走査する。
In the outer contour direction totaling unit 36, the contour direction component output from the basic feature extracting unit 2 via the route 13 is divided into blocks by the horizontal direction block dividing unit 32 and the vertical direction block dividing unit 33. The number of contour direction components is calculated for each contour direction component (outer contour direction component) of the first character pattern pixel by scanning in parallel with the division boundary line. For example, in FIG. 18, which is the contour direction image of a certain block divided by the horizontal direction block division unit 32, each number represents the sign of the contour direction component of each pixel, and the symbol − represents a pixel that is not a contour point, When the scanning direction is from the left end to the right direction as indicated by the arrow, the first character pattern pixel scanned in parallel with the block division boundary line is a shaded pixel, and the outline direction component of the whole shaded pixel is The number of (outer contour direction components) is totaled for each contour direction (0 to 3 in the example). In the block divided by the horizontal block dividing unit, scanning is performed in two directions from the left end to the right and from the right end to the left, and in the block divided by the vertical block dividing unit, from the upper end to the downward direction,
Scan in two directions from the bottom to the top.

【0086】外郭方向正規化部37では、外郭方向集計
部36で集計したブロック毎かつ輪郭方向毎の外郭方向
成分の個数を、水平方向ブロック分割部32または垂直
方向ブロック分割部33から出力した外郭方向集計対象
のブロックの大きさで割って正規化して、外郭方向統計
特徴量を求める。
The contour direction normalizing unit 37 outputs the number of contour direction components for each block and contour direction calculated by the contour direction calculating unit 36 from the horizontal block dividing unit 32 or the vertical block dividing unit 33. The outline direction statistical feature amount is obtained by dividing by the size of the block of the direction aggregation target and normalizing.

【0087】背景距離合計部38では、基本特徴抽出部
2から経路14を経由して出力した背景距離について、
水平方向ブロック分割部32で分割したブロックでは、
左端から右方向への背景距離の合計と、右端から左方向
への背景距離の合計を計算し、垂直方向ブロック分割部
33で分割したブロックでは、上端から下方向への背景
距離の合計と、下端から上方向への背景距離の合計を計
算する。
In the background distance summing unit 38, the background distance output from the basic feature extracting unit 2 via the route 14
In the blocks divided by the horizontal block dividing unit 32,
The total of the background distance from the left end to the right direction and the total of the background distance from the right end to the left direction are calculated, and in the block divided by the vertical block dividing unit 33, the total of the background distance from the upper end to the downward direction, Calculate the sum of background distances from bottom to top.

【0088】背景距離正規化部39では、背景距離合計
部38から出力したブロック毎の合計四方向の背景距離
の合計を、水平方向ブロック分割部32または垂直方向
ブロック分割部33から出力した外郭方向集計対象のブ
ロックの大きさで割って正規化して、背景距離統計特徴
量を求める。
In the background distance normalizing section 39, the total of the background distances in the four directions output from the background distance summing section 38 is outputted from the horizontal block dividing section 32 or the vertical block dividing section 33 in the outer direction. The background distance statistical feature amount is obtained by dividing by the size of the block to be aggregated and normalized.

【0089】次に認識部4では、統計的特徴抽出部3で
求めた輪郭方向統計特徴量と外郭方向統計特徴量と背景
距離統計特徴量に基づいて、文字パターンが属するカテ
ゴリを求める。図19では、学習完了後の階層型ニュー
ラルネットワークを用いて認識部4を構成する場合を示
している。第1層のニューロンに輪郭方向統計特徴量、
外郭方向統計特徴量、及び背景距離統計特徴量を入力
し、中間層を経由して最終層へ信号を流すことによって
各々の最終層ニューロンから各カテゴリの類似度に相当
する出力信号が発生するようになっており、出力信号の
大きい方から、出力値とそのカテゴリが認識部4から出
力される。図19の例では、出力カテゴリ数を2とする
と、左端の最終層ニューロン出力が最大で、右端の最終
層ニューロン出力が2番目であるため、認識部4から
は、それらの出力値とカテゴリ(カテゴリ0、2)が出
力される。なお、認識部4を、図19以外の階層型ニュ
ーラルネットワークや、階層型ニューラルネットワーク
以外の統計的特徴量を利用して識別カテゴリを出力でき
る認識手段で構成しても構わない。
Next, the recognition unit 4 obtains the category to which the character pattern belongs based on the contour direction statistical feature amount, the contour direction statistical feature amount, and the background distance statistical feature amount obtained by the statistical feature extraction unit 3. FIG. 19 shows a case where the recognition unit 4 is configured using a hierarchical neural network after learning is completed. Contour direction statistical features in the first layer neurons,
By inputting the outline direction statistical feature amount and the background distance statistical feature amount and sending a signal to the final layer via the intermediate layer, an output signal corresponding to the similarity of each category is generated from each final layer neuron. The output value and its category are output from the recognizing unit 4 from the larger output signal. In the example of FIG. 19, assuming that the number of output categories is 2, the output of the final layer neuron at the left end is the maximum and the output of the final layer neuron at the right end is the second, so the recognition unit 4 outputs those output values and categories ( Categories 0, 2) are output. It should be noted that the recognition unit 4 may be configured by a hierarchical neural network other than that shown in FIG. 19 or a recognition means that can output the identification category using a statistical feature amount other than the hierarchical neural network.

【0090】次に第1の構造的特徴抽出部5の局所特徴
抽出部41では、基本特徴抽出部2から経路13を経由
して出力した背景距離に基づいて、類似カテゴリを分離
するための局所的な特徴を求める。図20(a) では、網
掛け領域(中央領域)において外接矩形の左端から見た
背景距離の外接矩形幅に対する比率が第1の閾値より大
きくなる回数を計数し、最終的にその回数が第2の閾値
を超えた場合は、中央左背景が凸であると判定する。類
似カテゴリであるカテゴリ0、カテゴリ6、カテゴリ
8、カテゴリ9では中央左背景が凸であるとは通常は判
定されないため、中央左背景が凸であるという構造的特
徴はカテゴリ3の分離に有効である。同様の抽出方法を
用いることで、図20(b) では、カテゴリ6(及びカテ
ゴリ5)の有力な抽出材料である上部右背景の凸を判定
し、図20(c) では、カテゴリ9(及びカテゴリ5)の
有力な抽出材料である下部左背景の凸を判定することを
示している。なお、実際の場合の凸背景の抽出領域・方
向は、認識部4の誤りを分析して、その誤りを減少する
ものを採用しても構わない。また、上記の方法以外に
も、例えば近傍の背景距離の変化の大きさから外側スト
ロークの曲線性(直線性)を判定するという方法があ
り、例えば図20(d) は背景距離の変化の大きさが一定
に近いために、上部ストロークは直線として判定され、
図20(e) は背景距離の変化の大きさが場所によってか
なり異なるため、上部ストロークは曲線として判定され
るので、カテゴリ5とカテゴリ6の分離に有効な構造的
特徴を抽出できる。また、第1の構造識別部7で効果的
なカテゴリ判定を行わせるために、抽出する構造的特徴
を手書き用、活字用、手書き・活字兼用に分けても構わ
ない。
Next, in the local feature extracting unit 41 of the first structural feature extracting unit 5, based on the background distance output from the basic feature extracting unit 2 via the route 13, the local features for separating similar categories are extracted. For specific characteristics. In FIG. 20 (a), the number of times that the ratio of the background distance viewed from the left end of the circumscribed rectangle to the circumscribed rectangle width in the shaded area (center area) becomes larger than the first threshold value is counted, and finally the number of times is When it exceeds the threshold of 2, it is determined that the center left background is convex. In the similar categories, category 0, category 6, category 8, and category 9, it is not usually determined that the center left background is convex, so the structural feature that the center left background is convex is effective for separating category 3. is there. By using the same extraction method, in FIG. 20 (b), the convexity of the upper right background, which is a powerful extraction material of category 6 (and category 5), is determined, and in FIG. It shows that the convexity of the lower left background, which is a powerful extraction material of category 5), is determined. Note that in the actual case, the extraction area / direction of the convex background may be one that analyzes an error of the recognition unit 4 and reduces the error. In addition to the above method, for example, there is a method of determining the curvilinearity (linearity) of the outer stroke from the magnitude of the change in the background distance in the vicinity. For example, FIG. The upper stroke is determined as a straight line because
In FIG. 20 (e), since the magnitude of the change in the background distance is considerably different depending on the place, the upper stroke is determined as a curve, so that the structural feature effective for separating the categories 5 and 6 can be extracted. Further, in order for the first structure identification unit 7 to perform the effective category determination, the extracted structural feature may be divided into handwriting, printing, and handwriting / printing.

【0091】局所ストローク形状抽出部42では、基本
特徴抽出部2から経路14を経由して出力した輪郭方向
成分から、局所領域中の輪郭線を追跡して、追跡してい
る輪郭線上の輪郭方向成分の分布を調べることで、類似
カテゴリを分離するための局所的な構造的特徴を求め
る。図21は、中央網掛け領域中の輪郭線上の輪郭方向
成分から輪郭線を追跡して、輪郭線の形状が上に凸か下
に凸であるかを調べることで、カテゴリ6とカテゴリ8
の分離に有効な構造的特徴を抽出することを表してい
る。図21の例では、図21(a) のカテゴリ6では上下
輪郭線の形状は両方とも上に凸であり、図21(b) のカ
テゴリ8では上の輪郭線の形状は下に凸であり、下の輪
郭線の形状は上に凸であると判定される。具体的な輪郭
線形状の判定方法の例としては、輪郭方向成分を表す符
号として図12の符号を用いると、局所領域の左側で
5、6、7、中央で0、1、7、右側で1、2、3の輪
郭方向成分符号が多く存在する場合は、輪郭線の形状が
上に凸であると判定し、左側で1、2、3、中央で0、
1、7、右側で5、6、7が多く存在する場合は、輪郭
線の形状が下に凸であると判定するという方法がある。
The local stroke shape extraction unit 42 traces the contour line in the local region from the contour direction component output from the basic feature extraction unit 2 via the path 14, and draws the contour direction on the traced contour line. By examining the distribution of the components, we obtain local structural features for separating similar categories. In FIG. 21, the contour line is traced from the contour direction component on the contour line in the central shaded area, and it is checked whether the shape of the contour line is convex upward or downward.
Represents the extraction of structural features effective for the separation of In the example of FIG. 21, the shape of the upper and lower contour lines is convex upward in category 6 of FIG. 21 (a), and the shape of the upper contour line is convex downward in category 8 of FIG. 21 (b). , The shape of the lower contour line is determined to be convex upward. As an example of a concrete method of determining the contour line shape, when the reference numerals of FIG. 12 are used as the reference numerals indicating the contour direction components, 5, 6, 7 are on the left side of the local region, 0, 1, 7 are on the center side, and on the right side of the local area. When there are many contour direction component codes of 1, 2, and 3, it is determined that the shape of the contour line is convex, and 1, 2, and 3 at the left side, 0 at the center,
If there are many 1, 7, and 5, 6, 7 on the right side, there is a method of determining that the shape of the contour line is convex downward.

【0092】第1のループ抽出部43では、文字切り出
し部1から出力した切り出し画像と基本特徴抽出部2か
ら経路14を経由して出力した輪郭方向成分に基づい
て、文字パターンのストロークによって発生するループ
を抽出する。具体的な抽出方法は、輪郭方向成分を持つ
画素から輪郭線を追跡して、最終的に追跡開始地点に戻
ったものを輪郭線ループとし、次に切り出し画像を参照
して、輪郭線ループの内部に白画素が存在すればストロ
ークのループとして抽出する。図22の例において、数
字は図12で示した輪郭方向成分符号、符号−は白画
素、符号+は黒画素とすると、図22(a) の網掛けされ
た符号−がストロークのループとして抽出され、図22
(b) は輪郭線ループの内側に符号−が存在しないためス
トロークのループが存在しないことになる。ここで、一
定以上白画素が存在する場合のみループとして抽出する
という制限を設けノイズ除去を行っても良い。
In the first loop extraction unit 43, a stroke of a character pattern is generated based on the cutout image output from the character cutout unit 1 and the contour direction component output from the basic feature extraction unit 2 via the route 14. Extract the loop. A specific extraction method is to trace a contour line from a pixel having a contour direction component and finally return to the tracking start point as a contour line loop, and then refer to the cutout image to refer to the contour line loop. If a white pixel exists inside, it is extracted as a stroke loop. In the example of FIG. 22, if the numeral is the contour direction component code shown in FIG. 12, the code − is a white pixel, and the code + is a black pixel, the shaded code − in FIG. 22 (a) is extracted as a stroke loop. And FIG.
In (b), since there is no sign − inside the contour loop, there is no stroke loop. Here, noise may be removed by providing a limitation that extraction is performed as a loop only when there are white pixels above a certain level.

【0093】端点・交点抽出部44の端点・交点候補抽
出部81では、基本特徴抽出部2から経路15を経由し
て出力した垂直および水平方向の各ラインの背景情報に
基づいて、隣接するラインの白画素連続領域の数や位置
関係を比較して、端点として図24(a) のような発生点
や図24(b) のような消滅点を、交点として図24(c)
のような合流点や図24(d) のような分岐点を抽出
し、端点・交点判定部82において、端点および交点候
補の各々の位置関係から不適切な端点および交点候補を
除去して、最終的な端点および交点を得る。端点・交点
候補抽出部81における具体的な端点および交点候補の
抽出方法を以下に説明する。図24(a) のように前ライ
ンでは白画素の領域に後ラインでは黒画素が発生してい
る場合は「発生」とし、図24(b) のように、前のライ
ンでは黒画素の領域が後ラインでは全て白画素になって
いる場合は「消滅」とする。また、図24(c) のよう
に、あるライン(前ライン)上の2個の黒画素連続領域
が後ライン上で1個に合流している場合は「合流」と
し、逆に図24(d) のように、1個の黒画素連続領域が
2個に分岐している場合は「分岐」とする。以上の「合
流」「分岐」「発生」「消滅」に分類された点を、端点
および交点候補とし、垂直方向ラインの走査と水平方向
ラインの走査に分けて出力する。
In the end point / intersection point extraction unit 81 of the end point / intersection point extraction unit 44, adjacent lines are extracted based on the background information of the vertical and horizontal lines output from the basic feature extraction unit 2 via the path 15. The number of white pixel continuous areas and the positional relationship are compared, and the generation point as shown in FIG. 24 (a) or the vanishing point as shown in FIG.
And a branch point as shown in FIG. 24 (d) are extracted, and the endpoint / intersection determination unit 82 removes inappropriate endpoints and intersection candidates from the positional relationship of the endpoints and intersection candidates, Get the final endpoints and intersections. A specific method for extracting the end points and the intersection point candidates in the end point / intersection point candidate extraction unit 81 will be described below. As shown in FIG. 24 (a), when black pixels are generated in the white line in the front line and black pixels in the back line, it is defined as “occurrence”, and as shown in FIG. If all are white pixels in the following line, it is considered to be “disappeared”. Further, as shown in FIG. 24 (c), when two black pixel continuous areas on a certain line (front line) are merged into one on the rear line, it is regarded as “merge”, and conversely, FIG. When one black pixel continuous area is branched into two as in d), it is determined as “branch”. The points classified as “merging”, “branching”, “occurrence”, and “disappearance” are set as end points and intersection candidates, and are output separately for vertical line scanning and horizontal line scanning.

【0094】同じ端点・交点抽出部44の端点・交点判
定部82では、端点・交点候補抽出部81から出力され
る同一方向の走査で得られた端点および交点候補の各々
の位置関係を調べ、端点候補と端点候補、および端点候
補と交点候補の距離が近い場合は、端点や交点の候補を
除去する。例えば、外接矩形が大きい(例:高さ・幅が
50画素以上)文字パターンについて、図25(a) のよ
うにある端点候補と別の同じ種類の端点候補(「発生」
ならば「発生」、「消滅」ならば「消滅」)の距離が非
常に近く、その2点の間に交点候補が存在(端点が「発
生」なら「合流」、「消滅」なら「分岐」)する場合
や、図25(b) のようにある端点候補の近傍かつすぐ隣
のラインに交点候補があり、その2点の間に別の種類の
端点(「発生」ならば「消滅」、「消滅」ならば「発
生」)がない場合は、端点および交点を除去する。残っ
た端点候補を端点、交点候補を交点と決定する。
In the end point / intersection point determination unit 82 of the same end point / intersection point extraction unit 44, the positional relationship between the end points and the intersection point candidates output from the end point / intersection candidate extraction unit 81 obtained by scanning in the same direction is examined, If the distances between the end point candidate and the end point candidate and between the end point candidate and the intersection point candidate are short, the end point and the intersection point candidate are removed. For example, for a character pattern with a large circumscribed rectangle (eg, a height and width of 50 pixels or more), an end point candidate of the same type as another end point candidate (“occurrence”) as shown in FIG.
If so, the distance between "occurrence" and "disappear" is very close, and there is an intersection candidate between the two points (if the endpoint is "occurrence", "merge", if "disappear" is "branch". ) Or there is an intersection candidate on a line near and immediately adjacent to an end point candidate as shown in FIG. 25 (b), and another kind of end point (“occurrence”, “disappear”, If there is no "occurrence" if "disappeared", remove the end points and intersections. The remaining end point candidates are determined as end points, and the intersection candidate is determined as an intersection point.

【0095】直線抽出部45において、黒画素連続領域
抽出部91では、基本特徴抽出部2から経路15を経由
して出力した垂直および水平方向の各ラインの背景情報
に基づいて、黒画素がライン上で予め定められた閾値
(黒画素ライン上連続閾値)以上連続して存在している
場合は、その始点および終点の座標を記録する。例え
ば、黒画素ライン上連続閾値を10とすると、図26
(a)では2行目〜4行目が閾値以上である。
In the straight line extraction unit 45, the black pixel continuous region extraction unit 91 detects the black pixels based on the background information of each line in the vertical and horizontal directions output from the basic feature extraction unit 2 via the path 15. In the case where the pixels are continuously present for a predetermined threshold value (black pixel line continuous threshold value) or more, the coordinates of the start point and the end point are recorded. For example, assuming that the continuous threshold value on the black pixel line is 10, FIG.
In (a), the second to fourth lines have a threshold value or more.

【0096】直線候補抽出部92では、黒画素連続領域
抽出部91から出力される黒画素連続領域の始点および
終点の座標から、黒画素連続領域が予め定められた閾値
以上のライン数(連続ライン数閾値)で連続している場
合を直線と判定する。例えば、黒画素ライン上連続閾値
を10、連続ライン数閾値を3とすると、図26(a)は
(水平方向の)直線と判定され、図26(b) は直線と判
定されない。連続ライン数閾値を導入して判定を行うこ
とによって、手書きの線の太さを考慮し、図26(b) の
ような枠やノイズ等による本来の線以外の直線による影
響を除くことができる。
In the straight line candidate extraction unit 92, from the coordinates of the start point and the end point of the black pixel continuous area output from the black pixel continuous area extraction unit 91, the number of lines of the continuous black pixel area is equal to or more than a predetermined threshold value (continuous line). A straight line is determined when the lines are continuous with each other (threshold value). For example, if the continuous threshold value on the black pixel line is 10 and the continuous line number threshold value is 3, it is determined that the line in FIG. 26 (a) is a straight line (in the horizontal direction), and the line in FIG. 26 (b) is not determined to be a straight line. By introducing a threshold value for the number of continuous lines and making a judgment, it is possible to consider the thickness of a handwritten line and remove the influence of a straight line other than the original line due to a frame or noise as shown in FIG. .

【0097】背景ブロック抽出部46では、背景情報算
出部24で算出されたライン毎の背景情報から、隣接す
る同一次数の背景を結合することにより背景ブロックを
検出する。外接矩形左端から走査した場合、図23に示
すように、0次背景については第1ブロックと、第2ブ
ロックが検出され、1次背景については、第1ブロック
が検出される。このとき、背景ブロックの大きさ情報と
して背景ブロックを構成する画素数、位置情報として背
景ブロックに外接する矩形の左上と右下の座標が算出さ
れる。
The background block extraction unit 46 detects a background block by combining adjacent backgrounds of the same degree from the background information for each line calculated by the background information calculation unit 24. When scanning from the left end of the circumscribed rectangle, as shown in FIG. 23, the first block and the second block are detected for the 0th-order background, and the first block is detected for the primary background. At this time, the number of pixels forming the background block is calculated as the size information of the background block, and the upper left and lower right coordinates of the rectangle circumscribing the background block are calculated as the position information.

【0098】背景ラベル抽出部47では、背景情報算出
部24で算出されたライン毎の背景情報から、隣接する
白画素を結合することにより背景ラベルを検出する。外
接矩形左端から走査した場合、図32に示すように、4
つの背景ラベルが検出されラベル番号が付与される。こ
のとき、ラベル情報として背景ラベルを構成する画素
数、位置情報として背景ラベルに外接する矩形の左上と
右下の座標、文字外接矩形の各辺との接触の有無が算出
される。
The background label extracting section 47 detects the background label by combining adjacent white pixels from the background information for each line calculated by the background information calculating section 24. When scanning from the left end of the circumscribed rectangle, as shown in FIG.
Two background labels are detected and a label number is given. At this time, the number of pixels forming the background label as the label information, the upper left and lower right coordinates of the rectangle circumscribing the background label as the position information, and the presence or absence of contact with each side of the character circumscribed rectangle are calculated.

【0099】次に字種判定部6では、文字切り出し部1
から経路11を経由して出力した文字パターンの外接矩
形の幅と高さの内、高さのばらつきの大きさで字種が手
書きか活字かを判定する。具体的には、振り込み伝票の
場合は同一欄に記入された文字は基本的に同一字体であ
るため、同一欄に記入された文字全体の高さのばらつき
を調べ、高さのばらつきが大きい場合は全て手書き文字
と判定し、ばらつきが小さい場合は全て活字文字と判定
する。また、その他の場合は伝票の同一欄に相当する領
域に存在する文字全体の高さのばらつきを調べ、同様の
判定を行う。伝票の同一欄に相当する領域の例として
は、文書や郵便葉書住所欄の一行分(あるいは一列分)
がある。
Next, in the character type judging unit 6, the character cutting unit 1
From the width and height of the circumscribing rectangle of the character pattern output from the path 11 to 11, it is determined whether the character type is handwritten or printed by the size of the height variation. Specifically, in the case of a transfer slip, the characters entered in the same column are basically the same font, so check the height variation of the entire characters entered in the same column, and if the height variation is large. Is determined to be a handwritten character, and if the variation is small, it is determined to be a printed character. In other cases, the variation of the heights of all the characters existing in the area corresponding to the same column of the slip is checked and the same determination is performed. An example of an area corresponding to the same field on the slip is one line (or one column) of a document or postcard address field.
There is.

【0100】次に第1の構造識別部7の第1の活字処理
部51の第1の外接矩形カテゴリ判定部61では、文字
切り出し部1から出力された外接矩形の大きさによって
ある1つのカテゴリに判定できる可能性が高い場合に、
前記カテゴリが認識部4から出力されたカテゴリの中に
含まれている場合は、前記カテゴリに決定する。具体的
な例を挙げると、図27(a) に示すようなカテゴリ1
は、図27(b) のカテゴリ5に比べると外接矩形の横幅
が非常に狭く、また他のカテゴリの数字も図27(b) と
同程度の横幅であるため、外接矩形の幅が極端に狭い数
字はカテゴリ1に強制的に修正する方法がある。
Next, in the first circumscribing rectangle category determining section 61 of the first type processing section 51 of the first structure identifying section 7, one category depending on the size of the circumscribing rectangle output from the character cutting section 1 is used. If there is a high possibility that
When the category is included in the categories output from the recognition unit 4, the category is determined. As a specific example, category 1 as shown in FIG.
The width of the circumscribed rectangle is extremely narrower than that of category 5 in FIG. 27 (b), and the numbers in other categories are also the same as those in FIG. 27 (b). There is a method to forcibly correct narrow numbers to category 1.

【0101】第1の認識依存特徴選択部62では、第1
の外接矩形カテゴリ判定部61で判定できない文字に対
して認識部4から出力されたカテゴリに基づいて第1の
構造的特徴抽出部5から出力された複数の構造的特徴の
中で有効な構造的特徴を選択する。具体的な例として、
図28の右上部背景が閉じる寸前のカテゴリ6は統計的
特徴を用いた認識方法ではカテゴリ8に誤認識される傾
向が強いため、認識部4で第1位がカテゴリ8であると
判定された場合は、局所ストローク形状抽出部42及び
ループ抽出部43で抽出される構造的特徴を選択し、更
に局所ストローク特徴42で抽出される複数の構造的特
徴の中から図21の構造的特徴を選択する。また、認識
部4で認識上位から順番にカテゴリ3及びカテゴリ9が
出力された場合は、局所背景特徴抽出部41から出力さ
れた構造的特徴の中で図20(a)(b)(c)を選択する。
In the first recognition-dependent feature selection section 62, the first
Of the plurality of structural features output from the first structural feature extraction unit 5 based on the category output from the recognition unit 4 for the character that cannot be determined by the circumscribed rectangle category determination unit 61 of Select a feature. As a concrete example,
The category 6 on the verge of closing the background in the upper right part of FIG. 28 has a strong tendency to be erroneously recognized as the category 8 by the recognition method using the statistical features, and thus the recognition unit 4 determines that the category 8 is the first place. In this case, the structural feature extracted by the local stroke shape extraction unit 42 and the loop extraction unit 43 is selected, and the structural feature shown in FIG. 21 is selected from the plurality of structural features extracted by the local stroke feature 42. To do. In addition, when the recognition unit 4 outputs the categories 3 and 9 in order from the top of the recognition, the structural features output from the local background feature extraction unit 41 are shown in FIG. 20 (a) (b) (c). Select.

【0102】第1の選択構造的特徴識別部63では、第
1の認識依存特徴選択部で選択された構造的特徴に基づ
いて最終的なカテゴリ判定を行う。具体的な例として、
図28の文字に関しては、選択された図21の局所スト
ローク特徴とループ特徴を用い、以下の 1 2 の両方の
判定方法でカテゴリを判定することにより判定の信頼性
を高める。両方の判定方法で判定結果が同一の場合はそ
のカテゴリに決定し、逆に判定結果が異なっていた場合
は、認識部4で判定されたカテゴリに決定する。 1 ループ特徴を用い、ループ数が0なら、カテゴリ3
と推定。ループ数が1なら、ループ位置が中央より上に
あればカテゴリ9に、中央より下にあればカテゴリ6と
推定。ループ数が2なら、カテゴリ8と推定。 2 局所ストローク特徴を用い、中央部の上下ストロー
クが共に上に凸なら、カテゴリ6と推定。上ストローク
が下に凸、下ストロークが上に凸なら、カテゴリ3かカ
テゴリ8と推定。上下ストロークが共に下に凸なら、カ
テゴリ9と推定。
The first selected structural feature identifying section 63 makes a final category determination based on the structural feature selected by the first recognition-dependent feature selecting section. As a concrete example,
For the characters in FIG. 28, the reliability of the judgment is enhanced by using the selected local stroke feature and loop feature of FIG. When the determination results are the same in both determination methods, the category is determined, and when the determination results are different, the category determined by the recognition unit 4 is determined. If one loop feature is used and the number of loops is 0, then category 3
Estimated. If the number of loops is 1, it is estimated to be category 9 if the loop position is above the center, and category 6 if it is below the center. If the number of loops is 2, it is estimated to be category 8. 2 Using the local stroke feature, if both the upper and lower strokes in the center are convex upward, it is estimated as category 6. If the upper stroke is convex downward and the lower stroke is convex upward, it is presumed to be category 3 or category 8. If both upper and lower strokes are convex downward, it is presumed to be category 9.

【0103】また、図20(a)(b)(c) の文字に対して
は、まず図20(a) の中央左背景が凸という特徴が第1
の構造的特徴抽出部5で抽出されているかどうかを調べ
る。抽出されていた場合はカテゴリ3に最終決定し、そ
うでない場合は、次に図20(c) の下部左背景の凸が
抽出されているかどうかを調べる。抽出されていた場合
はカテゴリ9に最終決定し、そうでない場合は次に図2
0(b) についても同様の調査を行う。図20(b) の特徴
が抽出されていた場合はカテゴリ6に、そうでない場合
はカテゴリ8に最終決定する。また、認識最上位から順
番にカテゴリ5及びカテゴリ6の場合は、図20(c) の
下部左背景の凸や図20(d) の上部ストロークの直線性
が抽出されているかを調べて、最終的なカテゴリを決定
する。他のカテゴリについても同様に認識部4から出力
されたカテゴリに基づいて第1の構造的特徴抽出部5で
抽出される特徴を選択して、最終的なカテゴリを決定す
る。
With respect to the characters shown in FIGS. 20 (a) (b) (c), the first feature of FIG. 20 (a) is that the center left background is convex.
It is checked whether or not it has been extracted by the structural feature extraction unit 5 of. If it has been extracted, the category 3 is finally decided, and if not, it is next checked whether or not the convex portion of the lower left background of FIG. 20 (c) is extracted. If it has been extracted, the final decision is made to category 9, and if not, it is then determined in FIG.
The same survey is conducted for 0 (b). If the features of FIG. 20 (b) have been extracted, the category 6 is finally determined, and if not, the category 8 is finally determined. Further, in the case of category 5 and category 6 in order from the highest recognition level, it is checked whether the convexity of the lower left background of FIG. 20 (c) or the linearity of the upper stroke of FIG. A specific category. For other categories as well, the features extracted by the first structural feature extraction unit 5 are selected based on the categories output from the recognition unit 4 in the same manner to determine the final category.

【0104】なお、認識部4から出力されるカテゴリに
よっては第1の活字処理部51で処理を行わず、認識部
4から出力された認識結果のカテゴリをそのまま最終的
なカテゴリとして構わない。また、認識部4から認識保
留信号が出力され、かつ第1の活字処理部51でどの構
造的特徴にも当てはまらないことが判明した場合は、最
終的なカテゴリを決定せず、リジェクト(読み取り拒
否)としても構わない。
Depending on the category output from the recognition unit 4, the first character processing unit 51 may not perform the processing, and the category of the recognition result output from the recognition unit 4 may be used as the final category. When the recognition unit 4 outputs a recognition pending signal and the first type processing unit 51 finds that the structural feature does not apply to any of the structural features, the final category is not determined and the reject (read reject) is performed. ).

【0105】次に第1の構造識別部7の第1の手書き処
理部52の第2の外接矩形カテゴリ判定部71では、文
字切り出し部1から出力された外接矩形の大きさによっ
てある1つのカテゴリに判定できる可能性が高い場合
に、前記カテゴリが認識部4から出力されたカテゴリの
中に含まれている場合は、前記カテゴリに決定する。第
1の手書き処理部52の第2の認識依存特徴選択部72
では字種判定部6において文字パターンが手書きと判定
された場合に、認識部4から出力されたカテゴリに基づ
いて第1の構造的特徴抽出部5から出力された複数の構
造的特徴の中で有効な構造的特徴を選択する。具体的な
例として、手書きのカテゴリ3は統計的特徴を用いた認
識方法ではカテゴリ8に誤認識する傾向が強いため、認
識部4で第1候補(最大類似度のカテゴリ)がカテゴリ
8で、第2候補(類似度が2番目のカテゴリ)がカテゴ
リ3であると判定された場合は、背景ブロック抽出部4
6及びループ抽出部43で抽出される構造的特徴を選択
する。また、ループ個数、大きさ、位置から判断して認
識結果が明らかに矛盾する場合は、第1のループ抽出部
43で抽出される構造的特徴を選択する。第2の選択構
造的特徴識別部73では、第2の認識依存特徴選択部7
2で選択された構造的特徴に基づいて最終的なカテゴリ
判定を行う。
Next, in the second circumscribing rectangle category determining section 71 of the first handwriting processing section 52 of the first structure identifying section 7, one category depending on the size of the circumscribing rectangle output from the character cutting section 1 is used. If there is a high possibility that the category can be determined, the category is determined as the category if the category is included in the categories output from the recognition unit 4. The second recognition-dependent feature selecting section 72 of the first handwriting processing section 52.
Then, when the character type determination unit 6 determines that the character pattern is handwritten, among the plurality of structural features output from the first structural feature extraction unit 5 based on the category output from the recognition unit 4. Select valid structural features. As a specific example, handwritten category 3 has a strong tendency to be erroneously recognized as category 8 in the recognition method using the statistical feature, so that the first candidate (category of maximum similarity) is category 8 in recognition unit 4, When it is determined that the second candidate (the category having the second degree of similarity) is the category 3, the background block extracting unit 4
6 and the structural features extracted by the loop extraction unit 43 are selected. Further, when the recognition result is obviously inconsistent based on the number of loops, the size, and the position, the structural feature extracted by the first loop extracting unit 43 is selected. In the second selection structural feature identifying section 73, the second recognition-dependent feature selecting section 7
A final category decision is made based on the structural features selected in 2.

【0106】具体的な例として、図29(a)(b)に代表さ
れる手書きのカテゴリ2とカテゴリ3の文字は、お互い
に混同される可能性が高く、認識部4の認識結果の第1
位がカテゴリ2で第2位がカテゴリ3、またはその反対
になっていることが多い。このような認識結果でかつ字
種判定部6で手書き判定されている場合は、端点・交点
抽出部44から出力される水平方向の発生点(端点)の
数や位置の違いによって判定する。例えば、上下領域に
それぞれ1個、合計2個の発生点がある場合はカテゴリ
2に決定し、上中下領域にそれぞれ1個、合計3個の発
生点がある場合はカテゴリ3に決定する。また、図30
(a) の形状の手書きのカテゴリ¥、図30(b) の形状の
手書きのカテゴリ7、図30(c) の形状の手書きのカテ
ゴリ9が多く見られ、これらの形状が類似しているた
め、認識部4では図30(a) のカテゴリ¥はカテゴリ7
やカテゴリ9に誤って認識されていることが多い。この
ような誤りに対しては、直線抽出部45でカテゴリ¥の
中央部に存在する2本の水平線を抽出することで、カテ
ゴリ7やカテゴリ9と分離することが可能である。ま
た、図28の右上部背景が閉じる寸前のカテゴリ6は、
統計的特徴を用いた認識方法ではカテゴリ8に誤認識さ
れる傾向が強いため、認識部4で第1位がカテゴリ8で
あると判定された場合は、局所ストローク形状抽出部4
2及びループ抽出部43で抽出される構造的特徴を選択
し、更に局所ストローク特徴42で抽出される複数の構
造的特徴の中から図21の構造的特徴を選択する。ま
た、認識部4で認識上位から順番にカテゴリ3及びカテ
ゴリ9が出力される場合は、局所背景特徴抽出部41か
ら出力される構造的特徴の中で図20(a)(b)(c) を選択
する。
As a concrete example, handwritten characters of category 2 and category 3 represented in FIGS. 29 (a) and 29 (b) are likely to be confused with each other, and the recognition result of the recognition unit 4 is 1
Often, the rank is category 2 and the second rank is category 3, or vice versa. In the case where the recognition result is such and the handwriting determination is performed by the character type determination unit 6, determination is performed based on the difference in the number and position of horizontal generation points (end points) output from the end point / intersection point extraction unit 44. For example, if there are two occurrence points, one in each of the upper and lower areas, then category 2 is determined, and if there are one in each of the upper, middle, and lower areas, and there are three occurrence points, then category 3 is determined. Also, FIG.
There are many handwritten categories in the shape of (a) ¥, handwritten categories of the shape in FIG. 30 (b), and handwritten categories of the shape in FIG. 30 (c), and these shapes are similar. In the recognition unit 4, the category \ in FIG. 30 (a) is the category 7
It is often erroneously recognized as a category 9 or category 9. Such an error can be separated from the category 7 and the category 9 by extracting the two horizontal lines existing in the central portion of the category \ with the straight line extraction unit 45. Also, the category 6 on the verge of closing the background in the upper right part of FIG.
Since the recognition method using the statistical features has a strong tendency to be erroneously recognized as the category 8, if the recognition unit 4 determines that the first place is the category 8, the local stroke shape extraction unit 4
2 and the structural feature extracted by the loop extraction unit 43 are selected, and the structural feature of FIG. 21 is selected from the plurality of structural features extracted by the local stroke feature 42. Further, when the recognition unit 4 outputs the categories 3 and 9 in order from the higher-ranked recognition, the structural features output from the local background feature extraction unit 41 are shown in FIG. 20 (a) (b) (c). Select.

【0107】また、図31(a)に示すようなカテゴリ
3の認識結果がカテゴリ8になっているような場合は、
前記選択された構造的特徴量からループ数、水平0次背
景ブロックの大きさ、最大水平0次背景長に注目し、以
下の(1)(2)(3)(4)の条件を満たす場合は、
認識結果を第2候補のカテゴリ3に修正し最終認識結果
とする。 (1)認識結果の第1候補が8、第2候補が3 (2)ループ数が0または1 (3)水平0次背景ブロックの面積/外接矩形面積 >
しきい値1 (4)最大水平0次背景長/外接矩形幅 > しきい値
Further, when the recognition result of category 3 is category 8 as shown in FIG. 31 (a),
When the number of loops, the size of the horizontal 0th order background block, and the maximum horizontal 0th order background length are focused on from the selected structural feature amount, and the following conditions (1), (2), (3), and (4) are satisfied Is
The recognition result is corrected to the second candidate category 3 to be the final recognition result. (1) The first candidate of the recognition result is 8 and the second candidate is 3 (2) The number of loops is 0 or 1 (3) Horizontal 0th-order background block area / circumscribed rectangular area>
Threshold 1 (4) Maximum horizontal 0th background length / circumscribing rectangle width> Threshold 2

【0108】また、図31(b)に示すようなカテゴリ
7の認識結果がカテゴリ9になっているような場合は、
前記選択された構造的特徴量からループ数、垂直1次背
景ブロックの個数に注目し、以下の(1)(2)(3)
の条件を満たす場合は、認識結果を第2候補のカテゴリ
7に修正し最終認識結果とする。 (1)認識結果の第1候補が9、第2候補が7 (2)ループ数が0 (3)垂直1次背景ブロックの個数が1
If the recognition result of category 7 is category 9 as shown in FIG. 31 (b),
Paying attention to the number of loops and the number of vertical primary background blocks from the selected structural feature amount, the following (1) (2) (3)
When the condition of is satisfied, the recognition result is corrected to the category 7 of the second candidate and is set as the final recognition result. (1) The first candidate of the recognition result is 9, and the second candidate is 7 (2) The number of loops is 0 (3) The number of vertical primary background blocks is 1

【0109】別の例としては、カテゴリ1、7のように
明らかにループが存在しないようなカテゴリが、通常の
書き方ではループが存在するカテゴリと認識されている
場合には、第2候補のカテゴリに、また、ループの大き
さが非常に大きいにもかかわらす、カテゴリ6、9に認
識されている場合は、カテゴリ0に認識結果を修正す
る。
As another example, if a category such as categories 1 and 7 in which no loop clearly exists is recognized as a category in which a loop exists in normal writing, the category of the second candidate. In addition, even if the size of the loop is very large, if it is recognized in categories 6 and 9, the recognition result is corrected to category 0.

【0110】他のカテゴリについても認識部4から出力
されたカテゴリに基づいて第1の構造的特徴抽出部5で
抽出された特徴の中から適切な特徴量を選択して、第2
の選択構造的特徴識別部73で最終的なカテゴリを決定
する。なお、認識部4から出力されるカテゴリによって
は第1の手書き処理部52で処理を行わず、認識部4か
ら出力された認識結果のカテゴリをそのまま最終的なカ
テゴリとして構わない。また、認識部4から認識保留信
号が出力され、かつ第1の手書き処理部52でどの構造
的特徴にも当てはまらないことが判明した場合は、最終
的なカテゴリを決定せず、リジェクト(読み取り拒否)
としても構わない。
For other categories, an appropriate feature amount is selected from the features extracted by the first structural feature extracting unit 5 based on the category output from the recognizing unit 4, and the second feature is selected.
The final structural feature discriminator 73 determines the final category. Depending on the category output from the recognition unit 4, the first handwriting processing unit 52 may not perform the process, and the category of the recognition result output from the recognition unit 4 may be used as the final category. If the recognition pending signal is output from the recognition unit 4 and it is determined by the first handwriting processing unit 52 that it does not apply to any structural feature, the final category is not determined and reject (read reject) is performed. )
It doesn't matter.

【0111】このように、本実施の形態1によれば、基
本特徴抽出部2では統計的特徴と構造的特徴の両方に利
用できるような基本特徴を抽出することにより構成の共
通化が可能になり、また第1の構造的特徴抽出部5では
認識部4では識別が困難な類似カテゴリの分離に有効な
構造的特徴を中心に抽出することにより処理の効率化が
可能になり、統計的特徴を用いて識別を行う認識部4か
ら出力された認識結果に基づいて、第1の構造識別部7
において必要な構造的特徴を選択し最終的なカテゴリを
決定することによって更なる処理の効率化と類似カテゴ
リの認識性能の向上が可能になる。
As described above, according to the first embodiment, the basic feature extraction unit 2 extracts the basic features that can be used as both the statistical features and the structural features, thereby making it possible to make the configuration common. In addition, the first structural feature extraction unit 5 mainly extracts structural features that are effective for separating similar categories that are difficult to be identified by the recognition unit 4, thus making it possible to improve the efficiency of the process and improve the statistical features. Based on the recognition result output from the recognition unit 4 that performs identification using the first structure identification unit 7
It is possible to further improve the processing efficiency and improve the recognition performance of similar categories by selecting the structural features required in and determining the final category.

【0112】(実施の形態2)図33は、本発明の第2
の実施の形態における光学的文字読み取り装置のブロッ
ク図を示すものである。図33において、文字切り出し
部1、基本特徴抽出部2、統計的特徴抽出部3、認識部
4、字種判定部6、第1の構造識別部7、経路11、経
路12、経路13、経路14、経路15は上述した第1
の実施の形態におけるものと同様であり、動作も同様で
ある。本実施の形態が図1と異なる構成は、第1の構造
的特徴抽出部5に代えて第2の構造的特徴抽出部8を設
けた点である。
(Second Embodiment) FIG. 33 shows a second embodiment of the present invention.
3 is a block diagram of an optical character reading device according to an embodiment of FIG. In FIG. 33, a character cutout unit 1, a basic feature extraction unit 2, a statistical feature extraction unit 3, a recognition unit 4, a character type determination unit 6, a first structure identification unit 7, a route 11, a route 12, a route 13, a route. 14, the route 15 is the above-mentioned first
The operation is the same as that in the above embodiment. The configuration of this embodiment different from that of FIG. 1 is that a second structural feature extraction unit 8 is provided in place of the first structural feature extraction unit 5.

【0113】図34は第2の構造的特徴抽出部8の構成
を具体的に示すブロック図である。図34において、局
所背景特徴抽出部41、局所ストローク形状抽出部4
2、背景ブロック抽出部46、背景ラベル抽出部47、
上述した第1の実施の形態におけるものと同様であり、
動作も同様である。本実施の形態が図4と異なる構成
は、第1のループ抽出部43に代えて第2のループ抽出
部48を設けた点である。
FIG. 34 is a block diagram specifically showing the configuration of the second structural feature extraction unit 8. In FIG. 34, a local background feature extraction unit 41 and a local stroke shape extraction unit 4
2, background block extraction unit 46, background label extraction unit 47,
It is similar to that in the first embodiment described above,
The operation is similar. The configuration of this embodiment different from that of FIG. 4 is that a second loop extracting unit 48 is provided in place of the first loop extracting unit 43.

【0114】以上のように構成された光学的文字読み取
り装置について、以下その動作を説明する。第2のルー
プ抽出部48の動作以外は、実施の形態1と同様なので
省略する。第2のループ抽出部48では、背景ラベル抽
出部47から出力したラベル情報に基づいて、文字パタ
ーンのストロークによって発生するループを抽出する。
具体的な抽出方法は、文字外接矩形のどの辺とも接触し
ない背景ラベルをストロークのループとして抽出する。
図35の例において、数字は背景ラベルのラベル番号、
符号+は黒画素とすると、図35の網掛けされたラベル
番号3の背景ラベルがストロークのループとして抽出さ
れる。ここで、一定以上白画素が存在する場合のみルー
プとして抽出するという制限を設けノイズ除去を行って
も良い。
The operation of the optical character reading device configured as described above will be described below. The operation other than the operation of the second loop extraction unit 48 is the same as that of the first embodiment, and thus the description thereof is omitted. The second loop extraction unit 48 extracts the loop generated by the stroke of the character pattern based on the label information output from the background label extraction unit 47.
As a specific extraction method, a background label that does not touch any side of the character circumscribed rectangle is extracted as a stroke loop.
In the example of FIG. 35, the numbers are the label numbers of the background labels,
When the symbol + is a black pixel, the shaded background label of label number 3 in FIG. 35 is extracted as a stroke loop. Here, noise may be removed by providing a limitation that extraction is performed as a loop only when there are white pixels above a certain level.

【0115】このように、本実施の形態2によれば、基
本特徴抽出部2では統計的特徴と構造的特徴の両方に利
用できるような基本特徴を抽出することにより構成の共
通化が可能になり、また第2の構造的特徴抽出部8では
認識部4では識別が困難な類似カテゴリの分離に有効な
構造的特徴を中心に抽出することにより処理の効率化が
可能になり、統計的特徴を用いて識別を行う認識部4か
ら出力された認識結果に基づいて、第1の構造識別部7
において必要な構造的特徴を選択し最終的なカテゴリを
決定することによって更なる処理の効率化と類似カテゴ
リの認識性能の向上が可能になる。また、ループ数をラ
ベル情報のみに基づいて抽出することにより、処理の効
率化が図れる。
As described above, according to the second embodiment, the basic feature extraction section 2 extracts a basic feature that can be used as both a statistical feature and a structural feature, thereby enabling a common configuration. In addition, the second structural feature extraction unit 8 extracts structural features that are effective for separating similar categories that are difficult to be identified by the recognition unit 4 to enable efficient processing, and statistical features. Based on the recognition result output from the recognition unit 4 that performs identification using the first structure identification unit 7
It is possible to further improve the processing efficiency and improve the recognition performance of similar categories by selecting the structural features required in and determining the final category. Further, by extracting the number of loops based only on the label information, the efficiency of processing can be improved.

【0116】(実施の形態3)図36は本発明の第3の
実施の形態における光学的文字読み取り装置のブロック
図を示すものである。図36において、文字切り出し部
1、基本特徴抽出部2、統計的特徴抽出部3、第1の構
造的特徴抽出部5、字種判定部6、経路11、経路1
2、経路13、経路14は上述した第1の実施の形態に
おけるものと同様であり、動作も同様である。本実施の
形態が図1と異なる構成は第1の構造識別部7に代え
て、認識部4から出力された類似度を第1の構造的特徴
抽出部5から出力された構造的特徴に基づいて修正し、
修正類似度の大きさから最終的なカテゴリを決定する第
2の構造識別部9を設けた点である。
(Third Embodiment) FIG. 36 is a block diagram of an optical character reading device according to a third embodiment of the present invention. In FIG. 36, a character cutout unit 1, a basic feature extraction unit 2, a statistical feature extraction unit 3, a first structural feature extraction unit 5, a character type determination unit 6, a route 11, a route 1
2, the route 13 and the route 14 are similar to those in the above-described first embodiment, and the operation is also similar. The structure of this embodiment different from that of FIG. Fix it,
This is the point that the second structure identification unit 9 that determines the final category from the magnitude of the modified similarity is provided.

【0117】図37は第2の構造識別部9の構成を具体
的に示すブロック図である。371は第2の活字処理部
であり、字種判定部6で活字と判定された場合に、第1
の構造的特徴抽出部5から出力した構造的特徴と認識部
4から出力する少なくとも一つのカテゴリに基づいて類
似度修正値を求める。372は第2の手書き処理部であ
り、字種判定部6で手書きと判定された場合に、第1の
構造的特徴抽出部5から出力した構造的特徴と認識部4
から出力する少なくとも一つのカテゴリに基づいて類似
度修正値を求める。373は加算器であり、認識部4か
ら出力した類似度上位のものから複数のカテゴリの類似
度と第2の活字処理部371または第2の手書き処理部
372から出力した類似度修正値を加算して修正類似度
を求める。374は修正決定部であり、加算器373か
ら出力した修正類似度の大きさに基づいて修正類似度最
大のカテゴリ番号を出力する。
FIG. 37 is a block diagram specifically showing the structure of the second structure identifying section 9. Reference numeral 371 denotes a second type processing unit, which is the first type when the type determining unit 6 determines that the type is a type.
The similarity correction value is obtained based on the structural feature output from the structural feature extraction unit 5 and at least one category output from the recognition unit 4. Reference numeral 372 denotes a second handwriting processing unit, and when the character type determination unit 6 determines that the handwriting is performed, the structural feature and recognition unit 4 output from the first structural feature extraction unit 5 is output.
The similarity correction value is obtained based on at least one category output from. An adder 373 adds the similarity of a plurality of categories from the highest similarity output from the recognition unit 4 and the similarity correction value output from the second type processing unit 371 or the second handwriting processing unit 372. Then, the modified similarity is obtained. A correction determination unit 374 outputs the category number with the maximum correction similarity based on the magnitude of the correction similarity output from the adder 373.

【0118】以上のように構成された光学的文字読み取
り装置について、以下その動作を説明する。認識部4で
は、統計的特徴抽出部3で求めた輪郭方向統計特徴と外
郭方向統計特徴と背景距離統計特徴に基づいてカテゴリ
毎の類似度を求め、類似度上位から順番に複数のカテゴ
リの類似度と少なくとも一つのカテゴリ番号を出力す
る。次に、第2の構造識別部9の第2の活字処理部37
1では、字種判定部6で活字と判定された場合に、第1
の構造的特徴抽出部5から出力した構造的特徴と認識部
4から出力する少なくとも一つのカテゴリに基づいて類
似度修正値を求める。具体的な類似度修正値の算出方法
を図20を使用して説明する。まず全ての類似度修正値
を0に設定する。次に認識部4から、認識上位から順番
にカテゴリ3及びカテゴリ9の2つのカテゴリが出力さ
れたとき、第1の構造的特徴抽出部5から出力された構
造的特徴の中で図20(a)(b)(c) を選択し、まず図20
(a)の中央左背景が凸という特徴が第1の構造的特徴抽
出部5で抽出されているかどうかを調べる。抽出されて
いた場合はカテゴリ3の類似度修正値を上げる。抽出さ
れていない場合はカテゴリ3の類似度修正値を下げ、か
つ図20(c) の下部左背景の凸が抽出されているかどう
かを調べる。抽出されていた場合はカテゴリ5とカテゴ
リ9の類似度修正値を上げる。抽出されていない場合は
カテゴリ5とカテゴリ9の類似度修正値を下げる。かつ
図20(b) の上部右背景の凸が抽出されているかどうか
を調べる。抽出されていた場合はカテゴリ5とカテゴリ
9の類似度修正値を上げ、抽出されていない場合はカテ
ゴリ5とカテゴリ9の類似度修正値を下げる。各々の場
合における類似度修正値の上下幅は一定にする必要はな
く、構造的特徴の重要性、認識部4から出力される類似
度の分布、及び第1の構造的特徴抽出部5における各々
の構造的特徴の抽出の確信度に応じて変えても構わな
い。また類似度修正値を求めるカテゴリを認識部4から
出力する複数の類似度に対応するカテゴリだけに限定し
ても構わない。
The operation of the optical character reading device configured as described above will be described below. The recognition unit 4 obtains the similarity for each category based on the contour direction statistical feature, the contour direction statistical feature, and the background distance statistical feature obtained by the statistical feature extraction unit 3, and determines the similarity of a plurality of categories in order from the highest similarity. Output the degree and at least one category number. Next, the second type processing unit 37 of the second structure identification unit 9
In the case of No. 1, if the character type determination unit 6 determines that the type is
The similarity correction value is obtained based on the structural feature output from the structural feature extraction unit 5 and at least one category output from the recognition unit 4. A specific method of calculating the similarity correction value will be described with reference to FIG. First, all the similarity correction values are set to 0. Next, when two categories, category 3 and category 9, are output from the recognition unit 4 in order from the top of the recognition, among the structural features output from the first structural feature extraction unit 5, FIG. ) (b) (c) is selected, and first, FIG.
It is checked whether or not the feature in which the center left background of (a) is convex is extracted by the first structural feature extraction unit 5. If it has been extracted, the category 3 similarity correction value is increased. If not extracted, the similarity correction value of category 3 is lowered, and it is checked whether or not the convex on the lower left background of FIG. 20 (c) is extracted. If it has been extracted, the similarity correction value of category 5 and category 9 is increased. If not extracted, the similarity correction value of category 5 and category 9 is lowered. Moreover, it is checked whether or not the convex portion of the upper right background of FIG. 20 (b) is extracted. If it has been extracted, the similarity correction value of category 5 and category 9 is increased, and if it has not been extracted, the similarity correction value of category 5 and category 9 is decreased. The upper and lower widths of the similarity correction value in each case do not have to be constant, and the importance of the structural feature, the distribution of the similarity output from the recognition unit 4, and the first structural feature extraction unit 5 It may be changed according to the certainty factor of the extraction of the structural feature of. Further, the category for which the similarity correction value is obtained may be limited to only the categories corresponding to the plurality of similarities output from the recognition unit 4.

【0119】第2の構造識別部9の第2の手書き処理部
372では、字種判定部6で手書きと判定された場合
に、第1の構造的特徴抽出部5から出力した構造的特徴
と認識部4から出力する少なくとも一つのカテゴリに基
づいて類似度修正値を求める。具体的な類似度修正値の
算出方法は第2の活字処理部371と同様である。加算
器373では、認識部4から出力する複数の類似度と第
2の活字処理部371または第2の手書き処理部372
から出力する類似度修正値を加算して修正類似度を求め
る。修正決定部374では、加算器373から出力され
る修正類似度をカテゴリ毎に大きさを比較して、最大の
修正類似度を持つカテゴリを出力し、最終的なカテゴリ
として決定する。なお、修正決定部374から出力され
る最大の修正類似度が低い場合や、最大の修正類似度と
第2位以下の修正類似度との差が小さい場合は最終的な
カテゴリ決定を行わず、リジェクト(読み取り拒否)と
しても良い。
In the second handwriting processing section 372 of the second structure identifying section 9, when the character type judging section 6 judges that the character is handwritten, the structural characteristics output from the first structural characteristic extracting section 5 are The similarity correction value is calculated based on at least one category output from the recognition unit 4. A specific method of calculating the similarity correction value is the same as that of the second type processing unit 371. In the adder 373, the plurality of similarities output from the recognition unit 4 and the second type processing unit 371 or the second handwriting processing unit 372 are used.
The corrected similarity is calculated by adding the similarity correction values output from The modification determining unit 374 compares the modification similarities output from the adder 373 for each category and outputs the category having the maximum modification similarity, and determines the final category. If the maximum correction similarity output from the correction determining unit 374 is low, or if the difference between the maximum correction similarity and the second or lower correction similarity is small, final category determination is not performed, It may be rejected (read refusal).

【0120】このように、本実施の形態3によれば、認
識部4から出力された類似度と、第2の活字処理部37
1または第2の手書き処理部372から出力された類似
度修正値とを加算した修正類似度に基づいて修正決定部
374で最終的なカテゴリを決定することにより、認識
部4から出力された類似度の微妙な差を最終的なカテゴ
リ決定に反映させることができ、また第2の活字処理部
371と第2の手書き処理部372で構造的特徴検出の
信頼度を類似度修正値として反映させることができるた
めに認識性能が向上する。
As described above, according to the third embodiment, the similarity output from the recognition section 4 and the second type processing section 37.
By determining the final category in the correction determination unit 374 based on the corrected similarity calculated by adding the similarity correction value output from the first or second handwriting processing unit 372, the similarity output from the recognition unit 4 is determined. The subtle difference in degree can be reflected in the final category determination, and the reliability of structural feature detection in the second print processing unit 371 and the second handwriting processing unit 372 can be reflected as a similarity correction value. As a result, the recognition performance is improved.

【0121】(実施の形態4)図38は、本発明の第3
の実施の形態における光学的文字読み取り装置のブロッ
ク図を示すものである。図38において、基本特徴抽出
部2、統計的特徴抽出部3、認識部4、第1構造的特徴
抽出部5、字種判定部6、第1の構造識別部7、経路1
1、経路12、経路13、経路14、経路15は上述し
た第1の実施の形態におけるものと同様であり、動作も
同様である。なお、第1の構造識別部7を第2の構造認
識部9に置き換えても構わない。
(Fourth Embodiment) FIG. 38 shows a third embodiment of the present invention.
3 is a block diagram of an optical character reading device according to an embodiment of FIG. In FIG. 38, a basic feature extraction unit 2, a statistical feature extraction unit 3, a recognition unit 4, a first structural feature extraction unit 5, a character type determination unit 6, a first structure identification unit 7, and a route 1
1, the route 12, the route 13, the route 14, and the route 15 are the same as those in the above-described first embodiment, and the operations are also the same. The first structure identification unit 7 may be replaced with the second structure recognition unit 9.

【0122】本実施の形態が図1と異なる構成は、文字
切り出し部1に代えて、光電変換された文字列データに
対して個々の文字パターンを切り出し、個々の文字パタ
ーンに対する外接矩形の大きさと切り出し画像を出力
し、後述する第1の切り出しエラー判定部382から再
切り出し指示信号が出力された場合は切り出しエラー判
定された番号の文字の切り出しを再実行する第2の文字
切り出し部381を設けた点と、第2の文字切り出し部
381から出力された個々の文字パターンの外接矩形の
大きさから切り出しエラーを判定し、切り出しエラーの
場合は再切り出し指示信号と切り出しエラー文字番号を
第2の文字切り出し部381に出力する第1の切り出し
エラー判定部382を設けた点である。
The configuration of this embodiment different from that of FIG. 1 is that instead of the character slicing section 1, individual character patterns are cut out from the photoelectrically converted character string data, and the size of the circumscribed rectangle with respect to each character pattern is set. A second character cutout unit 381 is provided that outputs a cutout image and, when a recutout instruction signal is output from a first cutout error determination unit 382, which will be described later, recuts the character of the number for which the cutout error has been determined. And the size of the circumscribing rectangle of the individual character patterns output from the second character cutout unit 381, the cutout error is determined, and in the case of the cutout error, the recutting instruction signal and the cutout error character number are set to the second value. The point is that a first cutout error determination unit 382 for outputting to the character cutout unit 381 is provided.

【0123】以上のように構成された光学的文字読み取
り装置について、以下その動作を説明する。第2の文字
切り出し部381では、通常の場合は文字切り出し部1
と同様に、複数の文字が含まれる原画像に対して、1文
字単位の切り出しを実行し、各々の文字の外接矩形の大
きさと切り出し画像を出力する。第1の切り出しエラー
判定部382で切り出しエラーが検出された場合は異な
る動作を実行するので、その動作は後述する。
The operation of the optical character reading device configured as described above will be described below. In the second character cutout unit 381, the character cutout unit 1 is normally used.
Similarly, the original image including a plurality of characters is cut out for each character, and the size of the circumscribed rectangle of each character and the cutout image are output. If the first cutout error determination unit 382 detects a cutout error, a different operation is performed, and the operation will be described later.

【0124】次に第1の切り出しエラー判定部382で
は、第2の文字切り出し部381から出力された各々の
文字の外接矩形の大きさに基づいて切り出しエラーの判
定を行う。具体的な動作を図39を利用して説明する。
図39(a) が原画像であり、図39(b) 〜(e) が切り出
し文字の外接矩形の大きさであり、図39(f) 〜(i)が
切り出し画像である。図39(a) の原画像を第2の文字
切り出し部381で最初に切り出すと、図39(f) のよ
うに文字枠が分離できずに残る場合、図39(g) のよ
うに枠からはみ出している文字の一部が削除された場
合、図39(h) のように文字枠が1文字として切り出さ
れた場合、図39(i) のように近接する2文字が1文字
として切り出されることがある。これらの切り出された
文字画像の外接矩形の大きさは、図39(b) 〜(e) のよ
うに本来あるべき1文字分の外接矩形の大きさとは異な
る場合が多いため、次に各々の文字の外接矩形の大きさ
を第1の切り出しエラー判定部382に入力して、同一
欄の文字の外接矩形の高さや幅と比較してかけ離れてい
る文字を発見した場合や、予め定められている外接矩形
の高さや幅の範囲から外れている場合は、切り出しエラ
ーとして第2の文字切り出し部381に再切り出し指示
信号、エラー文字番号、エラー内容を出力する。第2の
文字切り出し部381では、第1の切り出しエラー判定
部382から再切り出し指示信号を入力すると、同時に
入力したエラー文字番号の切り出し領域をエラー内容に
従って再切り出しを実行する。例えば、図39(b) では
外接矩形の幅が大きいというエラー内容になるため、図
40のような水平・垂直方向の黒画素ヒストグラムに基
づいて切り出し位置を再検討する。図39(c) 〜(e) に
関しても同様の方法で切り出し位置を再検討する。
Next, the first cut-out error judgment section 382 judges a cut-out error based on the size of the circumscribed rectangle of each character output from the second character cut-out section 381. A specific operation will be described with reference to FIG.
39 (a) is the original image, FIGS. 39 (b) to 39 (e) are the sizes of the circumscribed rectangles of the clipped characters, and FIGS. 39 (f) to 39 (i) are the clipped images. When the original image of FIG. 39 (a) is first cut out by the second character cutout unit 381 and the character frame remains unseparated as shown in FIG. 39 (f), the character frame is removed as shown in FIG. 39 (g). When part of the protruding characters is deleted, when the character frame is cut out as one character as shown in FIG. 39 (h), two adjacent characters are cut out as one character as shown in FIG. 39 (i). Sometimes. Since the size of the circumscribing rectangle of these clipped character images is often different from the size of the circumscribing rectangle for one character as originally shown in FIG. 39 (b) to (e), When the size of the circumscribed rectangle of the character is input to the first cutout error determination unit 382 and a character far from the height or width of the circumscribed rectangle of the character in the same field is found, or when it is determined in advance. If it is out of the range of the height or width of the circumscribed rectangle, a recutting instruction signal, an error character number, and an error content are output to the second character cutout unit 381 as a cutout error. In the second character cutout unit 381, when the recutout instruction signal is input from the first cutout error determination unit 382, the cutout area of the simultaneously input error character number is recut out according to the error content. For example, in FIG. 39 (b), since the error content is that the width of the circumscribing rectangle is large, the clipping position is re-examined based on the horizontal / vertical black pixel histogram as shown in FIG. 39 (c) to (e), the cutout position is reexamined in the same manner.

【0125】このように、本実施の形態4によれば、第
2の文字切り出し部381から出力された文字パターン
の外接矩形の大きさに基づいて、第1の切り出しエラー
判定部382において切り出し失敗文字を検出して再切
り出し指示信号を第2の文字切り出し部381に送り、
第2の文字切りだし部381において切り出し失敗原因
を分析して再切り出し処理を実行することにより、切り
出し誤りの減少が可能になり、切り出し誤りによる認識
部4や第1の構造識別部7における誤認識を減少させる
ことができる。
As described above, according to the fourth embodiment, based on the size of the circumscribing rectangle of the character pattern output from the second character cutout unit 381, the first cutout error determination unit 382 fails in the cutout. The character is detected and a re-cutout instruction signal is sent to the second character cutout unit 381,
By analyzing the cause of the cutout failure in the second character cutout unit 381 and executing the recutout process, it is possible to reduce the cutout error, and the error in the recognition unit 4 and the first structure identification unit 7 due to the cutout error is reduced. Perception can be reduced.

【0126】(実施の形態5)図41は、本発明の第5
の実施の形態における光学的文字読み取り装置のブロッ
ク図を示すものである。図41において、第2の文字切
り出し部381、基本特徴抽出部2、統計的特徴抽出部
3、識部4、構第1の造的特徴抽出部5、字種判定部
6、認第1の構造識別部7、経路11、経路12、経路
13、経路14、経路15は上述した第4の実施の形態
におけるものと同様であり、動作も同様である。なお、
第1の構造識別部7を第2の構造認識部9に置き換えて
も構わない。
(Fifth Embodiment) FIG. 41 shows the fifth embodiment of the present invention.
3 is a block diagram of an optical character reading device according to an embodiment of FIG. In FIG. 41, the second character cutout unit 381, the basic feature extraction unit 2, the statistical feature extraction unit 3, the recognition unit 4, the structure first artificial feature extraction unit 5, the character type determination unit 6, and the recognition first The structure identifying unit 7, the route 11, the route 12, the route 13, the route 14, and the route 15 are the same as those in the above-described fourth embodiment, and the operations are also the same. In addition,
The first structure identification unit 7 may be replaced with the second structure recognition unit 9.

【0127】本発明の形態が図38と異なる構成は、第
1の切り出しエラー判定部382に代えて、第2の文字
切り出し部381から出力された個々の文字パターンの
外接矩形の大きさと認識部4から出力された複数のカテ
ゴリの類似度から切り出しエラーを判定し、切り出しエ
ラーの場合は再切り出し指示信号と切り出しエラー文字
番号を第2の文字切り出し部381に出力する第2の切
り出しエラー判定部411を設けたことである。
The configuration of the embodiment of the present invention different from that of FIG. 38 is that instead of the first cutout error judgment unit 382, the size of the circumscribed rectangle of each character pattern output from the second character cutout unit 381 and the recognition unit. A second cutout error determination unit that determines a cutout error from the similarities of the plurality of categories output from FIG. 4, and outputs a recutout instruction signal and a cutout error character number to the second character cutout unit 381 in the case of a cutout error. That is, 411 is provided.

【0128】以上のように構成された光学的文字読み取
り装置について、以下その動作を説明する。第2の切り
出しエラー判定部411では、個々の文字パターンの外
接矩形の大きさから切り出しエラーを判定する方法は第
1の切り出しエラー判定部382と同様であるが、認識
部4から出力された複数のカテゴリの類似度を利用して
切り出しエラーを判定することが異なる。具体的には、
第1位の類似度の大きさが他の文字に比べて極端に低い
場合や、第1位の類似度と第2位以下の類似度の大きさ
の差が少ない場合は、切り出しエラーの可能性が高いと
判定して再切り出し指示信号と切り出しエラー文字番号
を第2の文字切り出し部381に出力する。
The operation of the optical character reading device configured as described above will be described below. The second cut-out error determination unit 411 uses the same method as the first cut-out error determination unit 382 to determine a cut-out error based on the size of the circumscribing rectangle of each character pattern. The difference is that the cutout error is determined by using the similarity of the categories. In particular,
If the first similarity is extremely low compared to other characters, or if the difference between the first similarity and the second or lower similarity is small, a clipping error may occur. It is determined that the property is high, and the re-cutout instruction signal and the cutout error character number are output to the second character cutout unit 381.

【0129】このように、本実施の形態5によれば、第
2の文字切り出し部381から出力された文字パターン
の外接矩形の大きさに、認識部4の出力も第2の切り出
しエラー判定部411における切り出しエラーの判定基
準に加えることによって、外接矩形の大きさから明確に
切り出しエラーが判定できない場合でも、認識部4にお
ける類似度から判定できる認識結果の確信度に基づいて
切り出しエラーを判定できる。
As described above, according to the fifth embodiment, the size of the circumscribing rectangle of the character pattern output from the second character cutout unit 381 is also determined by the output of the recognition unit 4 to the second cutout error determination unit. By adding to the determination criterion of the cutout error in 411, the cutout error can be determined based on the certainty of the recognition result that can be determined from the similarity in the recognition unit 4 even when the cutout error cannot be clearly determined from the size of the circumscribed rectangle. .

【0130】(実施の形態6)図42は、本発明の第6
の実施の形態における光学的文字読み取り装置のブロッ
ク図を示すものである。図42において、文字切り出し
部1、基本特徴抽出部2、統計的特徴抽出部3、認識部
4、第1の構造的特徴抽出部5、字種判定部6、第1の
構造識別部7、経路11、経路12、経路13、経路1
4、経路15は上述した第1の実施の形態におけるもの
と同様であり、動作も同様である。なお、第1の構造識
別部7を第2の構造認識部9に置き換えても構わない。
(Embodiment 6) FIG. 42 shows a sixth embodiment of the present invention.
3 is a block diagram of an optical character reading device according to an embodiment of FIG. In FIG. 42, a character cutout unit 1, a basic feature extraction unit 2, a statistical feature extraction unit 3, a recognition unit 4, a first structural feature extraction unit 5, a character type determination unit 6, a first structure identification unit 7, Route 11, Route 12, Route 13, Route 1
The route 4 and the route 15 are the same as those in the above-described first embodiment, and the operations are also the same. The first structure identification unit 7 may be replaced with the second structure recognition unit 9.

【0131】本実施の形態が図1と異なる構成は、認識
部4から出力される大きい方から2番目の類似度と最大
類似度の比、及び最大類似度の大きさ、及び第1の構造
的特徴抽出部5の前記背景情報算出部24で算出した背
景情報に基づく背景複雑度により、リジェクトの有無を
判定する第1の認識結果算出部421を設けた点であ
る。
The configuration of this embodiment different from that of FIG. 1 is that the ratio of the second largest similarity degree to the largest similarity degree output from the recognition unit 4, the magnitude of the largest similarity degree, and the first structure. The point is that a first recognition result calculation unit 421 for determining the presence / absence of a reject is provided based on the background complexity calculated based on the background information calculated by the background information calculation unit 24 of the dynamic feature extraction unit 5.

【0132】以上のように構成された光学的文字読み取
り装置について、以下その動作を説明する。実施の形態
1と同様にして、入力文字列データに対して認識部4か
ら複数のカテゴリ類似度、大きい方から少なくとも1つ
のカテゴリが出力される。認識部4から出力された複数
のカテゴリ類似度の大きい方から2つのカテゴリ類似度
を選択し、2番目の類似度と最大類似度の比の値が、予
め設定されているしきい値aの値より大きい(すなわ
ち、2番目の類似度が最大類似度に近い)か、最大類似
度の値が予め設定されたしきい値bの値より小さいか、
垂直及び水平方向の背景次数の最大値の和である背景複
雑度が予め設定されたしきい値cの値より大きい場合に
リジェクト信号を出力し、それ以外の場合には、認識部
4から出力されたカテゴリ類似度、カテゴリを第1の構
造識別部7に出力する。第1の構造識別部7は、実施の
形態1と同様にして構造特徴を用いて最終認識結果を判
定する。なお、背景複雑度は垂直及び水平方向の背景次
数の最大値の和に限定するものではなく、ある一定の値
以上の背景次数のライン数の和等、背景情報に基づくも
のであればよい。
The operation of the optical character reading device configured as described above will be described below. In the same manner as in the first embodiment, the recognition unit 4 outputs a plurality of category similarities to the input character string data, and at least one category from the larger one. Two category similarities are selected from the larger one of the plurality of category similarities output from the recognition unit 4, and the value of the ratio of the second similarity and the maximum similarity is set to the preset threshold value a. Is larger than the value (that is, the second similarity is close to the maximum similarity), or the value of the maximum similarity is smaller than the value of the preset threshold value b,
If the background complexity, which is the sum of the maximum values of the background orders in the vertical and horizontal directions, is larger than the value of the preset threshold value c, a reject signal is output; otherwise, the recognition unit 4 outputs the reject signal. The calculated category similarity and category are output to the first structure identification unit 7. The first structure identification unit 7 determines the final recognition result by using the structural feature as in the first embodiment. Note that the background complexity is not limited to the sum of the maximum values of the background orders in the vertical and horizontal directions, and may be based on the background information such as the sum of the number of lines of the background orders having a certain value or more.

【0133】本実施の形態においては、最大類似度の
値、及び2番目の類似度と最大類似度の比の値を用いる
場合を説明する。ここで、リジェクト判定のしきい値
a、bは、図43に示すように予め複数の文字データに
対して大きい方から2番目の類似度(第2位類似度)と
最大類似度の比、最大類似度の値を求め、認識結果の正
解・不正解別にグラフにプロットする事により経験的に
決定される。図43の場合、最大類似度が小さい領域に
は、類似度の比の値とは関係なく不正解文字のみが分布
している。例えば最大類似度の値が500以下の文字パ
ターン(147文字)を調べると、ほとんど(144文
字)が前処理エラーである。図44にその最大類似度の
値が500以下の文字の一例を列挙する。図44より、
ノイズを有する文字、枠線残り、金額訂正部の切り出
し、つながり文字分離エラー、認識対象外文字の切り出
し等の前処理エラー文字が、最大類似度の大きさをリジ
ェクト判定の基準に追加することによりリジェクトでき
るようになることが分かる。
In this embodiment, the case where the maximum similarity value and the second ratio between the similarity and the maximum similarity are used will be described. Here, the rejection determination threshold values a and b are, as shown in FIG. 43, the ratio of the second highest similarity degree (second highest similarity degree) to the maximum similarity degree for a plurality of character data in advance, It is empirically determined by obtaining the maximum similarity value and plotting it on the graph for each correct and incorrect answer of the recognition result. In the case of FIG. 43, only incorrect characters are distributed in the region where the maximum similarity is small, regardless of the value of the ratio of the similarities. For example, when a character pattern (147 characters) having a maximum similarity value of 500 or less is examined, most (144 characters) are preprocessing errors. FIG. 44 lists an example of characters whose maximum similarity value is 500 or less. From FIG. 44,
Preprocessing error characters such as noisy characters, remaining frame lines, clipping of amount correction part, concatenated character separation error, clipping of unrecognized characters, etc. are added by adding the maximum similarity to the criteria for reject judgment. You can see that you can reject.

【0134】このように、本実施の形態6によれば、リ
ジェクト判定に類似度の比の値だけでなく、最大類似度
の大きさを併用する事で、前処理エラーを効率的にリジ
ェクトを行う事が可能となる。更に背景複雑度を用いれ
ばより効率的にリジェクトを行うことが可能となる。
As described above, according to the sixth embodiment, not only the value of the ratio of the similarity but also the magnitude of the maximum similarity is used together in the rejection determination to efficiently reject the preprocessing error. It becomes possible to do it. Further, if the background complexity is used, it is possible to perform the rejection more efficiently.

【0135】(実施の形態7)図45は、本発明の第7
の実施の形態における光学的文字読み取り装置のブロッ
ク図を示すものである。図45において、文字切り出し
部1、基本特徴抽出部2、統計的特徴抽出部3、認識部
4、第1の構造的特徴抽出部5、字種判定部6、第1の
構造識別部7、経路11、経路12、経路13、経路1
4、経路15は上述した第6の実施の形態におけるもの
と同様であり、動作も同様である。なお、第1の構造識
別部7を第2の構造認識部9に置き換えても構わない。
(Embodiment 7) FIG. 45 shows a seventh embodiment of the present invention.
3 is a block diagram of an optical character reading device according to an embodiment of FIG. In FIG. 45, a character cutout unit 1, a basic feature extraction unit 2, a statistical feature extraction unit 3, a recognition unit 4, a first structural feature extraction unit 5, a character type determination unit 6, a first structure identification unit 7, Route 11, Route 12, Route 13, Route 1
The route 4 and the route 15 are the same as those in the above-described sixth embodiment, and the operations are also the same. The first structure identification unit 7 may be replaced with the second structure recognition unit 9.

【0136】本実施の形態が図42と異なる構成は、第
1の認識結果算出部421に代えて、認識部4から出力
される大きい方から2番目の類似度と最大類似度の比、
最大類似度の大きさ、及び第1の構造的特徴抽出部5の
前記背景情報算出部24で算出した背景情報に基づく背
景複雑度により、リジェクトの有無を判定する第2の認
識結果算出部451を設けた点である。
The configuration of this embodiment different from that of FIG. 42 is that instead of the first recognition result calculation unit 421, the ratio of the second largest similarity degree to the maximum similarity degree output from the recognition unit 4,
A second recognition result calculation unit 451 that determines the presence or absence of a rejection based on the maximum similarity and the background complexity based on the background information calculated by the background information calculation unit 24 of the first structural feature extraction unit 5. That is the point.

【0137】図46は、第2の認識結果算出部451の
構成を具体的に示すブロック図である。461は、認識
部4から出力されるカテゴリ類似度の大きい方から2つ
を選択し、2番目のカテゴリ類似度(第2位類似度)と
最大類似度の比を算出する類似度比算出部である。46
6は、背景情報算出部24から出力される背景情報に基
づき背景複雑度を算出する背景複雑度算出部である。4
62は、前記算出された類似度比と最大類似度と背景複
雑度を入力として、それらの値に応じてその文字パター
ンが正解(非リジェクト)か不正解(リジェクト)かを
出力するリジェクト判定部である。ここでは、上記リジ
ェクト判定部を予め複数のデータについて学習させた階
層型ニューラルネットワークにより構成した例について
説明する。463は、前記リジェクト判定部の学習に用
いる文字データの正解カテゴリを記憶した正解カテゴリ
テーブルである。464は、学習時には、認識部4から
出力される最大類似度カテゴリと前記正解カテゴリテー
ブルに書き込まれた正解カテゴリとリジェクト判定部の
出力から学習の有無を判定し、認識時には、リジェクト
判定部の出力から、リジェクトの判定をする出力判定部
である。465は、学習時に前記出力判定部464で学
習が必要であると判定された場合にリジェクト判定部を
構成する階層型ニューラルネットワークの結合荷重を更
新する結合荷重更新部である。
FIG. 46 is a block diagram specifically showing the structure of the second recognition result calculation unit 451. A similarity ratio calculation unit 461 calculates two ratios of the second category similarity (the second highest similarity) and the maximum similarity by selecting two categories having the highest category similarity output from the recognition unit 4. Is. 46
Reference numeral 6 denotes a background complexity calculation unit that calculates the background complexity based on the background information output from the background information calculation unit 24. Four
Reference numeral 62 denotes a reject determination unit that inputs the calculated similarity ratio, the maximum similarity and the background complexity, and outputs whether the character pattern is a correct answer (non-reject) or an incorrect answer (reject) according to these values. Is. Here, an example will be described in which the reject determination unit is configured by a hierarchical neural network in which a plurality of data has been learned in advance. Reference numeral 463 is a correct answer category table that stores correct answer categories of character data used for learning of the reject determination unit. 464, during learning, the presence / absence of learning is determined based on the maximum similarity category output from the recognition unit 4, the correct answer category written in the correct answer category table, and the output of the reject determination unit, and during recognition, the output of the reject determination unit Is an output determination unit that determines rejects. Reference numeral 465 is a connection weight update unit that updates the connection weight of the hierarchical neural network that constitutes the reject determination unit when the output determination unit 464 determines that learning is required during learning.

【0138】以上のように構成された光学的文字読み取
り装置について、以下その動作を説明する。実施の形態
1と同様にして、入力文字列データに対して認識部4か
ら複数のカテゴリ類似度、大きい方から少なくとも1つ
のカテゴリが出力される。第2の認識結果算出部451
は、予め用意した複数の文字データに対する類似度と背
景複雑度とリジェクトの有無の関係を学習する学習モー
ドと、学習結果に基づいてリジェクト判定をする認識モ
ードからなる。
The operation of the optical character reading device configured as described above will be described below. In the same manner as in the first embodiment, the recognition unit 4 outputs a plurality of category similarities to the input character string data, and at least one category from the larger one. Second recognition result calculation unit 451
Includes a learning mode for learning the relationship between the similarity, the background complexity, and the presence / absence of a rejection for a plurality of character data prepared in advance, and a recognition mode for performing a rejection determination based on the learning result.

【0139】まず、学習モードについて説明する。類似
度比算出部461は、認識部4から出力されたカテゴリ
類似度から、第2位類似度と最大類似度の比を算出しリ
ジェクト判定部462に出力する。背景複雑度算出部4
66は、背景情報算出部24から出力される背景情報に
基づいて、垂直及び水平方向の背景次数の最大値の和を
背景複雑度として算出しリジェクト判定部462に出力
する。なお、背景複雑度は垂直及び水平方向の背景次数
の最大値の和に限定するものではなく、ある一定の値以
上の背景次数のライン数の和等、背景情報に基づくもの
であればよい。リジェクト判定部462を構成する階層
型ニューラルネットワークは、類似度比と最大類似度比
と背景複雑度を入力として、その時点での結合荷重によ
り出力層から出力信号を出力する。ここでは、出力層の
ニューロン数を2とし、一方の出力がリジェクト、もう
一方のリジェクトが非リジェクトを表す。出力判定部4
64は、前記リジェクト判定部の出力のうち大きい方を
選択すると同時に、現在入力されているパターンの最大
類似度カテゴリと正解カテゴリテーブル463から出力
される正解カテゴリを比較する。最大カテゴリが正解カ
テゴリと一致する(正解)場合で、リジェクト判定部4
62の出力のリジェクトを表すニューロンの出力が大き
いか、最大類似度カテゴリと正解カテゴリが一致しない
(不正解)場合で、リジェクト判定部462の出力の非
リジェクトを表すニューロンの出力が大きい時には、学
習信号を結合荷重更新部に出力する。学習信号が出力判
定部464から出力されると、結合荷重更新部は、最急
降下法等のアルゴリズムにより、リジェクト判定部46
2を構成する階層型ニューラルネットワークの結合荷重
を更新する。以上の動作を、全ての学習データに対して
出力判定部464から学習信号が出力されなくなるか、
リジェクト判定部の2つの出力値の大小関係が変化しな
くなるまで繰り返す。この学習モードにより、類似度比
と最大類似度と背景複雑度の大きさに応じたリジェクト
判定が可能になる。
First, the learning mode will be described. The similarity ratio calculation unit 461 calculates the ratio between the second-rank similarity and the maximum similarity from the category similarity output from the recognition unit 4 and outputs the ratio to the rejection determination unit 462. Background complexity calculator 4
66 calculates the sum of the maximum values of the background orders in the vertical and horizontal directions as the background complexity based on the background information output from the background information calculation unit 24, and outputs the background complexity to the reject determination unit 462. Note that the background complexity is not limited to the sum of the maximum values of the background orders in the vertical and horizontal directions, and may be based on the background information such as the sum of the number of lines of the background orders having a certain value or more. The hierarchical neural network forming the reject determination unit 462 inputs the similarity ratio, the maximum similarity ratio, and the background complexity, and outputs an output signal from the output layer according to the connection weight at that time. Here, the number of neurons in the output layer is 2, one output represents reject, and the other reject represents non-reject. Output determination unit 4
64 selects the larger one of the outputs of the reject determination unit and, at the same time, compares the maximum similarity category of the currently input pattern with the correct category output from the correct category table 463. When the maximum category matches the correct category (correct answer), the reject determination unit 4
If the output of the neuron representing the reject of the output of 62 is large or the maximum similarity category does not match the correct category (incorrect answer), and the output of the neuron representing the non-reject of the output of the reject determination unit 462 is large, learning is performed. The signal is output to the connection weight updating unit. When the learning signal is output from the output determining unit 464, the coupling weight updating unit uses the algorithm such as the steepest descent method to reject the reject determining unit 46.
The connection weights of the hierarchical neural network forming 2 are updated. Whether the learning signal is not output from the output determining unit 464 for all the learning data
The process is repeated until the magnitude relationship between the two output values of the reject determination unit does not change. With this learning mode, it is possible to perform reject determination according to the similarity ratio, the maximum similarity and the background complexity.

【0140】次に、認識モードについて説明する。上記
学習後の結合荷重値に基づいて、類似度比と最大類似度
の大きさと背景複雑度に応じた出力がリジェクト判定部
462から出力されると出力判定部464は、その出力
値の大きい方を選択し、リジェクトを表す出力が大きい
場合にはリジェクト信号を、非リジェクトを表す出力が
大きい場合には、最大類似度カテゴリを認識結果として
出力する。類似度比と最大類似度と背景複雑度の空間上
での正解文字(リジェクトしない文字)領域と不正解文
字(リジェクトすべき文字)領域の境界は非常に複雑で
ある。例えば、類似度比と最大類似度の2次元空間上で
も図43に示すように線形分離が不可能であると考えら
れるが、本実施の形態によれば非線形分離可能な階層型
ニューラルネットワークでリジェクト判定部462を構
成し、この境界を学習させることにより、より精度が高
く効果的なリジェクト判定が可能となる。なお、リジェ
クト判定部462を、階層型ニューラルネットワーク以
外のニューラルネットワークモデルで構成しても構わな
い。また、本実施の形態では、類似度比と最大類似度と
背景複雑度の3つをリジェクト判定部462への入力と
したが、3つのうちの任意の1つまたは2つを入力する
構成としても構わない。
Next, the recognition mode will be described. When the reject determination unit 462 outputs an output according to the similarity ratio, the magnitude of the maximum similarity, and the background complexity based on the combined weight value after learning, the output determination unit 464 determines that the output value is larger. Is selected, the reject signal is output when the output indicating the reject is large, and the maximum similarity category is output as the recognition result when the output indicating the non-reject is large. The boundary between the correct answer character (unrejected character) area and the incorrect answer character (character to be rejected) area in the space of the similarity ratio, the maximum similarity and the background complexity is very complicated. For example, it is considered that the linear separation is impossible even in the two-dimensional space of the similarity ratio and the maximum similarity as shown in FIG. 43. However, according to the present embodiment, the rejection is performed by the non-linear separable hierarchical neural network. By configuring the determination unit 462 and learning this boundary, more accurate and effective reject determination can be performed. The reject determination unit 462 may be configured with a neural network model other than the hierarchical neural network. Further, in the present embodiment, three of the similarity ratio, the maximum similarity, and the background complexity are input to the reject determination unit 462, but any one or two of the three may be input. I don't mind.

【0141】(実施の形態8)次に、帳票のような枠罫
線と文字を含む文書画像において、枠罫線の構造を認識
し、帳票を識別し、帳票内に記入されている特定の文字
領域を切り出し、そこに記載された文字を認識する帳票
文書認識方法および帳票文書認識装置、ならびにその認
識した文字を識別コードに変換し処理する帳票自動処理
システムについて説明する。
(Embodiment 8) Next, in a document image including frame ruled lines and characters such as a form, the structure of the frame ruled lines is recognized, the form is identified, and a specific character area filled in the form is specified. A form document recognition method and a form document recognition device for recognizing the characters described therein, and a form automatic processing system for converting the recognized characters into an identification code for processing will be described.

【0142】まず、従来の帳票文書認識装置について、
図51を参照して説明する。まず、画像入力手段501
により帳票上に記載された文書画像が2値画像に変換さ
れる。そして、文字位置検出手段502で、画像信号の
うち所望の文字領域が抽出される。文字位置検出の方法
としては、例えば特開平2−217977号公報のよう
に局部的な枠線構造の相違から帳票の種類を識別し、予
め指示された領域を読み取る方法がある。次に、文字切
り出し手段503により、1文字単位に切り出され、文
字認識手段504により文字認識される。次に単語認識
手段505において、文字認識手段503で認識された
文字列に対して、予め単語が格納された単語辞書506
から単語が読み出され、その読み出した単語と認識され
た文字列とを比較照合することで最終認識結果が得られ
る。例えば、この文字列が住所である場合、読み取りの
対象となる住所名を予め住所辞書に登録しておき、文字
認識結果と住所辞書から読み出した住所名とを比較照合
して、住所名を認識する方法については、特開平2−1
81287号公報に開示されている。
First, regarding the conventional form document recognition device,
This will be described with reference to FIG. First, the image input means 501
The document image written on the form is converted into a binary image by. Then, the character position detecting means 502 extracts a desired character area from the image signal. As a method of detecting the character position, there is a method of identifying the type of the form based on the difference in the local frame line structure and reading the previously designated area, as disclosed in Japanese Patent Laid-Open No. 2-217977. Next, the character slicing means 503 cuts out the character by character, and the character recognizing means 504 recognizes the character. Next, in the word recognition means 505, a word dictionary 506 in which words are stored in advance for the character string recognized by the character recognition means 503.
A word is read out from and the final recognition result is obtained by comparing and matching the read word with the recognized character string. For example, when this character string is an address, the address name to be read is registered in the address dictionary in advance, and the character recognition result is compared with the address name read from the address dictionary to recognize the address name. For the method, refer to Japanese Patent Laid-Open No. 2-1
It is disclosed in Japanese Patent No. 81287.

【0143】しかしながら、このような従来の帳票文書
認識装置では、読み取り対象となる単語を全て単語辞書
を登録しなければならないため、比較照合すべき件数が
きわめて多くなり、処理速度が非常に遅いという問題も
あった。
However, in such a conventional form document recognition apparatus, since all the words to be read must be registered in the word dictionary, the number of cases to be compared and compared is very large and the processing speed is very slow. There was also a problem.

【0144】そこで本実施の形態8では、このような従
来の問題を解決すべく、処理速度の速い、高精度な帳票
文書認識方法と装置および帳票自動処理システムを提供
することを目的し、予め個々の帳票の枠構造特徴および
その枠構造特徴を有する帳票に記載される候補文字列を
枠構造参照テーブルに登録し、このテーブルを参照して
枠構造特徴を照合することにより、帳票の種別をおおま
かに分類して帳票内の文字読取対象領域を検出し、次い
で文字領域を切り出し、切り出された文字を認識し、認
識結果と枠構造参照テーブル登録された候補文字列とを
照合して最終認識結果とするものであり、単語辞書を用
いた従来の方法に比べ、高速、高精度な帳票文書認識が
可能となる。
Therefore, in order to solve such a conventional problem, the eighth embodiment aims to provide a form document recognizing method and device and a form automatic processing system which have a high processing speed and a high accuracy. By registering the frame structure feature of each form and the candidate character string described in the form having the frame structure feature in the frame structure reference table and checking the frame structure feature by referring to this table, the form type can be determined. Roughly classify and detect the character reading target area in the form, then cut out the character area, recognize the cut out character, and collate the recognition result with the candidate character string registered in the frame structure reference table for final recognition As a result, compared to the conventional method using the word dictionary, it is possible to recognize the form document more quickly and with higher accuracy.

【0145】以下、本発明の実施の形態8について、図
47〜図50を用いて説明する。図47は本発明の実施
の形態8における帳票文書認識装置のブロック図であ
る。図1において、101は画像入力手段であり、枠罫
線と文字を含む帳票を読み取って2値画像に変換するも
のである。102はその2値画像を記憶する画像メモリ
である。103は枠罫線抽出手段であり、画像メモリ1
02に記憶された2値画像から枠罫線を抽出するもので
ある。104は枠構造抽出手段であり、枠罫線抽出手段
103で抽出された枠罫線から帳票の様式を識別するの
に必要な枠構造特徴を抽出するものである。105は枠
構造参照テーブルであり、予め個々の帳票の枠構造特徴
およびその枠構造特徴を有する帳票に記載される候補文
字列を登録したものである。106は枠構造照合手段で
あり、枠構造参照テーブル105を参照して枠構造特徴
抽出手段104で抽出した枠構造特徴を照合することに
より、入力された帳票の種別を識別し、文字読取対象領
域を検出するものである。107は上記実施の形態1か
ら7における文字切り出し部1に相当する文字切り出し
手段であり、枠構造照合手段106で検出された文字読
取対象領域に基づいて画像メモリ102から文字列を1
文字ずつ切り出すものである。108は上記実施の形態
1から7における文字切り出し部1以降の手段により構
成される文字認識手段であり、文字切り出し手段107
で切り出された文字を認識するものである。109は後
処理手段であり、認識手段108で認識された認識結果
と枠構造参照テーブル105に登録されている入力帳票
に対応する候補文字列とを照合して最終認識結果とする
ものである。
The eighth embodiment of the present invention will be described below with reference to FIGS. 47 to 50. 47 is a block diagram of a form document recognition device according to the eighth embodiment of the present invention. In FIG. 1, reference numeral 101 denotes an image input means, which reads a form including frame ruled lines and characters and converts it into a binary image. An image memory 102 stores the binary image. Reference numeral 103 denotes a frame ruled line extracting means, which is an image memory 1
The frame ruled lines are extracted from the binary image stored in 02. Reference numeral 104 denotes a frame structure extracting means, which extracts frame structure features necessary for identifying the form of the form from the frame ruled lines extracted by the frame ruled line extracting means 103. Reference numeral 105 denotes a frame structure reference table in which the frame structure features of individual forms and candidate character strings described in the form having the frame structure features are registered in advance. Reference numeral 106 denotes a frame structure collating unit, which refers to the frame structure reference table 105 to collate the frame structure features extracted by the frame structure feature extracting unit 104 to identify the type of the input form, and to read the character reading target area. Is to detect. Reference numeral 107 denotes a character cutout unit corresponding to the character cutout unit 1 in Embodiments 1 to 7 described above.
It cuts out the characters one by one. Reference numeral 108 denotes a character recognition means constituted by means after the character cutout unit 1 in the first to seventh embodiments, and the character cutout means 107 is provided.
It recognizes the characters cut out by. A post-processing unit 109 collates the recognition result recognized by the recognition unit 108 with a candidate character string corresponding to the input form registered in the frame structure reference table 105 to obtain a final recognition result.

【0146】以上のように構成された帳票文書認識装置
について、以下その動作を、図48に示す帳票が入力さ
れ、帳票上に記載された地方公共団体名を認識対象文字
列とする場合を例にとり説明する。図49は枠構造参照
テーブル105の一例を示した図である。入力される帳
票はグループA〜Dの4種類があるとする。枠構造参照
テーブル105には、予め入力される帳票の外形枠の構
造および個々の外形枠の内部の構造、文字読取対象領域
および記載される地方公共団体名を登録しておく。
With respect to the form document recognition device configured as described above, the operation will be described below in the case where the form shown in FIG. 48 is input and the local government name described on the form is used as the character string to be recognized. I will explain. FIG. 49 is a diagram showing an example of the frame structure reference table 105. It is assumed that there are four types of forms to be input, groups A to D. In the frame structure reference table 105, the structure of the outline frame of the form and the internal structure of each outline frame, the character reading target area, and the name of the local government to be described are registered in advance.

【0147】まず、認識動作について説明する。帳票2
01が入力されると、画像入力手段101において、枠
罫線と文字列を含む文書画像は2値化され、画像メモリ
102に格納される。次に枠罫線抽出手段103におい
て、画像メモリ102に格納された2値画像から枠罫線
のみを抽出する。
First, the recognition operation will be described. Form 2
When 01 is input, the image input unit 101 binarizes the document image including the frame ruled line and the character string, and stores the binarized image in the image memory 102. Next, the frame ruled line extracting means 103 extracts only the frame ruled lines from the binary image stored in the image memory 102.

【0148】次に、枠構造特徴抽出手段104におい
て、枠罫線抽出手段103で抽出された枠罫線から、帳
票の様式を識別するのに必要な外形枠の構造および個々
の外形枠の内部の構造等の枠構造特徴を抽出する。抽出
された枠構造特徴は、枠構造照合手段106において、
枠構造参照テーブル105に予め登録されている枠構造
特徴と照合され、入力帳票301はグループAに属する
と判断される。次に、文字切り出し手段107では、枠
構造参照テーブル105のグループAに対応する入力帳
票201の文字読取対象領域202から1文字単位で文
字を切り出す。次に文字認識手段108において文字認
識を行う。
Next, in the frame structure feature extraction means 104, the structure of the outer frame necessary for identifying the form of the form from the frame ruled lines extracted by the frame ruled line extraction means 103, and the internal structure of each outer frame. Frame structure features such as. The extracted frame structure feature is analyzed by the frame structure matching unit 106.
The input form 301 is determined to belong to the group A by collating with the frame structure feature registered in advance in the frame structure reference table 105. Next, the character cutout unit 107 cuts out a character in character units from the character reading target area 202 of the input form 201 corresponding to the group A of the frame structure reference table 105. Next, the character recognition means 108 performs character recognition.

【0149】次に、後処理手段109の動作について説
明する。文字認識手段108での認識結果として「神奈
川県厚木市」が得られたとする。後処理手段109にお
いては、枠構造参照テーブル105を検索し、グループ
Aに記載される候補文字列として登録されている地方公
共団体名「神奈川県厚木市」「福岡市」「東京都港区」
「大阪府吹田市」「鹿児島県隼人町」と認識結果「神奈
川県厚木市」との照合を行い、最終認識結果として「神
奈川県厚木市」を出力する。また、文字切り出しミス、
ノイズの影響等により、文字認識手段108の認識結果
が間違っている場合、例えば、「神奈川県」「柚奈川県
厚本市」が認識結果として得られた場合にも、候補文字
列の中から最も確からしい地方公共団体名が選択され、
最終認識結果としては、「神奈川県厚木市」が得られ
る。
Next, the operation of the post-processing means 109 will be described. It is assumed that “Atsugi City, Kanagawa Prefecture” is obtained as the recognition result by the character recognition means 108. In the post-processing means 109, the frame structure reference table 105 is searched, and the local public organization names “Atsugi City, Kanagawa Prefecture”, “Fukuoka City”, and “Minato Ward, Tokyo” registered as candidate character strings described in Group A.
Matches "Suita City, Osaka Prefecture" and "Hayato Town, Kagoshima Prefecture" with the recognition result, "Atsugi City, Kanagawa Prefecture", and outputs "Atsugi City, Kanagawa Prefecture" as the final recognition result. Also, a character cutting error,
Even if the recognition result of the character recognizing means 108 is incorrect due to the influence of noise, for example, “Kanagawa prefecture” and “Atsumoto city, Yuzugawa prefecture” are obtained as the recognition result, the candidate character string is selected. The most probable local government name was selected,
The final recognition result is "Atsugi City, Kanagawa Prefecture".

【0150】本実施の形態8において、地方公共団体と
認識された文字列を、識別コード、例えば地方公共団体
コードに変換し、さらにバーコード等に変換して、その
バーコードを識別コードに代えてまたは識別コードとと
もに帳票上に印刷すれば、帳票自動処理システムの処理
を非常に効率化することができる。この場合の帳票自動
処理システムの概要を図50に例示する。図50におい
て、401は帳票文書認識手段、402は識別コード変
換手段、403は識別コード変換テーブル、404は識
別コード印字手段、405は処理手段である。
In the eighth embodiment, a character string recognized as a local public entity is converted into an identification code, for example, a local public entity code, and further converted into a bar code or the like, and the bar code is replaced with the identification code. Or the identification code is printed on the form, the process of the form automatic processing system can be made very efficient. An outline of the form automatic processing system in this case is illustrated in FIG. In FIG. 50, 401 is a form document recognition means, 402 is an identification code conversion means, 403 is an identification code conversion table, 404 is an identification code printing means, and 405 is a processing means.

【0151】この帳票自動処理システムでは、帳票が、
上記実施の形態1と同様な帳票文書認識装置である帳票
文書認識手段401に入力されると、帳票上に記載され
た地方公共団体名を認識する。次に識別コード変換手段
402では、帳票文書認識手段401の認識結果を、識
別コード変換テーブルを参照して識別コードに変換す
る。ここで、識別コードとは地方公共団体に一意に対応
していればよい。例えば、地方公共団体コードがある。
認識結果が「神奈川県厚木市」であったらなら、対応す
る地方公共団体コードは「142123」である。な
お、識別コードは、地方公共団体コードに限定するもの
ではなく、独自に決定してもよい。次に、識別コード印
字手段404においては、前記変換された識別コード
を、前記入力帳票の所定の位置に印字する。なお、識別
コードそのものでなく、バーコードに変換して、バーコ
ードを印字してもよい。次に処理手段405において
は、前記印字された識別コードを読み取り、前記識別コ
ードに基づき帳票の仕訳処理を行う。
In this form automatic processing system, the form is
When input to the form document recognition means 401, which is the same form document recognition device as in the first embodiment, the local public organization name written on the form is recognized. Next, the identification code conversion unit 402 converts the recognition result of the form document recognition unit 401 into an identification code by referring to the identification code conversion table. Here, the identification code may uniquely correspond to the local public entity. For example, there is a local government code.
If the recognition result is "Atsugi City, Kanagawa Prefecture", the corresponding local government code is "142123". The identification code is not limited to the local government code, but may be uniquely determined. Next, the identification code printing means 404 prints the converted identification code at a predetermined position on the input form. Instead of the identification code itself, it may be converted into a barcode and the barcode may be printed. Next, in the processing means 405, the printed identification code is read, and the form is journaled based on the identification code.

【0152】以上のように、本実施の形態8によれば、
予め個々の帳票の枠構造特徴およびその枠構造特徴を有
する帳票に記載される候補文字列を枠構造参照テーブル
に登録し、このテーブルを参照して枠構造特徴を照合す
ることにより、帳票の種別をおおまかに分類して帳票内
の文字読取対象領域を検出し、次いで文字領域を切り出
し、切り出された文字を認識し、認識結果と枠構造参照
テーブル登録された候補文字列とを照合して最終認識結
果とするものであり、単語辞書を用いた従来の方法に比
べ、高速、高精度な帳票文書認識が可能となる。
As described above, according to the eighth embodiment,
By registering the frame structure features of individual forms and candidate character strings described in the form having the frame structure features in the frame structure reference table in advance, and referring to this table to collate the frame structure features, the type of the form Are roughly classified to detect the character reading target area in the form, then the character area is cut out, the cut out character is recognized, and the recognition result is compared with the candidate character string registered in the frame structure reference table to make the final This is the recognition result, and it is possible to recognize the form document more quickly and more accurately than the conventional method using the word dictionary.

【0153】[0153]

【発明の効果】以上説明したように、本発明によれば、
以下のような効果を有する。本発明の請求項1に記載の
光学的文字読み取り方法によれば、統計的特徴と構造的
特徴の両方に利用できるような基本特徴を抽出して処理
の共通化を図り、統計的特徴を利用した認識部では識別
が困難な類似カテゴリを分離する構造的特徴を中心に抽
出することで効率的な特徴抽出が可能になり、認識結果
に基づいて必要な構造的特徴を選択して最終的なカテゴ
リを決定することによって更なる処理の効率化と類似カ
テゴリの認識性能の向上が可能となる。
As described above, according to the present invention,
It has the following effects. According to the optical character reading method of the first aspect of the present invention, the basic features that can be used for both the statistical features and the structural features are extracted to make the processing common, and the statistical features are used. The feature recognition unit enables efficient feature extraction by mainly extracting the structural features that separate similar categories that are difficult to identify. By determining the category, it is possible to further improve the processing efficiency and improve the recognition performance of similar categories.

【0154】本発明の請求項2に記載の発明によれば、
統計的特徴と構造的特徴の両方に利用できるような基本
特徴を抽出して処理の共通化を図り、統計的特徴を利用
した認識部では識別が困難な類似カテゴリに関して、構
造的特徴に基づいた類似度修正値を加算した修正後類似
度に基づいて最終的なカテゴリを決定することにより、
統計的特徴を利用した認識部から出力された類似度の微
妙な差を最終的なカテゴリ決定に反映させることがで
き、また構造的特徴検出の信頼度を類似度修正値として
反映させることができるため、認識性能の向上が可能と
なる。
According to the invention described in claim 2 of the present invention,
Based on structural features, we extracted basic features that can be used for both statistical and structural features to standardize processing, and for similar categories that are difficult to identify by the recognition unit that uses statistical features. By determining the final category based on the corrected similarity after adding the similarity correction value,
It is possible to reflect the subtle difference in the similarity output from the recognition unit using statistical features in the final category determination, and the reliability of structural feature detection as a similarity correction value. Therefore, the recognition performance can be improved.

【0155】本発明の請求項3に記載の発明によれば、
字種に応じて専門化処理を行うことにより活字・手書き
特有の構造的特徴を混同することなく利用できるため、
類似カテゴリ間の認識性能が向上し、また予め字種に応
じた構造的特徴を分離して抽出することにより処理の効
率化が図れる。
According to the invention of claim 3 of the present invention,
By performing specialized processing according to the character type, it is possible to use without confusing the structural features peculiar to type and handwriting.
The recognition performance between similar categories is improved, and the processing efficiency can be improved by separating and extracting structural features according to the character type in advance.

【0156】本発明の請求項4に記載の発明によれば、
文字パターンの外接矩形の大きさや、類似度に基づい
て、外接矩形が他の文字の外接矩形と大きく相違してい
たり規定の外接矩形から外れている場合や、類似度が他
の文字の類似度に比べて極端に低い場合や、第1位の類
似度と第2位以下の類似度との差が少ない場合などに、
切り出し失敗文字を検出して失敗原因を分析して再切り
出しを実行することにより、切り出し誤りを減らし、切
り出し誤りに起因する誤認識を減少させることが可能と
なる。
According to the invention of claim 4 of the present invention,
Based on the size and the similarity of the circumscribed rectangle of the character pattern, if the circumscribed rectangle is significantly different from the circumscribed rectangle of other characters, or is out of the prescribed circumscribed rectangle, or the similarity is the similarity of other characters. When it is extremely low compared to, or when the difference between the similarity of the first rank and the similarity of the second rank or lower is small,
By detecting the cut-out failure character, analyzing the cause of the failure, and executing the cut-out again, it is possible to reduce the cut-out error and reduce the misrecognition due to the cut-out error.

【0157】本発明の請求項5に記載の発明によれば、
類似度の比、最大類似度の大きさ、背景複雑度に基づい
てリジェクト判定を行うことにより、リジェクト困難な
前処理エラー文字を効率的なリジェクトが可能となる。
According to the invention of claim 5 of the present invention,
By performing the rejection determination based on the ratio of the similarities, the magnitude of the maximum similarity, and the background complexity, it is possible to efficiently reject the preprocessing error character that is difficult to reject.

【0158】本発明の請求項6に記載の光学的文字読み
取り装置によれば、統計的特徴と構造的特徴の両方に利
用できるような基本特徴を抽出して処理の共通化を図
り、統計的特徴を利用した認識部では識別が困難な類似
カテゴリを分離する構造的特徴を中心に抽出することで
効率的な特徴抽出が可能になり、認識結果に基づいて必
要な構造的特徴を選択して最終的なカテゴリを決定する
ことによって更なる処理の効率化と類似カテゴリの認識
性能の向上が可能となる。
According to the optical character reader of the sixth aspect of the present invention, basic features that can be used as both statistical features and structural features are extracted to achieve common processing, and statistical The feature-based recognition unit enables efficient feature extraction by extracting structural features that separate similar categories that are difficult to identify, and selects the necessary structural features based on the recognition results. By determining the final category, it is possible to further improve the processing efficiency and improve the recognition performance of similar categories.

【0159】本発明の請求項7に記載の発明によれば、
統計的特徴を用いた認識結果に基づいて、類似カテゴリ
の識別に必要な構造的特徴のみを選択し最終的なカテゴ
リを決定することによって更なる処理の効率化と類似カ
テゴリの認識性能の向上が可能となる。
According to the invention of claim 7 of the present invention,
Based on the recognition results using statistical features, by selecting only the structural features necessary for identifying similar categories and determining the final category, it is possible to further improve the processing efficiency and improve the recognition performance of similar categories. It will be possible.

【0160】本発明の請求項8に記載の発明によれば、
字種に応じて専門化処理を行うことにより活字・手書き
特有の構造的特徴を混同することなく利用できるため、
類似カテゴリ間の認識性能が向上し、また予め字種に応
じた構造的特徴を分離して抽出することにより処理の効
率化が図れる。
According to the invention of claim 8 of the present invention,
By performing specialized processing according to the character type, it is possible to use without confusing the structural features peculiar to type and handwriting.
The recognition performance between similar categories is improved, and the processing efficiency can be improved by separating and extracting structural features according to the character type in advance.

【0161】本発明の請求項9に記載の発明よれば、活
字に関して、統計的特徴を用いた認識結果に基づいて、
類似カテゴリの識別に必要な構造的特徴のみを選択し最
終的なカテゴリを決定することによって更なる処理の効
率化と類似カテゴリの認識性能の向上が可能となる。
According to the invention of claim 9 of the present invention, based on the recognition result using the statistical feature for the type,
By selecting only the structural features necessary for identifying similar categories and determining the final category, it is possible to further improve the processing efficiency and improve the recognition performance of similar categories.

【0162】本発明の請求項10に記載の発明よれば、
活字に関して、外接矩形の大きさだけで判別可能なカテ
ゴリを最初に判定することで効率的にカテゴリを分離
し、次に認識部の結果に応じて類似カテゴリ分離に必要
な構造的特徴を選択して最終カテゴリ判断を行うことで
効率的かつ効果的な類似カテゴリ分離が可能となる。
According to the invention of claim 10 of the present invention,
With regard to print characters, the categories that can be distinguished only by the size of the circumscribed rectangle are first judged to efficiently separate the categories, and then the structural features required for similar category separation are selected according to the result of the recognition unit. By performing the final category judgment based on the above, it is possible to efficiently and effectively separate similar categories.

【0163】本発明の請求項11に記載の発明によれ
ば、手書き文字に関して統計的特徴を用いた認識結果に
基づいて、類似カテゴリの識別に必要な構造的特徴のみ
を選択し最終的なカテゴリを決定することによって更な
る処理の効率化と類似カテゴリの認識性能の向上が可能
となる。
According to the eleventh aspect of the present invention, only the structural features necessary for identifying similar categories are selected based on the recognition result using the statistical features of handwritten characters, and the final category is selected. By determining, it is possible to further improve the processing efficiency and improve the recognition performance of similar categories.

【0164】本発明の請求項12に記載の発明によれ
ば、手書き文字に関して、外接矩形の大きさだけで判別
可能なカテゴリを最初に判定することで効率的にカテゴ
リを分離し、次に認識部の結果に応じて類似カテゴリ分
離に必要な構造的特徴を選択して最終カテゴリ判断を行
うことで効率的かつ効果的な類似カテゴリ分離が可能と
なる。
According to the twelfth aspect of the present invention, with respect to handwritten characters, the categories that can be discriminated by only the size of the circumscribing rectangle are first discriminated, so that the categories can be efficiently separated and then recognized. By selecting the structural features necessary for the similar category separation according to the result of the section and making the final category judgment, the efficient and effective similar category separation becomes possible.

【0165】本発明の請求項13に記載の発明によれ
ば、統計的特徴と構造的特徴の両方に利用できるような
基本特徴を抽出して処理の共通化を図り、統計的特徴を
利用した認識部では識別が困難な類似カテゴリに関し
て、構造的特徴に基づいた類似度修正値を加算した修正
後類似度に基づいて最終的なカテゴリを決定することに
より、統計的特徴を利用した認識部から出力された類似
度の微妙な差を最終的なカテゴリ決定に反映させること
ができ、また構造的特徴検出の信頼度を類似度修正値と
して反映させることができるため、認識性能の向上が可
能となる。
According to the thirteenth aspect of the present invention, the basic features that can be used for both the statistical features and the structural features are extracted, the processing is made common, and the statistical features are used. For similar categories that are difficult to identify in the recognizer, the final category is determined based on the modified similarity obtained by adding the similarity correction value based on the structural feature. The subtle difference in the output similarity can be reflected in the final category determination, and the reliability of structural feature detection can be reflected as the similarity correction value, which can improve recognition performance. Become.

【0166】本発明の請求項14に記載の発明によれ
ば、類似度修正値を加算した修正後類似度に基づいて最
終的なカテゴリを決定することにより、統計的特徴を利
用した認識部から出力された類似度の微妙な差を最終的
なカテゴリ決定に反映させることができ、また構造的特
徴検出の信頼度を類似度修正値として反映させることが
できるため、認識性能の向上が可能となる。
According to the fourteenth aspect of the present invention, the final category is determined based on the corrected similarity obtained by adding the similarity correction values. The subtle difference in the output similarity can be reflected in the final category determination, and the reliability of structural feature detection can be reflected as the similarity correction value, which can improve recognition performance. Become.

【0167】本発明の請求項15に記載の発明によれ
ば、字種に応じて専門化処理を行うことにより活字・手
書き特有の構造的特徴を混同することなく利用できるた
め、類似カテゴリ間の認識性能が向上し、また予め字種
に応じた構造的特徴を分離して抽出することにより処理
の効率化が図れる。
According to the fifteenth aspect of the present invention, by performing the specialized processing according to the character type, the structural characteristics peculiar to the print / handwriting can be used without confusion, so that it is possible to use the same between the similar categories. The recognition performance is improved, and the processing efficiency can be improved by separating and extracting the structural features according to the character type in advance.

【0168】本発明の請求項16に記載の発明によれ
ば、活字に関して、類似度修正値を加算した修正後類似
度に基づいて最終的なカテゴリを決定することにより、
統計的特徴を利用した認識部から出力された類似度の微
妙な差を最終的なカテゴリ決定に反映させることがで
き、また構造的特徴検出の信頼度を類似度修正値として
反映させることができるため、認識性能の向上が可能と
なる。
According to the sixteenth aspect of the present invention, the final category is determined for the print type based on the corrected similarity obtained by adding the similarity correction values.
It is possible to reflect the subtle difference in the similarity output from the recognition unit using statistical features in the final category determination, and the reliability of structural feature detection as a similarity correction value. Therefore, the recognition performance can be improved.

【0169】本発明の請求項17に記載の発明によれ
ば、手書き文字に関して、類似度修正値を加算した修正
後類似度に基づいて最終的なカテゴリを決定することに
より、統計的特徴を利用した認識部から出力された類似
度の微妙な差を最終的なカテゴリ決定に反映させること
ができ、また構造的特徴検出の信頼度を類似度修正値と
して反映させることができるため、認識性能の向上が可
能となる。
According to the seventeenth aspect of the present invention, statistical characteristics are utilized for handwritten characters by determining the final category based on the corrected similarity obtained by adding the similarity correction value. The subtle difference in the similarity output from the recognition unit can be reflected in the final category determination, and the reliability of structural feature detection can be reflected as the similarity correction value. It is possible to improve.

【0170】本発明の請求項18に記載の発明によれ
ば、輪郭方向成分の算出、外接矩形の各々の辺から文字
パターンまでの背景距離の算出、背景情報算出のための
共通の前処理として文字パターンの輪郭点を抽出するこ
とにより、基本特徴抽出の効率が向上する。また、基本
特徴として輪郭点、輪郭方向成分、背景距離、背景情報
を抽出する事により統計的特徴だけでなく、文字構造を
反映した構造特徴量にも流用が可能になり特徴抽出処理
の効率化が可能となる。
According to the eighteenth aspect of the present invention, as common preprocessing for calculating the contour direction component, calculating the background distance from each side of the circumscribed rectangle to the character pattern, and calculating the background information. By extracting the contour points of the character pattern, the efficiency of basic feature extraction is improved. In addition, by extracting contour points, contour direction components, background distances, and background information as basic features, it is possible to use not only statistical features but also structural feature quantities that reflect the character structure, improving the efficiency of feature extraction processing. Is possible.

【0171】本発明の請求項19に記載の発明によれ
ば、基本特徴からブロックの統計的特徴を抽出すること
でき、ブロック単位で抽出した統計的特徴をブロックの
大きさで正規化することにより、認識対象の変化に影響
を受けにくい特徴の抽出が可能となる。
According to the nineteenth aspect of the present invention, the statistical characteristics of the block can be extracted from the basic characteristics, and the statistical characteristics extracted in block units are normalized by the size of the block. It is possible to extract features that are not easily affected by changes in the recognition target.

【0172】本発明の請求項20に記載の発明によれ
ば、基本特徴に基づいて、特定のカテゴリ間の識別に有
効である背景部の部分的な凹凸情報、類似カテゴリ間の
ストロークの屈曲方向や直線性の相違、ストロークのル
ープ数、文字背景部の構造、文字背景部の大きさ、外接
矩形との位置関係、端点・交点の情報、直線を抽出する
ことにより、文字の構造的な特徴をより明示的に表す構
造的特徴の効率的な抽出が可能であり、これらの構造的
特徴を用いることにより統計的特徴量のみを利用する識
別方法では識別が困難な類似カテゴリ間の認識性能の向
上が可能となる。
According to the twentieth aspect of the present invention, based on the basic features, the partial unevenness information of the background portion, which is effective for the identification between specific categories, and the bending direction of the stroke between similar categories And linearity difference, number of stroke loops, character background structure, character background size, positional relationship with circumscribed rectangle, end point / intersection information, and straight line extraction to extract structural features of characters It is possible to efficiently extract the structural features that express more explicitly, and by using these structural features, the recognition performance between similar categories that is difficult to identify with the identification method that uses only statistical features It is possible to improve.

【0173】本発明の請求項21に記載の発明によれ
ば、基本特徴に基づいて、特定のカテゴリ間の識別に有
効である背景部の部分的な凹凸情報、類似カテゴリ間の
ストロークの屈曲方向や直線性の相違、ストロークのル
ープ数、文字背景部の構造、文字背景部の大きさ、外接
矩形との位置関係、端点・交点の情報、直線を抽出する
ことにより、文字の構造的な特徴をより明示的に表す構
造的特徴の効率的な抽出が可能であり、これらの構造的
特徴を用いることにより統計的特徴量のみを利用する識
別方法では識別が困難な類似カテゴリ間の認識性能の向
上が可能となる。また、ループ数をラベル情報のみに基
づいて抽出することにより、処理の効率化が可能とな
る。
According to the twenty-first aspect of the present invention, based on the basic feature, the partial unevenness information of the background portion, which is effective for the identification between specific categories, and the bending direction of the stroke between similar categories And linearity difference, number of stroke loops, character background structure, character background size, positional relationship with circumscribed rectangle, end point / intersection information, and straight line extraction to extract structural features of characters It is possible to efficiently extract the structural features that express more explicitly, and by using these structural features, the recognition performance between similar categories that is difficult to identify with the identification method that uses only statistical features It is possible to improve. Further, by extracting the number of loops based only on the label information, it is possible to improve the processing efficiency.

【0174】本発明の請求項22に記載の発明よれば、
基本特徴として予め抽出した背景情報を利用すること
で、隣接するラインの背景情報を比較して相違を調べる
だけの簡単な処理で端点および交点の候補を抽出するこ
とが可能であり、端点と交点候補の位置関係に基づいて
他の端点または交点候補との距離が近すぎる端点または
交点を除去することで、ノイズによる端点や交点の誤抽
出を減少させ、手書きのカテゴリ2とカテゴリ3のよう
な類似カテゴリの分離に効果的な端点や交点の情報をよ
り高精度に抽出することが可能となる。
According to the invention of claim 22 of the present invention,
By using the background information extracted in advance as the basic feature, it is possible to extract the candidates for the end points and intersections by a simple process of comparing the background information of adjacent lines and checking the differences. By removing endpoints or intersections that are too close to other endpoints or intersection candidates based on the positional relationship of the candidates, erroneous extraction of endpoints or intersections due to noise is reduced, and handwritten categories 2 and 3 It becomes possible to extract the information of the end points and the intersections, which are effective in separating similar categories, with higher accuracy.

【0175】本発明の請求項23に記載の発明よれば、
基本特徴として予め抽出した背景情報を利用して、黒画
素の連続度および複数ラインへの連続度を調べるだけの
簡単な処理で直線を抽出することが可能であり、また端
点および交点の位置情報を用いて、線の合流や分岐に伴
って発生する誤った直線候補を除去し、残った直線候補
を近傍の線との接続状態に対応して分類することによ
り、水平方向の短い直線に特徴のある手書きのカテゴリ
¥のようなカテゴリを分離するために有効な直線をより
高精度に抽出することが可能となる。
According to the invention of claim 23 of the present invention,
Using the background information extracted in advance as a basic feature, it is possible to extract straight lines by a simple process of checking the degree of continuity of black pixels and the degree of continuity to multiple lines, and the position information of end points and intersections. Using, to remove erroneous line candidates that occur due to line merging and branching, and classify the remaining line candidates according to the connection state with neighboring lines It becomes possible to extract a straight line effective for separating a category such as a handwritten category \ with higher accuracy.

【0176】本発明の請求項24に記載の発明よれば、
文字パターンの外接矩形の大きさや、類似度に基づい
て、外接矩形が他の文字の外接矩形と大きく相違してい
たり規定の外接矩形から外れている場合や、類似度が他
の文字の類似度に比べて極端に低い場合や、第1位の類
似度と第2位以下の類似度との差が少ない場合などに、
切り出し失敗文字を検出して失敗原因を分析して再切り
出しを実行することにより、切り出し誤りを減らし、切
り出し誤りに起因する誤認識を減少させることが可能と
なる。
According to the invention of claim 24 of the present invention,
Based on the size and the similarity of the circumscribed rectangle of the character pattern, if the circumscribed rectangle is significantly different from the circumscribed rectangle of other characters, or is out of the prescribed circumscribed rectangle, or the similarity is the similarity of other characters. When it is extremely low compared to, or when the difference between the similarity of the first rank and the similarity of the second rank or lower is small,
By detecting the cut-out failure character, analyzing the cause of the failure, and executing the cut-out again, it is possible to reduce the cut-out error and reduce the misrecognition due to the cut-out error.

【0177】本発明の請求項25に記載の発明よれば、
類似度の比、最大類似度の大きさ、背景複雑度に基づい
てリジェクト判定を行うことにより、リジェクト困難な
前処理エラー文字を効率的なリジェクトが可能となる。
According to the twenty-fifth aspect of the present invention,
By performing the rejection determination based on the ratio of the similarities, the magnitude of the maximum similarity, and the background complexity, it is possible to efficiently reject the preprocessing error character that is difficult to reject.

【0178】本発明の請求項26に記載の発明によれ
ば、類似度の比と最大類似度と背景複雑度の少なくとも
1つを軸とした空間上でのリジェクト領域と非リジェク
ト領域の非線形な境界を、予め階層型ニューラルネット
ワークに学習させてあるので、より高精度なリジェクト
判定処理が可能となる。
According to the twenty-sixth aspect of the present invention, the nonlinearity of the reject area and the non-reject area in the space around at least one of the similarity ratio, the maximum similarity and the background complexity is used. Since the boundary is preliminarily learned by the hierarchical neural network, more accurate reject determination processing can be performed.

【0179】[0179]

【0180】[0180]

【0181】[0181]

【0182】[0182]

【0183】[0183]

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の第1の実施の形態における光学的文字
読み取り装置の構成を示すブロック図
FIG. 1 is a block diagram showing a configuration of an optical character reading device according to a first embodiment of the present invention.

【図2】第1の実施の形態における基本特徴抽出部の構
成を示すブロック図
FIG. 2 is a block diagram showing a configuration of a basic feature extraction unit according to the first embodiment.

【図3】第1の実施の形態における統計的特徴抽出部の
構成を示すブロック図
FIG. 3 is a block diagram showing a configuration of a statistical feature extraction unit according to the first embodiment.

【図4】第1の実施の形態における第1の構造的特徴抽
出部の構成を示すブロック図
FIG. 4 is a block diagram showing the configuration of a first structural feature extraction unit in the first embodiment.

【図5】第1の実施の形態における第1の構造識別部の
構成を示すブロック図
FIG. 5 is a block diagram showing a configuration of a first structure identification unit according to the first embodiment.

【図6】第1の実施の形態における第1の活字処理部の
構成を示すブロック図
FIG. 6 is a block diagram showing the configuration of a first type processing unit according to the first embodiment.

【図7】第1の実施の形態における第1の手書き処理部
の構成を示すブロック図
FIG. 7 is a block diagram showing the configuration of a first handwriting processing unit according to the first embodiment.

【図8】第1の実施の形態における端点・交点抽出部の
構成を示すブロック図
FIG. 8 is a block diagram showing a configuration of an end point / intersection point extraction unit according to the first embodiment.

【図9】第1の実施の形態における直線抽出部の構成を
示すブロック図
FIG. 9 is a block diagram showing a configuration of a straight line extraction unit according to the first embodiment.

【図10】第1の実施の形態における文字切り出し方法
を説明するための摸式図
FIG. 10 is a schematic diagram for explaining a character cutting method according to the first embodiment.

【図11】第1の実施の形態における輪郭点抽出方法を
説明するための摸式図
FIG. 11 is a schematic diagram for explaining a contour point extraction method according to the first embodiment.

【図12】第1の実施の形態における輪郭方向と符号化
の対応付けを説明するための摸式図
FIG. 12 is a schematic diagram for explaining correspondence between a contour direction and encoding in the first embodiment.

【図13】第1の実施の形態におけるを輪郭方向符号化
方法を説明するための摸式図
FIG. 13 is a schematic diagram for explaining the contour direction encoding method according to the first embodiment.

【図14】第1の実施の形態におけるを背景距離算出方
法を説明するための摸式図
FIG. 14 is a schematic diagram for explaining a background distance calculation method in the first embodiment.

【図15】第1の実施の形態におけるを背景情報算出方
法を説明するための摸式図
FIG. 15 is a schematic diagram for explaining a background information calculation method according to the first embodiment.

【図16】第1の実施の形態におけるブロック分割方法
を説明するための摸式図
FIG. 16 is a schematic diagram for explaining a block division method according to the first embodiment.

【図17】第1の実施の形態における輪郭方向集計方法
を説明するための摸式図
FIG. 17 is a schematic diagram for explaining the contour direction totaling method in the first embodiment.

【図18】第1の実施の形態における外郭点発見方法を
説明するための摸式図
FIG. 18 is a schematic diagram for explaining a method for finding outer points in the first embodiment.

【図19】第1の実施の形態における認識部の構成の一
例である階層型ニューラルネットワークの摸式図
FIG. 19 is a schematic diagram of a hierarchical neural network that is an example of the configuration of a recognition unit according to the first embodiment.

【図20】第1の実施の形態における局所背景特徴抽出
方法を説明するための摸式図
FIG. 20 is a schematic diagram for explaining a local background feature extraction method according to the first embodiment.

【図21】第1の実施の形態における局所ストローク形
状抽出方法を説明するための摸式図
FIG. 21 is a schematic diagram for explaining a local stroke shape extraction method according to the first embodiment.

【図22】第1の実施の形態におけるループ抽出方法を
説明するための摸式図
FIG. 22 is a schematic diagram for explaining a loop extraction method according to the first embodiment.

【図23】第1の実施の形態における背景ブロック抽出
方法を説明するための摸式図
FIG. 23 is a schematic diagram for explaining a background block extraction method according to the first embodiment.

【図24】第1の実施の形態における個のラインの状態
比較による端点・交点抽出方法を説明するための模式図
FIG. 24 is a schematic diagram for explaining an end point / intersection point extraction method by comparing the states of individual lines according to the first embodiment.

【図25】第1の実施の形態における不適当な端点また
は交点の除去条件を説明するための模式図
FIG. 25 is a schematic diagram for explaining conditions for removing inappropriate endpoints or intersections in the first embodiment.

【図26】第1の実施の形態における水平方向の直線の
抽出基準を説明するための模式図
FIG. 26 is a schematic diagram for explaining a horizontal straight line extraction criterion according to the first embodiment.

【図27】第1の実施の形態における外接矩形の大きさ
によるカテゴリ分離方法を説明するための摸式図
FIG. 27 is a schematic diagram for explaining a category separation method based on the size of a circumscribing rectangle in the first embodiment.

【図28】第1の実施の形態における右上部が閉じる寸
前のカテゴリ6の一例を示す摸式図
FIG. 28 is a schematic diagram showing an example of category 6 on the verge of closing the upper right portion in the first embodiment.

【図29】第1の実施の形態における左側から見た端点
数の違いによるカテゴリ分離方法を説明するための模式
FIG. 29 is a schematic diagram for explaining a category separation method according to the difference in the number of end points viewed from the left side according to the first embodiment.

【図30】第1の実施の形態における直線抽出による類
似カテゴリ分離方法を説明するための模式図
FIG. 30 is a schematic diagram for explaining a similar category separation method by straight line extraction in the first embodiment.

【図31】第1の実施の形態における背景ブロック情報
による認識結果修正方法を説明するための模式図
FIG. 31 is a schematic diagram for explaining a recognition result correction method based on background block information according to the first embodiment.

【図32】第1の実施の形態における背景ラベル抽出方
法を説明するための摸式図
FIG. 32 is a schematic diagram for explaining the background label extraction method in the first embodiment.

【図33】本発明の第2の実施の形態における光学的文
字読み取り装置の構成を示すブロック図
FIG. 33 is a block diagram showing a configuration of an optical character reading device according to a second embodiment of the present invention.

【図34】第2の実施の形態における第2の構造的特徴
抽出部の構成を示すブロック図
FIG. 34 is a block diagram showing the configuration of a second structural feature extraction unit according to the second embodiment.

【図35】第2の実施の形態におけるループ抽出方法を
説明するための摸式図
FIG. 35 is a schematic diagram for explaining a loop extraction method according to the second embodiment.

【図36】本発明の第3の実施の形態における光学的文
字読み取り装置の構成を示すブロック図
FIG. 36 is a block diagram showing a configuration of an optical character reading device according to a third embodiment of the present invention.

【図37】第3の実施の形態における第2 の構造識別
部の構成を示すブロック図
FIG. 37 is a block diagram showing the configuration of a second structure identification unit according to the third embodiment.

【図38】本発明の第4の実施の形態における光学的文
字読み取り装置の構成を示すブロック図
FIG. 38 is a block diagram showing a configuration of an optical character reading device according to a fourth embodiment of the present invention.

【図39】第4の実施の形態における文字切り出し失敗
による外接矩形の大きさの変化を示す模式図
FIG. 39 is a schematic diagram showing a change in the size of a circumscribed rectangle due to a character cutout failure in the fourth embodiment.

【図40】第4の実施の形態におけるヒストグラムによ
る文字切り出し修正手法を説明するための模式図
FIG. 40 is a schematic diagram for explaining a character cutout correction method using a histogram according to the fourth embodiment.

【図41】本発明の第5の実施の形態における光学的文
字読み取り装置の構成を示すブロック図
FIG. 41 is a block diagram showing a configuration of an optical character reading device according to a fifth embodiment of the present invention.

【図42】本発明の第6の実施の形態における光学的文
字読み取り装置の構成を示すブロック図
FIG. 42 is a block diagram showing a configuration of an optical character reading device according to a sixth embodiment of the present invention.

【図43】類似度比と最大類似度の空間上における正解
文字と不正解文字の分布例を示す特性図
FIG. 43 is a characteristic diagram showing an example of distribution of correct and incorrect characters in a space of similarity ratio and maximum similarity.

【図44】最大類似度が小さい(<500)文字パター
ンの文字イメージ例を示す模式図
FIG. 44 is a schematic diagram showing a character image example of a character pattern having a small maximum similarity (<500).

【図45】本発明の第7の実施の形態におけるリ光学的
文字読み取り装置の構成を示すブロック図
FIG. 45 is a block diagram showing the configuration of a re-optical character reading device according to a seventh embodiment of the present invention.

【図46】第7の実施の形態における第2の認識結果算
出部の構成を示すブロック図
FIG. 46 is a block diagram showing the configuration of a second recognition result calculation unit in the seventh embodiment.

【図47】第8の実施の形態における帳票文書認識装置
の構成を示すブロック図
FIG. 47 is a block diagram showing the configuration of the form document recognition device in the eighth embodiment.

【図48】第8の実施の形態における入力帳票の一例を
示す模式図
FIG. 48 is a schematic diagram showing an example of an input form according to the eighth embodiment.

【図49】第8の実施の形態における枠構造参照テーブ
ルの一例を示す模式図
FIG. 49 is a schematic diagram showing an example of a frame structure reference table according to the eighth embodiment.

【図50】第8の実施実施の形態における帳票自動処理
システムの構成を示すブロック図
FIG. 50 is a block diagram showing the configuration of a form automatic processing system according to an eighth embodiment.

【図51】従来の帳票文書認識装置の構成を示すブロッ
ク図
FIG. 51 is a block diagram showing the configuration of a conventional form document recognition device.

【符号の説明】[Explanation of symbols]

1 文字切り出し部 2 基本特徴抽出部 3 統計的特徴抽出部 4 認識部 5 第1の構造的特徴抽出部 6 字種判定部 7 第1の構造識別部 8 第2の構造的特徴抽出部 9 第2の構造識別部 11 (外接矩形の大きさを出力する)経路 12 (切り出し画像を出力する)経路 13 (輪郭方向成分を出力する)経路 14 (背景距離を出力する)経路 15 (背景情報を出力する)経路 21 輪郭点抽出部 22 輪郭方向算出部 23 背景距離算出部 24 背景情報算出部 31 両方向ブロック分割部 32 水平方向ブロック分割部 33 垂直方向ブロック分割部 34 輪郭方向集計部 35 輪郭方向正規化部 36 外郭方向集計部 37 外郭方向正規化部 38 背景距離集計部 39 背景距離正規化部 41 局所背景特徴抽出部 42 局所ストローク形状抽出部 43 第1のループ抽出部 44 端点・交点抽出部 45 直線抽出部 46 背景ブロック抽出部 47 背景ラベル抽出部 48 第2のループ抽出部 51 第1の活字処理部 52 第1の手書き処理部 61 第1の外接矩形カテゴリ判定部 62 第1の認識依存特徴選択部 63 第1の選択構造的特徴識別部 71 第2の外接矩形カテゴリ判定部 72 第2の認識依存特徴選択部 73 第2の選択構造的特徴識別部 81 端点・交点候補抽出部 82 端点・交点判定部 91 黒画素連続領域抽出部 92 直線候補抽出部 93 直線判定部 101 画像入力手段 102 画像メモリ 103 枠罫線抽出手段 104 枠構造抽出手段 105 枠構造参照テーブル 106 枠構造照合手段 107 文字切り出し手段 108 文字認識手段 109 後処理手段 371 第2の活字処理部 372 第2の手書き処理部 373 加算器 374 修正カテゴリ決定部 381 第2の文字切り出し部 382 第1の切り出しエラー判定部 411 第2の切り出しエラー判定部 421 第1の認識結果算出部 451 第2の認識結果算出部 461 類似度比算出部 462 リジェクト判定部 463 正解カテゴリテーブル 464 出力判定部 465 結合荷重更新部 466 背景複雑度算出部 1 character cutout part 2 Basic feature extraction unit 3 Statistical feature extraction unit 4 recognition section 5 First structural feature extraction unit 6 character type determination unit 7 First structure identification part 8 Second structural feature extraction unit 9 Second structure identification part 11 Path (which outputs the size of the circumscribed rectangle) 12 Path (output clipped image) 13 Path (which outputs the contour direction component) 14 (output background distance) route 15 (output background information) route 21 contour point extraction unit 22 Contour direction calculation unit 23 Background distance calculator 24 Background information calculator 31 Bi-directional block division 32 Horizontal block division 33 Vertical block division 34 Contour direction counting section 35 Contour direction normalization unit 36 Outward direction totaling section 37 Outer direction normalization unit 38 Background distance counting section 39 Background distance normalization unit 41 Local Background Feature Extraction Unit 42 Local stroke shape extraction unit 43 First Loop Extraction Unit 44 End point / intersection point extraction section 45 Straight line extraction unit 46 background block extractor 47 background label extraction unit 48 Second loop extractor 51 First type processing unit 52 First Handwriting Processing Unit 61 First circumscribing rectangle category determination unit 62 First recognition-dependent feature selection unit 63 First Selection Structural Feature Identification Unit 71 Second circumscribed rectangle category determination unit 72 Second recognition-dependent feature selection unit 73 Second selection structural feature identification unit 81 End point / intersection candidate extraction unit 82 End point / intersection point determination part 91 Black Pixel Continuous Area Extraction Unit 92 Straight line candidate extraction unit 93 Straight line determination unit 101 image input means 102 image memory 103 frame ruled line extraction means 104 frame structure extraction means 105 Frame structure reference table 106 frame structure matching means 107 character cutting means 108 character recognition means 109 post-processing means 371 Second type processing unit 372 Second handwriting processor 373 adder 374 Corrected category determination unit 381 Second character cutout part 382 First clipping error determination unit 411 Second cut-out error determination unit 421 First recognition result calculation unit 451 Second recognition result calculation unit 461 similarity ratio calculation unit 462 Rejection judgment unit 463 Correct answer category table 464 Output determination unit 465 Coupling load update unit 466 Background Complexity Calculation Unit

フロントページの続き (31)優先権主張番号 特願平10−62991 (32)優先日 平成10年3月13日(1998.3.13) (33)優先権主張国 日本(JP) (56)参考文献 特開 平6−60222(JP,A) 特開 平2−217977(JP,A) 特開 平1−199285(JP,A) 特開 平7−152856(JP,A) 特開 平6−114337(JP,A) 特開 平7−306913(JP,A) 特開 平7−129720(JP,A) 特開 昭62−257582(JP,A) 構造化ニューラルネットワーク(NA RA)によるマルチフォント漢字認識, 電子情報通信学会技術研究報告,日本, 1991年9月20日,Vol.91 No. 231,pp.9−16 (58)調査した分野(Int.Cl.7,DB名) G06K 9/00 - 9/82 Front page continuation (31) Priority claim number Japanese Patent Application No. 10-62991 (32) Priority date March 13, 1998 (Mar. 13, 1998) (33) Priority claim country Japan (JP) (56) References JP-A-6-602222 (JP, A) JP-A-2-217977 (JP, A) JP-A-1-199285 (JP, A) JP-A-7-152856 (JP, A) JP-A-6- -114337 (JP, A) JP-A-7-306913 (JP, A) JP-A-7-129720 (JP, A) JP-A-62-257582 (JP, A) Multiple by structured neural network (NARA) Font Kanji recognition, IEICE Technical Report, Japan, September 20, 1991, Vol. 91 No. 231, pp. 9-16 (58) Fields investigated (Int.Cl. 7 , DB name) G06K 9/00-9/82

Claims (26)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 光電変換された文字枠線を含む文字列デ
ータに対して、文字枠線と文字列パターンを分離し、分
離された文字列パターンから個々の文字パターンを切り
出し、個々の文字パターンに対する外接矩形の大きさと
外接矩形に囲まれた切り出し文字画像を求め、前記切り
出された個々の切り出し文字画像に対する輪郭情報と背
景構造情報とを基本特徴として抽出し、前記抽出された
基本特徴に基づいて少なくとも一種類の統計的特徴を抽
出し、前記切り出された個々の切り出し文字画像と前記
抽出された基本特徴に基づいて少なくとも一種類の構造
的特徴を抽出し、前記抽出された統計的特徴から前記切
り出し文字画像の各カテゴリに対する類似度を求め、前
記類似度が最大のカテゴリを個々の文字パターンの属す
るカテゴリと判定し、前記判定された文字パターンの属
するカテゴリと前記カテゴリに対する類似度と前記抽出
されたた構造的特徴とに基づいて最終的な文字パターン
の属するカテゴリを判定する各ステップを備えたことを
特徴とする光学的文字読み取り方法。
1. For character string data including a photoelectrically converted character frame line, the character frame line and the character string pattern are separated, and individual character patterns are cut out from the separated character string pattern to obtain individual character patterns. For the size of the circumscribed rectangle and the clipped character image surrounded by the circumscribed rectangle, and the contour information and the background structure information for each clipped individual clipped character image are extracted as basic features, and based on the extracted basic features. And extract at least one type of statistical feature, extract at least one type of structural feature based on the extracted individual cut-out character image and the extracted basic feature, and extract from the extracted statistical feature. The degree of similarity to each category of the cut-out character image is obtained, and the category with the highest degree of similarity is determined as the category to which each character pattern belongs. And a step of determining a category to which the final character pattern belongs based on the category to which the determined character pattern belongs, the degree of similarity to the category, and the extracted structural feature. Optical character reading method.
【請求項2】 光電変換された文字枠線を含む文字列デ
ータに対して、文字枠線と文字列パターンを分離し、分
離された文字列パターンから個々の文字パターンを切り
出し、個々の文字パターンに対する外接矩形の大きさと
外接矩形に囲まれた切り出し文字画像を求め、前記切り
出された個々の切り出し文字画像に対する輪郭情報と背
景構造情報とを基本特徴として抽出し、前記抽出された
基本特徴に基づいて少なくとも一種類の統計的特徴を抽
出し、前記切り出された個々の切り出し文字画像と前記
抽出された基本特徴に基づいて少なくとも一種類の構造
的特徴を抽出し、前記抽出された統計的特徴から前記切
り出し文字画像の各カテゴリに対する類似度を求め、前
記類似度が最大のカテゴリを個々の文字パターンの属す
るカテゴリと判定し、前記切り出された個々の文字パタ
ーンに対する外接矩形の大きさと前記判定された文字パ
ターンの属するカテゴリと前記抽出された構造的特徴と
の少なくとも一つに基づいて前記類似度を修正し、修正
後の類似度に基づいて最終的な文字パターンの属するカ
テゴリを判定する各ステップを備えたことを特徴とする
光学的文字読み取り方法。
2. For character string data including photoelectrically converted character frame lines, a character frame line and a character string pattern are separated, and individual character patterns are cut out from the separated character string pattern, and individual character patterns are extracted. For the size of the circumscribed rectangle and the clipped character image surrounded by the circumscribed rectangle, and the contour information and the background structure information for each clipped individual clipped character image are extracted as basic features, and based on the extracted basic features. And extract at least one type of statistical feature, extract at least one type of structural feature based on the extracted individual cut-out character image and the extracted basic feature, and extract from the extracted statistical feature. The degree of similarity to each category of the cut-out character image is obtained, and the category with the highest degree of similarity is determined as the category to which each character pattern belongs. , The similarity is corrected based on at least one of the size of the circumscribed rectangle for each of the clipped individual character patterns, the category to which the determined character pattern belongs, and the extracted structural feature. An optical character reading method, comprising: each step of determining a category to which a final character pattern belongs based on the degree of similarity.
【請求項3】 前記切り出された文字パターンに対する
外接矩形の大きさに基づいて活字または手書きの字種判
定を行い、前記字種判定の結果と前記切り出された文字
パターンに対する外接矩形の大きさと前記判定された文
字パターンの属するカテゴリと前記カテゴリに対する類
似度と前記抽出された構造的特徴の少なくとも一つに基
づいて最終的な文字パターンの属するカテゴリを判定す
る各ステップを備えたことを特徴とする請求項1または
2記載の光学的文字読み取り方法。
3. A character type determination of printed characters or handwriting is performed based on the size of a circumscribed rectangle with respect to the cut out character pattern, and the result of the character type determination and the size of the circumscribed rectangle with respect to the cut out character pattern and the And a step of determining a final category of the character pattern based on at least one of the category to which the determined character pattern belongs, the similarity to the category, and the extracted structural feature. The optical character reading method according to claim 1 or 2.
【請求項4】 前記切り出された文字パターンに対する
外接矩形の大きさと前記判定されたカテゴリに対する類
似度と前記抽出された構造的特徴との少なくとも一つに
基づいて切り出しエラーを判定し、切り出しエラーと判
定された場合に文字パターンの再切り出しを行う各ステ
ップを備えたことを特徴とする請求項1または2または
3記載の光学的文字読み取り方法。
4. A clipping error is determined based on at least one of the size of a circumscribing rectangle for the clipped character pattern, the similarity to the determined category, and the extracted structural feature. The optical character reading method according to claim 1, further comprising steps for re-cutting out a character pattern when the judgment is made.
【請求項5】 前記切り出された文字パターンの最大類
似度、2番目の類似度と最大類似度の比の値、前記切り
出された文字パターンの背景の複雑度に基づいて、前記
判定された文字パターンの属するカテゴリの信頼度が低
い場合にはリジェクト処理を行い、それ以外の場合は前
記判定された文字パターンの属するカテゴリを最終的な
認識結果とする各ステップを備えたことを特徴とする請
求項1から4のいずれかに記載の光学的文字読み取り方
法。
5. The determined character based on the maximum similarity of the cut-out character pattern, the value of the ratio between the second similarity and the maximum similarity, and the complexity of the background of the cut-out character pattern. Rejection processing is performed when the reliability of the category to which the pattern belongs is low, and in other cases, each step is provided that sets the category to which the determined character pattern belongs as a final recognition result. Item 5. The optical character reading method according to any one of Items 1 to 4.
【請求項6】 光電変換された文字枠線を含む文字列デ
ータに対して、文字枠線と文字列パターンを分離し、分
離された文字列パターンから個々の文字パターンを切り
出し、個々の文字パターンに対する外接矩形の大きさと
外接矩形に囲まれた切り出し文字画像を出力する文字切
り出し手段と、前記文字切り出し手段で切り出された個
々の切り出し文字画像に対する基本特徴として輪郭情報
と背景構造情報を求める基本特徴抽出手段と、前記基本
特徴抽出手段から出力された基本特徴に基づいて少なく
とも一種類の統計的特徴を求める統計的特徴抽出手段
と、前記文字切り出し手段で切出された個々の切り出し
文字画像と前記基本特徴抽出手段から出力された基本特
徴に基づいて少なくとも一種類の構造的特徴を求める構
造的特徴抽出手段と、前記統計的特徴抽出手段から出力
された統計的特徴から切り出し文字画像の各カテゴリに
対する類似度を求め、類似度の大きい順に選んだ少なく
とも1つのカテゴリの類似度と、同じ順に選んだ少なく
とも一つのカテゴリとを出力する認識手段と、前記認識
手段から出力されたカテゴリと前記カテゴリに対する類
似度と前記構造的特徴抽出手段から出力された構造的特
徴とに基づいて最終的な文字パターンの属するカテゴリ
を判定する第1の構造識別手段とを備えたことを特徴と
する光学的文字読み取り装置。
6. For character string data including a photoelectrically converted character frame line, a character frame line and a character string pattern are separated, and individual character patterns are cut out from the separated character string pattern to obtain individual character patterns. A character slicing means for outputting a size of a circumscribing rectangle and a slicing character image surrounded by the circumscribing rectangle, and a basic feature for obtaining contour information and background structure information as a basic feature for each clipped character image clipped by the character slicing device. Extraction means, statistical feature extraction means for obtaining at least one type of statistical features based on the basic features output from the basic feature extraction means, individual cut-out character images cut out by the character cut-out means, and A structural feature extraction means for obtaining at least one type of structural feature based on the basic feature output from the basic feature extraction means; From the statistical features output from the statistical feature extraction means, the degree of similarity of the extracted character image to each category is obtained, and the degree of similarity of at least one category selected in descending order of similarity and at least one category selected in the same order And a category to which the final character pattern belongs based on the category output from the recognizer, the degree of similarity to the category, and the structural feature output from the structural feature extractor. An optical character reading device, comprising:
【請求項7】 前記第1の構造識別手段が、前記認識手
段から出力されたカテゴリに基づいて、前記構造特徴抽
出手段から出力された少なくとも一つの構造的特徴の中
から有効な構造的特徴を選択する認識依存特徴選択手段
と、選択された構造的特徴に基づいてカテゴリを判定す
る選択構造的特徴識別手段とを備えたことを特徴とする
請求項6記載の光学的文字読み取り装置。
7. The first structural identification means selects an effective structural feature from at least one structural feature output from the structural feature extraction means based on the category output from the recognition means. 7. The optical character reader according to claim 6, further comprising recognition-dependent feature selection means for selecting and selected structural feature identifying means for determining a category based on the selected structural feature.
【請求項8】 前記文字切り出し手段から出力された外
接矩形の大きさに基づき活字または手書きの判定を行う
字種判定手段を備え、前記第1の構造識別手段が、前記
字種判定手段で活字と判定された文字に対して、個々の
文字パターンが属するカテゴリを判定する第1の活字処
理手段と、前記字種判定手段で手書きと判定された文字
に対して、個々の文字パターンが属するカテゴリを判定
する第1の手書き処理手段とを備えたことを特徴とする
請求項6または7記載の光学的文字読み取り装置。
8. A character type determination means for determining a type or a handwritten character based on the size of a circumscribed rectangle output from the character cutout means, wherein the first structure identification means is a character type determined by the character type determination means. First character processing means for determining the category to which each character pattern belongs to the character determined to be, and category to which each character pattern belongs to the character determined to be handwritten by the character type determination means. The optical character reading device according to claim 6 or 7, further comprising: first handwriting processing means for determining.
【請求項9】 前記第1の活字処理手段が、前記文字切
り出し手段から出力された外接矩形の大きさと認識手段
から出力されたカテゴリに基づいて構造的特徴抽出手段
から出力された少なくとも一つの構造的特徴の中から有
効な構造的特徴を選択する認識依存特徴選択手段と、認
識依存特徴選択手段で選択された構造的特徴に基づいて
カテゴリ判定を行う選択構造的特徴識別手段とを備えた
ことを特徴とする請求項8記載の光学的文字読み取り装
置。
9. The at least one structure output from the structural feature extraction means based on the size of the circumscribing rectangle output from the character clipping means and the category output from the recognition means, by the first type processing means. Dependent feature selecting means for selecting an effective structural feature from the physical features, and selected structural feature identifying means for performing category determination based on the structural feature selected by the recognition dependent feature selecting means. 9. The optical character reading device according to claim 8, wherein:
【請求項10】 前記第1の活字処理手段が、前記文字
切り出し手段から出力された外接矩形の大きさと認識手
段から出力されたカテゴリに基づいて一部のカテゴリに
対する最終的なカテゴリ判定を行う外接矩形カテゴリ判
定手段と、外接矩形カテゴリ判定手段で判定できない文
字に対して認識手段から出力されたカテゴリに基づいて
構造的特徴抽出手段から出力された少なくとも一つの構
造的特徴の中から有効な構造的特徴を選択する認識依存
特徴選択手段と、前記認識依存特徴選択手段で選択され
た構造的特徴に基づいてカテゴリ判定を行う選択構造的
特徴識別手段とを備えたことを特徴とする請求項8記載
の光学的文字読み取り装置。
10. The circumscribing method in which the first type processing means makes a final category judgment for some categories based on the size of the circumscribing rectangle output from the character cutting means and the category output from the recognizing means. A structural category effective from at least one structural feature output from the structural feature extraction section based on the category output from the recognition section for the character that cannot be determined by the rectangular category determination section and the circumscribing rectangular category determination section. 9. The recognition-dependent feature selecting means for selecting a feature, and the selected structural feature identifying means for performing a category determination based on the structural feature selected by the recognition-dependent feature selecting means. Optical character reader.
【請求項11】 前記第1の手書き処理手段が、前記文
字切り出し手段から出力された外接矩形の大きさと認識
手段から出力されたカテゴリに基づいて構造的特徴抽出
手段から出力された少なくとも一つの構造的特徴の中か
ら有効な構造的特徴を選択する認識依存特徴選択手段
と、前記認識依存特徴選択手段で選択された構造的特徴
に基づいてカテゴリ判定を行う選択構造的特徴識別手段
とを備えたことを特徴とする請求項8記載の光学的文字
読み取り装置。
11. The at least one structure output from the structural feature extraction means based on the size of the circumscribing rectangle output from the character clipping means and the category output from the recognition means, by the first handwriting processing means. Dependent feature selecting means for selecting an effective structural feature from the physical features, and selected structural feature identifying means for performing category determination based on the structural feature selected by the recognition dependent feature selecting means. 9. The optical character reading device according to claim 8, wherein
【請求項12】 前記第1の手書き処理手段が、前記文
字切り出し手段から出力された外接矩形の大きさと認識
手段から出力されたカテゴリに基づいて一部のカテゴリ
に対する最終的なカテゴリ判定を行う外接矩形カテゴリ
判定手段と、外接矩形カテゴリ判定手段で判定できない
文字に対して認識手段から出力されたカテゴリに基づい
て構造的特徴抽出手段から出力された少なくとも一つの
構造的特徴の中から有効な構造的特徴を選択する認識依
存特徴選択手段と、前記認識依存特徴選択手段で選択さ
れた構造的特徴に基づいてカテゴリ判定を行う選択構造
的特徴識別手段とを備えたことを特徴とする請求項8記
載の光学的文字読み取り装置。
12. The circumscribing wherein the first handwriting processing means makes a final category judgment for some categories based on the size of the circumscribing rectangle output from the character clipping means and the category output from the recognizing means. A structural category effective from at least one structural feature output from the structural feature extraction section based on the category output from the recognition section for the character that cannot be determined by the rectangular category determination section and the circumscribing rectangular category determination section. 9. The recognition-dependent feature selecting means for selecting a feature, and the selected structural feature identifying means for performing a category determination based on the structural feature selected by the recognition-dependent feature selecting means. Optical character reader.
【請求項13】 光電変換された文字枠線を含む文字列
データに対して、文字枠線と文字列パターンを分離し、
分離された文字列パターンから個々の文字パターンを切
り出し、個々の文字パターンに対する外接矩形の大きさ
と外接矩形に囲まれた切り出し文字画像を出力する文字
切り出し手段と、前記文字切り出し手段で切り出された
個々の切り出し文字画像に対する基本特徴として輪郭情
報と背景構造情報を求める基本特徴抽出手段と、前記基
本特徴抽出手段から出力された基本特徴に基づいて少な
くとも一種類の統計的特徴を求める統計的特徴抽出手段
と、前記文字切り出し手段で切出された個々の切り出し
文字画像と前記基本特徴抽出手段から出力された基本特
徴に基づいて少なくとも一種類の構造的特徴を求める構
造的特徴抽出手段と、前記統計的特徴抽出手段から出力
された統計的特徴から切り出し文字画像の各カテゴリに
対する類似度を求め、類似度の大きい順に選んだ少なく
とも1つのカテゴリの類似度と、同じ順に選んだ少なく
とも一つのカテゴリとを出力する認識手段と、前記文字
切り出し手段から出力された文字パターンの外接矩形の
大きさと前記認識手段から出力されたカテゴリと前記構
造的特徴抽出手段から出力された構造的特徴との少なく
とも一つに基づいて前記認識手段から出力された類似度
を修正し、修正後の類似度に基づいて文字パターンが属
するカテゴリを最終的に判定する第2の構造識別手段と
を備えたことを特徴とする光学的文字読み取り装置。
13. A character frame line and a character string pattern are separated from character string data including a photoelectrically converted character frame line,
Individual character patterns are cut out from the separated character string patterns, and the size of the circumscribing rectangle for each character pattern and the character cutting means that outputs the cut out character image surrounded by the circumscribing rectangle, and the individual character cutting means Basic feature extraction means for obtaining contour information and background structure information as basic features for the cut-out character image, and statistical feature extraction means for obtaining at least one type of statistical feature based on the basic features output from the basic feature extraction means. A structural feature extracting means for obtaining at least one type of structural feature based on each of the cut-out character images cut out by the character cutting means and the basic feature output from the basic feature extracting means; From the statistical features output from the feature extraction means, the similarity for each category of the extracted character image is obtained. , A recognition means for outputting the similarity of at least one category selected in descending order of similarity and at least one category selected in the same order, the size of the circumscribed rectangle of the character pattern output from the character cutting means, and The similarity output from the recognition unit is corrected based on at least one of the category output from the recognition unit and the structural feature output from the structural feature extraction unit, and based on the corrected similarity. An optical character reading device comprising: a second structure identifying means for finally determining a category to which a character pattern belongs.
【請求項14】 前記第2の構造識別手段が、前記文字
切り出し手段から出力された文字パターンの外接矩形の
大きさと前記認識手段から出力された少なくとも一つの
カテゴリと前記構造的特徴抽出手段から出力された構造
的特徴に基づいて、前記認識手段から出力された類似度
を修正する類似度修正手段と、前記認識手段から出力さ
れた少なくとも一つのカテゴリの類似度と前記類似度修
正手段により修正された類似度と加算して修正類似度を
算出する加算器と、前記加算器から出力された修正類似
度から個々の文字パターンが属するカテゴリを決定する
修正カテゴリ判定手段とを備えたことを特徴とする請求
項13記載の光学的文字読み取り装置。
14. The second structure identifying means outputs from the structural feature extracting means and at least one category output from the recognizing means, the size of the circumscribed rectangle of the character pattern output from the character cutting means, and the output from the structural feature extracting means. Based on the structural characteristics thus obtained, the similarity correction means for correcting the similarity output from the recognition means, the similarity of at least one category output from the recognition means, and the similarity correction means for correction. And a modified category determination means for determining a category to which each character pattern belongs from the modified similarity output from the adder. The optical character reading device according to claim 13.
【請求項15】 前記文字切り出し手段から出力された
外接矩形の大きさに基づき活字または手書きの判定を行
う字種判定手段を備え、前記第2の構造識別手段が、前
記字種判定手段で活字と判定された文字に対して、個々
の文字パターンが属するカテゴリを判定する第2の活字
処理手段と、前記字種判定手段で手書きと判定された文
字に対して、個々の文字パターンが属するカテゴリを判
定する第2の手書き処理手段とを備えたことを特徴とす
る請求項13または14記載の光学的文字読み取り装
置。
15. A character type determination means for determining a print type or handwriting based on the size of a circumscribing rectangle output from the character cutout means, wherein the second structure identification means is a character type determined by the character type determination means. Second type processing means for determining a category to which each character pattern belongs to the character determined to be, and a category to which each character pattern belongs to the character determined to be handwritten by the character type determination means. 15. The optical character reading device according to claim 13 or 14, further comprising a second handwriting processing unit for determining.
【請求項16】 前記第2の活字処理手段が、前記文字
切り出し手段から出力された文字パターンの外接矩形の
大きさと前記認識手段から出力された少なくとも一つの
カテゴリと前記構造的特徴抽出手段から出力された構造
的特徴に基づいて、前記認識手段から出力された類似度
を修正する類似度修正手段と、前記認識手段から出力さ
れた少なくとも一つのカテゴリの類似度と前記類似度修
正手段により修正された類似度と加算して修正類似度を
算出する加算器と、前記加算器から出力された修正類似
度から個々の文字パターンが属するカテゴリを決定する
修正カテゴリ判定手段とを備えたことを特徴とする請求
項15記載の光学的文字読み取り装置。
16. The second type processing means outputs from the structural feature extraction means and at least one category output from the recognition means, the size of the circumscribed rectangle of the character pattern output from the character cutout means, and the output from the structural feature extraction means. Based on the structural characteristics thus obtained, the similarity correction means for correcting the similarity output from the recognition means, the similarity of at least one category output from the recognition means, and the similarity correction means for correction. And a modified category determination means for determining a category to which each character pattern belongs from the modified similarity output from the adder. 16. The optical character reading device according to claim 15.
【請求項17】 前記第2の手書き処理手段が、前記文
字切り出し手段から出力された文字パターンの外接矩形
の大きさと前記認識手段から出力された少なくとも一つ
のカテゴリと前記構造的特徴抽出手段から出力された構
造的特徴に基づいて、前記認識手段から出力された類似
度を修正する類似度修正手段と、前記認識手段から出力
された少なくとも一つのカテゴリの類似度と前記類似度
修正手段により修正された類似度と加算して修正類似度
を算出する加算器と、前記加算器から出力された修正類
似度から個々の文字パターンが属するカテゴリを決定す
る修正カテゴリ判定手段とを備えたことを特徴とする請
求項15記載の光学的文字読み取り装置。
17. The second handwriting processing means outputs the size of the circumscribed rectangle of the character pattern output from the character cutting means, at least one category output from the recognition means, and the structural feature extraction means. Based on the structural characteristics thus obtained, the similarity correction means for correcting the similarity output from the recognition means, the similarity of at least one category output from the recognition means, and the similarity correction means for correction. And a modified category determination means for determining a category to which each character pattern belongs from the modified similarity output from the adder. 16. The optical character reading device according to claim 15.
【請求項18】 前記基本特徴抽出手段が、 前記文字
切り出し手段から出力される切り出し画像中の文字パタ
ーンの輪郭点を抽出する輪郭点抽出手段と、前記輪郭点
抽出手段から出力された個々の輪郭点の隣接関係から画
素単位の輪郭方向成分を算出する輪郭方向算出手段と、
前記輪郭点抽出手段から出力された輪郭点の位置に基づ
いて文字パターンの外接矩形の各々の辺から文字パター
ンまでの背景距離を求める背景距離算出手段と前記文字
切り出し手段から出力された切り出し画像を水平及び垂
直方向のライン毎に走査し、一定画素以上連続する白画
素(背景)の連続する長さ・位置情報とその背景の走査
方向に沿った発生順番である背景次数を算出する背景情
報算出手段とを備えたことを特徴とする請求項6、8、
13、15のいずれかに記載の光学的文字読み取り装
置。
18. The contour point extracting means for extracting the contour points of the character pattern in the clipped image output from the character clipping means by the basic feature extracting means, and the individual contours output from the contour point extracting means. Contour direction calculation means for calculating a contour direction component in pixel units from the adjacency relationship of points;
Based on the position of the contour point output from the contour point extraction means, the background distance calculation means for obtaining the background distance from each side of the circumscribing rectangle of the character pattern to the character pattern, and the cutout image output from the character cutout means. Background information is calculated by scanning each line in the horizontal and vertical directions, and calculating the background length, which is the order in which the length and position of white pixels (background) that are consecutive over a certain number of pixels and the background in the scanning direction Means, and
16. The optical character reader according to any one of 13 and 15.
【請求項19】 前記統計的特徴抽出手段が、前記文字
切り出し手段から出力された切り出し画像を水平・垂直
両方向で複数のブロックに分割する両方向ブロック分割
手段と、前記両方向ブロック分割手段で分割したブロッ
ク単位で、前記基本特徴抽出手段の輪郭方向算出手段か
ら出力された輪郭方向成分について輪郭方向毎の個数を
集計する輪郭方向集計手段と、輪郭方向集計手段から出
力されたブロック単位の輪郭方向毎の輪郭方向成分の個
数をブロックの大きさで割ることで得られる輪郭方向毎
の輪郭統計特徴量を求める輪郭方向正規化手段と、前記
文字切り出し手段から出力された切り出し画像を水平方
向で複数のブロックに分割する水平方向ブロック分割手
段と、前記文字切り出し手段から出力された切り出し画
像を垂直方向で複数のブロックに分割する垂直方向ブロ
ック分割手段と、前記基本特徴抽出手段から出力された
輪郭方向成分に基づいて、前記水平方向ブロック分割部
及び垂直方向ブロック分割手段で分割したブロック単位
で、ブロック分割境界線に垂直な外接矩形の辺からブロ
ック分割境界線に平行方向に走査して最初に存在する文
字パターンを構成する画素の輪郭方向毎の輪郭方向成分
の個数である外郭方向成分の個数を集計する外郭方向集
計手段と、外郭方向集計手段から出力されたブロック単
位の輪郭方向毎の外郭方向成分の個数をブロックの大き
さで割ることで得られる輪郭方向毎の外郭統計特徴量を
求める外郭方向正規化手段と、前記基本特徴抽出手段の
背景距離算出手段から出力された背景距離に基づいて、
前記水平方向ブロック分割部及び垂直方向ブロック分割
部で分割したブロック単位でブロック分割方向の背景距
離を合計する背景距離合計手段と、背景距離集計手段か
ら出力されたブロック単位の集計背景距離をブロックの
大きさで割ることで得られる背景距離特徴量を求める背
景距離正規化手段とを備えたことを特徴とする請求項
6、8、13、15のいずれかに記載の光学的文字読み
取り装置。
19. The bidirectional block dividing means for dividing the clipped image output from the character clipping means into a plurality of blocks in both the horizontal and vertical directions, and the block divided by the bidirectional block dividing means. For each unit, a contour direction totaling unit that totals the number of contour direction components output from the contour direction calculating unit of the basic feature extraction unit, and a block unit for each contour direction output from the contour direction totaling unit. Contour direction normalization means for obtaining the contour statistical feature value for each contour direction obtained by dividing the number of contour direction components by the size of the block, and the cutout image output from the character cutout means is divided into a plurality of blocks in the horizontal direction. Horizontal block dividing means for dividing into a plurality of pieces and a plurality of cut-out images output from the character cutting means in the vertical direction. Vertical block dividing means for dividing into horizontal blocks, and a block division boundary for each block divided by the horizontal block dividing portion and the vertical block dividing means based on the contour direction component output from the basic feature extracting means. The number of outline direction components, which is the number of outline direction components for each outline direction of the pixels that form the first character pattern, is scanned by scanning from the side of the circumscribed rectangle perpendicular to the line in the direction parallel to the block division boundary line. A contour direction normalization unit and a contour direction normal for obtaining a contour statistical feature amount for each contour direction obtained by dividing the number of contour direction components for each contour direction in block units output from the contour direction counting unit Based on the background distance output from the background distance calculation means of the basic feature extraction means,
The background distance summing means for summing the background distances in the block division direction in block units divided by the horizontal block dividing portion and the vertical block dividing portion, and the aggregate background distance in block units output from the background distance summing means 16. The optical character reading device according to claim 6, further comprising: a background distance normalizing unit that obtains a background distance feature amount obtained by dividing by a size.
【請求項20】 前記構造的特徴抽出手段が、前記基本
特徴抽出手段の背景距離算出手段から出力された背景距
離に基づいて局所的な背景距離特徴を抽出する局所背景
特徴抽出手段と、前記基本特徴抽出手段の輪郭方向算出
手段から出力された輪郭方向成分に基づいて局所的なス
トローク方向の変化を抽出する局所ストローク形状抽出
手段と、 前記文字切り出し手段から出力された切り出
し文字画像と前記基本特徴抽出手段の輪郭方向算出手段
から出力された輪郭方向成分に基づいて文字パターンの
ループを抽出する第1のループ抽出手段と、前記基本特
徴抽出手段の背景情報算出手段で算出した背景情報に基
づいて背景次数毎に隣接する背景画素の塊を背景ブロッ
クとして求めると共に、その大きさ情報と位置情報を算
出する背景ブロック抽出手段と、前記基本特徴抽出手段
の背景情報算出手段で算出した背景情報に基づいて隣接
する白画素の塊を背景ラベルとして求めラベル番号を付
与すると共に、その大きさ、位置、その背景ラベルが外
接矩形のどの辺と接するかを表わすラベル情報を算出す
る背景ラベル抽出手段と、前記基本特徴抽出手段の背景
情報算出手段で算出した背景情報に基づいて文字パター
ンを構成するストロークの端点と交点と抽出する端点・・
交点抽出手段と、前記基本特徴抽出手段の背景情報算出
手段で算出した背景情報と前記端点・交点抽出手段で抽
出された端点と交点とに基づいて直線を抽出する直線抽
出手段とを備えたことを特徴とする請求項6、8、1
3、15のいずれかに記載の光学的文字読み取り装置。
20. A local background feature extracting means for extracting local background distance features based on the background distance output from the background distance calculating means of the basic feature extracting means, and the structural feature extracting means, Local stroke shape extraction means for extracting a local change in stroke direction based on the contour direction component output from the contour direction calculation means of the feature extraction means; a cutout character image output from the character cutout means and the basic feature Based on the first loop extracting means for extracting a loop of the character pattern based on the contour direction component output from the contour direction calculating means of the extracting means, and the background information calculated by the background information calculating means of the basic feature extracting means. A background block that calculates a block of adjacent background pixels for each background order as a background block and calculates its size information and position information Output means, and a label number is obtained as a background label a block of adjacent white pixels based on the background information calculated by the background information calculation means of the basic feature extraction means, the size, position, the background label is Background label extraction means for calculating label information indicating which side of the circumscribed rectangle is in contact, and end points and intersections of strokes forming a character pattern based on the background information calculated by the background information calculation means of the basic feature extraction means. End point to extract ...
An intersection point extracting means; and a straight line extracting means for extracting a straight line based on the background information calculated by the background information calculating means of the basic feature extracting means and the end points and the intersection points extracted by the end point / intersection point extracting means. Claims 6, 8, 1
16. The optical character reader according to any one of 3 and 15.
【請求項21】 前記構造的特徴抽出部が、前記基本特
徴抽出手段の背景距離算出手段から出力された背景距離
に基づいて局所的な背景距離特徴を抽出する局所背景特
徴抽出手段と、前記基本特徴抽出手段の輪郭方向算出手
段から出力された輪郭方向成分に基づいて局所的なスト
ローク方向の変化を抽出する局所ストローク形状抽出手
段と、前記基本特徴抽出手段の背景情報算出手段で算出
した背景情報から、背景次数毎に隣接する背景画素の塊
を背景ブロックとして求めると共に、その大きさ情報と
位置情報を算出する背景ブロック抽出手段と、前記基本
特徴抽出手段の背景情報算出手段で算出した背景情報か
ら、隣接する白画素の塊を背景ラベルとして求めラベル
番号を付与すると共に、その大きさ、位置、その背景ラ
ベルが外接矩形のどの辺と接するかを表わすラベル情報
を算出する背景ラベル抽出手段と、前記基本特徴抽出手
段の背景情報算出手段で算出した背景情報に基づいて文
字パターンを構成するストロークの端点と交点と抽出す
る端点・交点抽出手段と、前記基本特徴抽出手段の背景
情報算出手段で算出した背景情報と前記端点・交点抽出
手段で抽出された端点と交点とに基づいて直線を抽出す
る直線抽出手段と、前記背景ラベル抽出手段で算出した
ラベル情報に基づいて文字パターンのループを抽出する
第2のループ抽出手段とを備えたことを特徴とする請求
項6、8、13、15のいずれかに記載の光学的文字読
み取り装置。
21. A local background feature extracting means for extracting a local background distance feature based on the background distance output from the background distance calculating means of the basic feature extracting means, and the basic feature extracting means, Local stroke shape extraction means for extracting a local stroke direction change based on the contour direction component output from the contour direction calculation means of the feature extraction means, and background information calculated by the background information calculation means of the basic feature extraction means. From the background block, a background block extracting means for calculating the size information and position information of the background block, which is a block of adjacent background pixels for each background degree, and background information calculated by the background information calculating means of the basic feature extracting means. From this, a block of adjacent white pixels is obtained as a background label, a label number is given, and its size, position, and background label are circumscribed rectangles. Background label extracting means for calculating label information indicating whether or not it is in contact with the edge of the stroke, and end points for extracting end points and intersection points of strokes forming a character pattern based on the background information calculated by the background information calculating means of the basic feature extracting means. An intersection point extracting means, a straight line extracting means for extracting a straight line based on the background information calculated by the background information calculating means of the basic feature extracting means, and the end point and the intersection point extracted by the end point / intersection point extracting means; and the background. The second loop extraction means for extracting a loop of a character pattern based on the label information calculated by the label extraction means, and the optical device according to any one of claims 6, 8, 13, and 15. Character reader.
【請求項22】 前記端点・交点抽出手段が、前記背景
情報算出手段から出力された垂直及び水平方向の各ライ
ンの背景情報に基づき文字パターンの端点及び交点の候
補を抽出する端点・交点候補抽出手段と、前記抽出され
た端点及び交点候補の個々の位置関係を比較することに
より不適切な端点及び交点候補を除去して適切な端点及
び交点を抽出する端点・交点判定手段とを備えたことを
特徴とする請求項20または21記載の光学的文字読み
取り装置。
22. The end point / intersection point candidate extraction means for extracting end points / intersection point candidates of a character pattern based on the background information of vertical and horizontal lines output from the background information calculation means. Means and end point / intersection point determination means for removing inappropriate end points and intersection point candidates by comparing the respective positional relationships of the extracted end points and intersection point candidates to extract appropriate end points and intersection points. 22. The optical character reading device according to claim 20, wherein:
【請求項23】 前記直線抽出手段が、前記背景情報算
出手段から出力された垂直及び水平方向の各ラインの背
景情報に基づき黒画素が予め定められた閾値よりも長く
連続する領域を抽出する黒画素連続領域抽出手段と、前
記黒画素連続領域抽出手段から出力された黒画素連続領
域に基づき垂直及び水平方向の直線候補を抽出する直線
候補抽出手段と、前記端点・交点抽出手段から出力され
た端点及び交点の位置情報に基づき前記直線候補抽出手
段から出力された直線候補の中から直線でないものを除
去し、残った直線候補の中から近傍の線との接続状態に
応じて種類を判定する直線判定手段とを備えたことを特
徴とする請求項20または21記載の光学的文字読み取
り装置。
23. The straight line extracting means extracts a region in which black pixels are continuous for longer than a predetermined threshold value based on the background information of each line in the vertical and horizontal directions output from the background information calculating means. Pixel continuous area extracting means, straight line candidate extracting means for extracting vertical and horizontal straight line candidates based on the black pixel continuous area extracting means output from the end point / intersection point extracting means Non-straight lines are removed from the straight line candidates output from the straight line candidate extraction means based on the position information of the end points and the intersections, and the type is determined from the remaining straight line candidates according to the connection state with a neighboring line. The optical character reading device according to claim 20 or 21, further comprising: a straight line determining means.
【請求項24】 前記文字切り出し手段から出力された
文字パターンの外接矩形の大きさ、前記認識手段から出
力された少なくとも一つの類似度、前記背景情報算出手
段で算出した背景情報に基づく背景複雑度の中の少なく
とも一つに基づいて切り出しエラーを判定し、前記文字
切り出し手段に再切り出しの指示を与えるエラー判定手
段を備えたことを特徴とする請求項6、8、13、1
いずれかに記載の光学的文字読み取り装置。
24. The size of a circumscribing rectangle of a character pattern output from the character cutting means, at least one degree of similarity output from the recognizing means, and background complexity based on background information calculated by the background information calculating means. claims to determine the error cut based on at least one of, characterized by comprising error determination means for giving an instruction of re-cut to the character segmentation means 6,8,13,1 5
An optical character reader according to any one of 1.
【請求項25】 前記認識手段で算出されたカテゴリ類
似度の大きい方から2つのカテゴリ類似度を選択し、2
番目の類似度と最大類似度の比の値が予め設定されてい
る閾値aより大きいか、または最大類似度が予め設定さ
れている閾値bより小さいか、または前記背景情報算出
手段で算出した背景情報に基づく背景複雑度が予め設定
されている閾値cより大きい場合にリジェクト信号を出
力し、それ以外の場合は認識結果として最大類似度のカ
テゴリを出力する第1の認識結果算出手段を備えたこと
を特徴とする請求項6、8、13、15、24のいずれ
かに記載の光学的文字読み取り装置。
25. Two category similarities are selected from the larger category similarity calculated by the recognizing means, and 2 are selected.
The value of the ratio of the second similarity to the maximum similarity is larger than a preset threshold value a, or the maximum similarity is smaller than a preset threshold value b, or the background calculated by the background information calculating means. A first recognition result calculation means is provided which outputs a reject signal when the background complexity based on the information is larger than a preset threshold value c, and otherwise outputs a category of maximum similarity as a recognition result. The optical character reading device according to any one of claims 6, 8, 13, 15, and 24, wherein:
【請求項26】 複数の文字パターンに対して、予め大
きい方から2番目の類似度と最大類似度の比、最大類似
度、前記背景情報算出手段で算出した背景情報に基づく
背景複雑度、前記認識手段が出力する認識結果を算出
し、前記類似度比と前記最大類似度と前記背景複雑度の
少なくとも1つを入力とし、前記認識結果が不正解の場
合は、リジェクト信号を出力し、正解の場合はリジェク
ト信号を出力しないように予め学習させた階層型ニュー
ラルネットワークで構成した第2の認識結果算出手段を
備えたことを特徴とする請求項6、8、13、15、2
4のいずれかに記載の光学的文字読み取り装置。
26. For a plurality of character patterns, the ratio of the second highest similarity to the highest similarity, the highest similarity, the background complexity based on the background information calculated by the background information calculating means, and A recognition result output by the recognition means is calculated, and at least one of the similarity ratio, the maximum similarity and the background complexity is input, and if the recognition result is incorrect, a reject signal is output and the correct answer is output. In the case of, the second recognition result calculation means constituted by a hierarchical neural network learned in advance so as not to output the reject signal is provided.
4. The optical character reading device according to any one of 4 above.
JP15629598A 1997-06-05 1998-06-04 Optical character reading method and apparatus Expired - Fee Related JP3370934B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP15629598A JP3370934B2 (en) 1997-06-05 1998-06-04 Optical character reading method and apparatus
US09/325,546 US6636631B2 (en) 1998-06-04 1999-06-04 Optical character reading method and system for a document with ruled lines and its application
EP99304385A EP0965943A3 (en) 1998-06-04 1999-06-04 Optical character reading method and system for a document with ruled lines and their application

Applications Claiming Priority (9)

Application Number Priority Date Filing Date Title
JP16204897 1997-06-05
JP9-162048 1997-06-05
JP29178397 1997-10-09
JP9-291783 1997-10-09
JP9-297910 1997-10-16
JP29791097 1997-10-16
JP6299198 1998-03-13
JP10-62991 1998-03-13
JP15629598A JP3370934B2 (en) 1997-06-05 1998-06-04 Optical character reading method and apparatus

Publications (2)

Publication Number Publication Date
JPH11328309A JPH11328309A (en) 1999-11-30
JP3370934B2 true JP3370934B2 (en) 2003-01-27

Family

ID=27523746

Family Applications (1)

Application Number Title Priority Date Filing Date
JP15629598A Expired - Fee Related JP3370934B2 (en) 1997-06-05 1998-06-04 Optical character reading method and apparatus

Country Status (1)

Country Link
JP (1) JP3370934B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4100146B2 (en) * 2002-11-27 2008-06-11 ソニー株式会社 Bi-directional communication system, video communication device
CN100357957C (en) * 2004-08-10 2007-12-26 富士通株式会社 Character recognition apparatus and method for recognizing characters in image
JP4881605B2 (en) * 2005-10-28 2012-02-22 株式会社リコー Character recognition device, storage medium, and character recognition method
CN101354704B (en) 2007-07-23 2011-01-12 夏普株式会社 Apparatus for making grapheme characteristic dictionary and document image processing apparatus having the same
CN110636181A (en) 2016-03-01 2019-12-31 京瓷办公信息系统株式会社 Information processing apparatus
CN111739013B (en) * 2020-06-30 2024-04-23 北京酷豹科技有限公司 Image optimization method and related device based on image processing
JP7137170B1 (en) * 2021-03-22 2022-09-14 楽天グループ株式会社 Information processing device, information processing method and program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
構造化ニューラルネットワーク(NARA)によるマルチフォント漢字認識,電子情報通信学会技術研究報告,日本,1991年9月20日,Vol.91 No.231,pp.9−16

Also Published As

Publication number Publication date
JPH11328309A (en) 1999-11-30

Similar Documents

Publication Publication Date Title
Pal et al. Touching numeral segmentation using water reservoir concept
US6636631B2 (en) Optical character reading method and system for a document with ruled lines and its application
US6335986B1 (en) Pattern recognizing apparatus and method
Shi et al. Text extraction from gray scale historical document images using adaptive local connectivity map
US5787194A (en) System and method for image processing using segmentation of images and classification and merging of image segments using a cost function
EP0385009A1 (en) Apparatus and method for use in image processing
Palacios et al. A system for processing handwritten bank checks automatically
Obaidullah et al. A system for handwritten script identification from Indian document
CN109389050B (en) Method for identifying connection relation of flow chart
Xiao et al. Knowledge-based English cursive script segmentation
JP3370934B2 (en) Optical character reading method and apparatus
Zhou et al. Discrimination of characters by a multi-stage recognition process
Ullmann Picture analysis in character recognition
KR0126464B1 (en) Finger print recognizing method
JP4194020B2 (en) Character recognition method, program used for executing the method, and character recognition apparatus
Strathy A method for segmentation of touching handwritten numerals
Mishchenko et al. Model-Based Recognition and Extraction of Information from Chart Images.
Roy et al. Trilingual script separation of handwritten postal document
Benafia et al. Handwritten character recognition on focused on the segmentation of character prototypes in small strips
JP3673616B2 (en) Gift certificate identification method and apparatus
JP4026738B2 (en) Pattern recognition method and apparatus, and recording medium
JP3344062B2 (en) Katakana handwritten character extraction circuit
Ting et al. A syntactic business form classifier
Humied Segmentation accuracy for offline Arabic handwritten recognition based on bounding box algorithm
JP2000113110A (en) Optical character reader

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees