JPH0262682A - Method for recognizing character - Google Patents
Method for recognizing characterInfo
- Publication number
- JPH0262682A JPH0262682A JP63215382A JP21538288A JPH0262682A JP H0262682 A JPH0262682 A JP H0262682A JP 63215382 A JP63215382 A JP 63215382A JP 21538288 A JP21538288 A JP 21538288A JP H0262682 A JPH0262682 A JP H0262682A
- Authority
- JP
- Japan
- Prior art keywords
- character
- extracted
- reference line
- characters
- height
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 28
- 238000000605 extraction Methods 0.000 claims abstract description 10
- 230000003287 optical effect Effects 0.000 claims description 2
- 230000002093 peripheral effect Effects 0.000 description 13
- 238000010586 diagram Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 1
Landscapes
- Character Discrimination (AREA)
Abstract
Description
【発明の詳細な説明】
[産業上の利用分野]
本発明は、紙面上に書かれた文字を画像として入力する
ことにより、文字画像から文字領域を捜し出しコード番
号に変換する文字認識装置の文字認識方法に関する。Detailed Description of the Invention [Industrial Application Field] The present invention is a character recognition device that inputs characters written on paper as an image, searches for a character area from the character image, and converts it into a code number. Regarding recognition methods.
[従来の技!]
近年、文字認識装置の急激なる進歩により、さまざまな
交合画像から文字領域を自動的に抽出し、さらに一つ一
つの文字を切り出し、認識し、自動的に文書ファイルが
作成できるようKなってきており、文字の認識の方法は
、さまざまな方法が考え出されてきている。[Traditional technique! ] In recent years, with rapid advances in character recognition devices, it has become possible to automatically extract character areas from various combined images, cut out and recognize individual characters, and automatically create document files. Various methods have been devised for character recognition.
例えば文字認識方法の一つとして、メツシュ特徴(研究
実用化報告 第34巻・第1号t p−p47〜57)
がある。該方法は、文字全体の大まかな形状分布を表現
したものである。特徴の抽出方法は、文字の外接矩形を
分割してル×ルの小領域を求める。該各々の小領域に含
まれる文字部の面積を計数してメツシュ特徴とする。該
メツシュ特徴は、一つの文字につきル×ルコのブータラ
持っており、ル×ルコのうちのある領域における文字部
の面積の割合を辞書として所有しているデータと比較す
ることによって、文字の推定が可能となる。For example, as one of the character recognition methods, mesh features (Research and Practical Application Report Vol. 34, No. 1, pp. 47-57)
There is. This method expresses the rough shape distribution of the entire character. The feature extraction method involves dividing the circumscribed rectangle of a character to obtain small regions of 1 x 1. The area of the character part included in each of the small areas is counted and used as a mesh feature. The mesh feature has a LuxLuco bootara for each character, and the character can be estimated by comparing the ratio of the area of the character part in a certain area of LuxLuco with the data owned as a dictionary. becomes possible.
また、他の方法として、べり7エラル特徴(研究実用化
報告 第34巻 第1号 p、p、47 〜57 )が
ある。該方法は、文字の周辺情報に着目したものである
。特徴の抽出方法は、まず文字パターンの外接矩形を求
め、外接矩形の各辺をそれぞれル分割する。次に分割さ
れた分割辺から文字に向かって走査していき、最初に文
字に出合うまでの面積、次に文字に出合うまでの面積を
計数する。各分割辺に対して同様の処理を行うことによ
り、WX4X2のデータを持つペリフェラル特llを得
ることができ、該ル×4×2のデータと辞書として所有
しているデータとを比較することによりて文字の推定が
可能となる。In addition, as another method, there is a 7-eral characteristic (Research and Practical Application Report Vol. 34 No. 1 p, p, 47-57). This method focuses on peripheral information of characters. The method for extracting features is to first find a circumscribed rectangle of a character pattern, and then divide each side of the circumscribed rectangle into squares. Next, it scans toward the characters from the divided side, and counts the area until it encounters the first character, and then the area until it encounters the next character. By performing the same processing on each divided side, it is possible to obtain a peripheral characteristic having WX4X2 data, and by comparing the data of WX4X2 with the data held as a dictionary. This makes it possible to estimate characters.
[発明が解決しようとする課題]
しかしながら、前記文字認識方法の、メツシュ特徴やペ
リフェラル特徴のみでは、候補文字を一つに絞ることは
非常にむずかしい。[Problems to be Solved by the Invention] However, it is very difficult to narrow down the candidate characters to one using only the mesh features and peripheral features of the character recognition method.
例えば、英数字を例にとると、メツシー特徴においては
、小文字のgと数字の8、小文字のqと数字の9、また
、ペリフェラル特徴ニおいては、■と小文字の71小文
字のrと小文字のt1大文字のGと小文字のeといった
文字のデータが非常に近い位を示している。したがって
、前記のような方法にて文字を認識させた場合、似たデ
ータを持つ文字に対しては非常にまちがえやすいという
課題を有している。For example, taking alphanumeric characters as an example, the metsy feature has a lowercase g and the number 8, the lowercase q and the number 9, and the peripheral feature has a ■ and a lowercase 71, a lowercase r and a lowercase letter. The data of characters such as t1, uppercase G and lowercase e, are very close to each other. Therefore, when characters are recognized using the method described above, there is a problem in that characters having similar data are very easily confused.
そこで本発明は以上の様な課題を解決するもので、その
目的とするところは、似たデータを持つ文字に対しても
高速にかつ正確に認識結果を出す方法を提供することに
ある。SUMMARY OF THE INVENTION The present invention is intended to solve the above-mentioned problems, and its purpose is to provide a method for quickly and accurately producing recognition results even for characters having similar data.
[課題を解決するための手段]
本発明の光学的画像入力手段により紙面等に書かれた文
字画像を読み取り、入力された画像データ中の文字を認
識しコード番号に置き換える文字認識方法は、
(1) 文字抽出時に得られる文字画像の位置及び大
きさによぢて候補文字を分類した後に文字を推定するこ
とを特徴とする。[Means for Solving the Problems] The character recognition method of the present invention reads a character image written on paper etc. using an optical image input means, recognizes the characters in the input image data, and replaces them with a code number. 1) Characters are estimated after candidate characters are classified according to the position and size of character images obtained during character extraction.
(2)文字認識前段階である文字抽出段階において得ら
れる文字基準線と、文字画像の位置とを比較することに
より、候補文字を分類することを特徴とする。(2) Candidate characters are classified by comparing the character reference line obtained in the character extraction stage, which is a stage before character recognition, and the position of the character image.
(3)文字認識前段階である文字行抽出段階において得
られる標準文字高と、文字画像の大きさを比較すること
により、候補文字を分類することを特徴とする。(3) Candidate characters are classified by comparing the standard character height obtained in the character line extraction stage, which is a stage before character recognition, and the size of the character image.
[実施例] 以下、本発明を実施例に基づいて詳細に説明する。[Example] Hereinafter, the present invention will be explained in detail based on examples.
本発明の文字認識方法は、一般に第4図のブロック図に
示す様なハードウェアにおいて用いられる。該ハードウ
ェアは、認識対象文字画像を入力するための画像入力装
置342画像入力装置34によって入力された画像情報
及び演算結果を蓄えるRAM52、演算を実行するCI
PU31、文字認識のための辞書データ及び演算のプロ
グラムが納まっているROM33、及び認識した結果を
表示するモイスブレイ35により構成されている。The character recognition method of the present invention is generally used in hardware as shown in the block diagram of FIG. The hardware includes an image input device 342 for inputting character images to be recognized, a RAM 52 for storing image information input by the image input device 34 and calculation results, and a CI for executing calculations.
It is composed of a PU 31, a ROM 33 that stores dictionary data and calculation programs for character recognition, and a moisture blur 35 that displays the recognized results.
以下、本発明の文字認識方法を、第5図に示すフローチ
ャートに従って詳細に説明する。Hereinafter, the character recognition method of the present invention will be explained in detail according to the flowchart shown in FIG.
ブロックAにおいて認識対象となる文字画像1が入力さ
れる。この時、画像入力装置34の読み取り幅によって
入力された文字画像1はさまざまであるが、通常複数行
の文字画像1が入力されるちなみに、第1図に示した文
字画像1は1行のみしか表わしてないが、複数行入力し
た場合も本発明の文字認識方法は全く変わり無い。画像
入力装置34により入力された画像が第1図(−)に示
す様な斜めの画像であった場合、ブロックB以降におい
て認識の防げとなるので、斜めに入力された場合にはこ
の時点で第1図<b>に示す様に水平に並び換える。In block A, a character image 1 to be recognized is input. At this time, the character image 1 inputted varies depending on the reading width of the image input device 34, but normally a character image 1 of multiple lines is input, but the character image 1 shown in FIG. 1 only has one line. Although not shown, the character recognition method of the present invention does not change at all even when multiple lines are input. If the image input by the image input device 34 is an oblique image as shown in FIG. 1 (-), recognition will be prevented from block B onward. Arrange them horizontally as shown in Figure 1<b>.
ブロックBにおいて、水平に並び換えられた文字画像2
の横方向の周辺分布4を計数する。一般に横方向の周辺
分布は、第1図の5に示す様な形状となる。入力画像が
複数行の場合、横方向の周辺分布は、第1図(C)に似
たものが行と同じ数だけできあがる。該横方向の周辺分
布3の形状をみると、その形状より標準文字高■(小文
字Xの高さ)及び、文字行基準線■の位置を知ることが
できる。ブロックBにおいては、標準文字高■及び文字
行基準線■と同時に文字行の位置を抽出する。In block B, character image 2 rearranged horizontally
Count the lateral marginal distribution 4 of . Generally, the peripheral distribution in the lateral direction has a shape as shown in 5 in FIG. When the input image has multiple lines, a horizontal peripheral distribution similar to that shown in FIG. 1(C) is created for the same number of lines. Looking at the shape of the horizontal peripheral distribution 3, it is possible to know the standard character height ■ (the height of the lowercase letter X) and the position of the character line reference line ■. In block B, the position of the character line is extracted at the same time as the standard character height (■) and the character line reference line (■).
ブロック0においては、ブロックBにおいて抽出された
文字行の中から単語領域を抽出する。単語領域の抽出は
、文字行と垂直な方向の周辺分布を計数し、該周辺分布
め固まりと固まりの間隔を調べ、文字間隔か単語間隔か
を判断することによって可能である。In block 0, word regions are extracted from the character lines extracted in block B. Word regions can be extracted by counting the peripheral distribution in the direction perpendicular to the character line, checking the intervals between clusters of the peripheral distribution, and determining whether it is a character interval or a word interval.
ブロックDにおいては、ブロックOにおいて抽出された
単語領域から文字領域を抽出する。文字領域の抽出は、
ブロックCにおいて計数された周辺分布の結果を用いて
抽出することも可能であるが、対象文字が英数字である
場合には、小文字の1、jをぬかしてすべてが一つの連
結成分よりなっているので、文字画像の輪郭をとること
により文字の抽出が可能である。本発明においては、文
字の輪郭を用いて文字の抽出を行った。また文字の輪郭
抽出と同時に文字の高さ及び文字の基準線が求まる。In block D, a character region is extracted from the word region extracted in block O. To extract the character area,
It is also possible to extract using the results of the marginal distribution counted in block C, but if the target characters are alphanumeric characters, the lowercase letters 1 and j are omitted and all are made up of one connected component. Therefore, characters can be extracted by taking the outline of the character image. In the present invention, characters are extracted using character outlines. Furthermore, the height of the character and the reference line of the character are determined at the same time as character outline extraction.
ブロック■において、ブロックDにおいて抽出された文
字の認識を行う。ブロックEにおいてはまず最初にブロ
ックDにおいて抽出された文字の高さ及び文字の基準線
と、ブロックBにおいて抽出された標準文字高及び文字
行基準線とを比較し。In block (2), the characters extracted in block D are recognized. In block E, first, the character height and character reference line extracted in block D are compared with the standard character height and character line reference line extracted in block B.
候補文字を分類する。一般に、文字の高さ及び文字の基
準線との関係は第2図に示す3つのグループに分けるこ
とができる。1つ目のグループは、第2図−11に示さ
れる様なグループである。該グループは、文字の高さ■
−1は標準文字高■に比べかなり高く、文字の基準線■
−1は文字行基準線■とほぼ同じ位置にある。該文字の
グループに属す文字は第4図における0HARA2及び
0HkRk5のグループである。2つめのグループは、
第2図−12に示される様なグループである該グループ
は、文字の高さ■−2は標準文字高とほぼ等しく、また
文字の基準線■−2も文字行基準線■とほぼ等しい。該
文字のグループに属す文字は第4図における0HARA
4のグループである。3つめのグループは、第2図−1
3に示される様なグループである。該グループは、文字
の高さ■−3は標準文字に比べかなり高く、また文字の
基準線■−5は文字行基準線■に比べかなり低い位置に
ある。該文字のグループに属す文字は第4図における0
HARA1のグループである。Classify candidate characters. In general, the relationship between the height of a character and the reference line of the character can be divided into three groups as shown in FIG. The first group is as shown in Figure 2-11. The group has the character height■
-1 is considerably higher than the standard character height■, and the character reference line■
-1 is located almost at the same position as the character line reference line ■. The characters belonging to this character group are the 0HARA2 and 0HkRk5 groups in FIG. The second group is
In this group, which is a group as shown in FIG. 2-12, the character height -2 is almost equal to the standard character height, and the character reference line -2 is also almost equal to the character line reference line -2. The characters belonging to this group of characters are 0HARA in Figure 4.
There are 4 groups. The third group is shown in Figure 2-1.
This is a group as shown in 3. In this group, the character height ■-3 is considerably higher than the standard characters, and the character reference line ■-5 is located considerably lower than the character line reference line ■. The characters belonging to the group of characters are 0 in Figure 4.
This is the HARA1 group.
以上の様に、文字の高さ及び文字の基準線の情報により
、候補文字を3つのグループにしぼることが可能である
。従って、候補文字の数は当初52字あったものが、多
(て34文字、少くて5文字となり、平均すると認識に
用いられる時間が半減する。ブロックEにおいては、こ
うしてしぼられた候補文字の辞書データと抽出文字のデ
ータとの比較を行い抽出文字が何であるかの認識を行う
。As described above, candidate characters can be narrowed down to three groups based on the information on the character height and character reference line. Therefore, the number of candidate characters was initially 52 characters, but now it is 34 characters, at least 5 characters, and on average, the time used for recognition is halved.In block E, the number of candidate characters narrowed down in this way is The dictionary data and the extracted character data are compared to recognize the extracted character.
以上の様にブロックEにおいて抽出文字の認識が終了す
ると、ブロックCにおいて抽出された単語の認識が終了
するまでブロックD、ブロックEを繰り返し、単語の認
識が終了するとブロックBにより抽出された文字行の認
識が終了するまでブロックC,ブロックD、ブロックE
の一連の動作を繰り返す。さらに、入力画像のすべての
認識が終了するまで、ブロックB、ブロック0.ブロッ
クD及びブロックEの一連の動作を繰り返し、文字画像
をコート化する。このようにして画像入力装置34によ
って入力した文字画像2を一つの文書ファイルに変換す
る。この後、ブロックFにおいて、認識した結果をデイ
スプレィ65に表示して終了する。As described above, when recognition of extracted characters is completed in block E, block D and block E are repeated until recognition of words extracted in block C is completed, and when recognition of words is completed, character lines extracted by block B are Block C, Block D, Block E until the recognition of
Repeat the series of actions. Furthermore, block B, block 0 . A series of operations in block D and block E is repeated to coat the character image. In this way, the character image 2 input by the image input device 34 is converted into one document file. Thereafter, in block F, the recognized result is displayed on the display 65 and the process ends.
以上の様に本発明の文字認識方法は、入力された画像を
水平に並び換えた後に横方向の周辺分布を計数するので
、周辺分布を調べることにより文字行の位置を知ること
ができ、それと同時に、文字行基準線及び標準文字高を
知ることが可能となる。こうして得られた文字行基準線
及び標準文字高と、文字抽出時に得られる文字基準線及
び文字高とを比較することにより、候補文字を3つのグ
ループに分離することができる。候補文字を3つのグル
ープに分類することにより、今まで52文字の候補文字
があったものが、多くて、34文字、少くて5文字の候
補文字となる。その結果、認識に要する時間は、平均し
て従来の半分以下にすることが可能となる。また、この
様な位置情報及び大きさ情報を用いることにより、rと
t1小文字のqと数字の9(第3図には示さない)、小
文字のgと数字の8(第3図には示さない)といった様
な非常によ(似たデータを持つ文字もはっきりと分類す
ることが可能となり、高速にかつ正確に認識することが
可能となる。As described above, the character recognition method of the present invention counts the peripheral distribution in the horizontal direction after rearranging the input images horizontally. Therefore, by examining the peripheral distribution, the position of a character line can be determined. At the same time, it becomes possible to know the character line reference line and standard character height. By comparing the character line reference line and standard character height obtained in this way with the character reference line and character height obtained at the time of character extraction, candidate characters can be separated into three groups. By classifying candidate characters into three groups, what used to be 52 candidate characters becomes a maximum of 34 candidate characters and a minimum of 5 candidate characters. As a result, the time required for recognition can be reduced to less than half of the conventional time on average. In addition, by using such position information and size information, r and t1 lowercase q and number 9 (not shown in Figure 3), lowercase letter g and number 8 (not shown in Figure 3) It becomes possible to clearly classify characters that have very similar data such as "no characters", and it becomes possible to recognize them quickly and accurately.
[発明の効果]
以上述べた様に本発明によれば、入力された画像の横方
向の周辺分布を計数し、文字行の位置を求める際に、文
字行基準線及び標準文字高を求める。この後、該文字行
基準線及び標準文字高と、文字抽出時に得られる文字基
準線及び文字高とを比較することにより候補文字しぼる
ことが可能となる。その結果、似たデータを持つ文字も
分類でき、しかも候補文字の数が少ないので、高速でか
つ高い確率の認識が可能となる。結果、現在幅広く用い
られているOORをより使いやすく、信頼の持てるもの
とすることができる。[Effects of the Invention] As described above, according to the present invention, the horizontal peripheral distribution of an input image is counted, and when determining the position of a character line, the character line reference line and standard character height are determined. Thereafter, candidate characters can be narrowed down by comparing the character line reference line and standard character height with the character reference line and character height obtained during character extraction. As a result, characters with similar data can be classified, and since the number of candidate characters is small, recognition is possible at high speed and with high probability. As a result, OOR, which is currently widely used, can be made easier to use and more reliable.
第1図(α)〜(C)に本発明の文字認識方法の文字行
基準線及び標準文字高の求め方を示した図。
第2図(9)〜(C)に本発明の文字認識方法の文字行
基準線及び標準文字高を用いた分類の方法を示した図。
第3図(α)〜Cd)に本発明の文字認識方法の文字行
基準線及び標準文字高による分類を示した図。
第4図に本発明の文字認識方法が用いられる文字認識装
置のブロック図。
第5図に本発明の文字認識手段のフローチャートを示す
。
1・・・・・・・・・入力文字画像
2・・・・・・・・・修正文字画像
5・・・・・・・・・横方向周辺分布
■・・・・・・・・・文字行基準線
■−112t3・・・・・・文字基準線■・・・・・・
・・・標準文字高
■−1,2,5・・・・・文字高
11.12,13・・・・・・抽出文字21・・・・・
・グループ0HAEA122・・・・・・グループ0H
ARA223・・・・・・グループO−HA RA 5
24・・・・・・グループ0HARA431 ・・・
・・・ 0PU
2 ・・・ ・・・ RAM
3 ・・・・・・ ROM
4・・・・・・画像入力装置
5・・・・・・デイスプレィ
・・・・・・ブロックA
・・・・・・ブロックB
・・・・・・ブロック0
・・・・・・ブロックD
・・・・・・ブロックE
・・・・・・ブロックF
以上FIGS. 1(α) to (C) are diagrams showing how to obtain a character line reference line and standard character height in the character recognition method of the present invention. FIGS. 2(9) to 2(C) are diagrams showing a classification method using a character line reference line and standard character height in the character recognition method of the present invention. FIGS. 3(α) to Cd) are diagrams showing classification according to character line reference lines and standard character heights in the character recognition method of the present invention. FIG. 4 is a block diagram of a character recognition device in which the character recognition method of the present invention is used. FIG. 5 shows a flowchart of the character recognition means of the present invention. 1... Input character image 2... Corrected character image 5... Horizontal peripheral distribution ■... Character line reference line■-112t3...Character reference line■...
... Standard character height ■-1, 2, 5 ... Character height 11.12, 13 ... Extracted character 21 ...
・Group 0HAEA122...Group 0H
ARA223...Group O-HA RA 5
24...Group 0HARA431...
... 0PU 2 ... RAM 3 ... ROM 4 ... Image input device 5 ... Display ... Block A ... ...Block B ...Block 0 ...Block D ...Block E ...Block F and above
Claims (3)
字画像を読み取り、入力された画像データ中の文字を認
識しコード番号に置き換える文字認識方法において、 文字抽出時に得られる文字画像の位置及び大きさによっ
て候補文字を分類した後に文字を推定することを特徴と
する文字認識方法。(1) In a character recognition method that reads a character image written on paper etc. using an optical image input means, recognizes the characters in the input image data, and replaces them with a code number, A character recognition method characterized by estimating a character after classifying candidate characters according to size.
得られる文字行基準線と、文字画像の位置とを比較する
ことにより、候補文字を分類することを特徴とする第1
項記載の文字認識方法。(2) The first method is characterized in that candidate characters are classified by comparing the character line reference line obtained in the character line extraction stage, which is a stage before character recognition, and the position of the character image.
Character recognition method described in section.
得られる標準文字高と、文字画像の大きさを比較するこ
とにより、候補文字を分類することを特徴とする第1項
記載の文字認識方法。(3) The character recognition method according to item 1, characterized in that candidate characters are classified by comparing the size of the character image with the standard character height obtained in the character line extraction stage, which is a stage before character recognition. .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP63215382A JPH0262682A (en) | 1988-08-30 | 1988-08-30 | Method for recognizing character |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP63215382A JPH0262682A (en) | 1988-08-30 | 1988-08-30 | Method for recognizing character |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH0262682A true JPH0262682A (en) | 1990-03-02 |
Family
ID=16671375
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP63215382A Pending JPH0262682A (en) | 1988-08-30 | 1988-08-30 | Method for recognizing character |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH0262682A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04148294A (en) * | 1990-10-08 | 1992-05-21 | Fujitsu Ltd | Character recognition system |
US5729630A (en) * | 1990-05-14 | 1998-03-17 | Canon Kabushiki Kaisha | Image processing method and apparatus having character recognition capabilities using size or position information |
-
1988
- 1988-08-30 JP JP63215382A patent/JPH0262682A/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5729630A (en) * | 1990-05-14 | 1998-03-17 | Canon Kabushiki Kaisha | Image processing method and apparatus having character recognition capabilities using size or position information |
JPH04148294A (en) * | 1990-10-08 | 1992-05-21 | Fujitsu Ltd | Character recognition system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4976608B2 (en) | How to automatically classify images into events | |
CN113723328B (en) | Graph document panel analysis and understanding method | |
Biswas et al. | Writer identification of Bangla handwritings by radon transform projection profile | |
CN106023159A (en) | Disease spot image segmentation method and system for greenhouse vegetable leaf | |
CN102779276B (en) | Text image recognition method and device | |
CN116824608A (en) | Answer sheet layout analysis method based on target detection technology | |
Chi et al. | Separation of single-and double-touching handwritten numeral strings | |
JP2926066B2 (en) | Table recognition device | |
CN106709437A (en) | Improved intelligent processing method for image-text information of scanning copy of early patent documents | |
JPH0262682A (en) | Method for recognizing character | |
JPH08320914A (en) | Table recognition method and device | |
Majumdar et al. | Recognizing Handwriting Styles in a Historical Scanned Document Using Unsupervised Fuzzy Clustering | |
Fan et al. | A feature point clustering approach to the recognition of form documents | |
Peng et al. | Document image matching based on component blocks | |
JPH0350692A (en) | Character recognizing device | |
JP7283756B2 (en) | Information processing device and program | |
JPH0281189A (en) | Character recognizing method | |
JPH0273484A (en) | Character recognizing method | |
JPH05120483A (en) | Character recognizing device | |
JPH01231186A (en) | Character recognizing system | |
JPH1166230A (en) | Device, method, and medium for document recognition | |
Muchnik | Simulation of process of forming the language for description and analysis of the forms of images | |
JPH04260980A (en) | Device for recognizing graphic | |
Ghosh et al. | A Grid based Approach for Handwritten Text Segmentation | |
Eken et al. | A framework for recognition and animation of chess moves printed on a chess book. |