JPH03233695A - Character array detector - Google Patents

Character array detector

Info

Publication number
JPH03233695A
JPH03233695A JP2031115A JP3111590A JPH03233695A JP H03233695 A JPH03233695 A JP H03233695A JP 2031115 A JP2031115 A JP 2031115A JP 3111590 A JP3111590 A JP 3111590A JP H03233695 A JPH03233695 A JP H03233695A
Authority
JP
Japan
Prior art keywords
character
interest
minimum value
point
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2031115A
Other languages
Japanese (ja)
Inventor
Yoshinori Yamaguchi
芳徳 山口
Toshimichi Masaki
俊道 政木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP2031115A priority Critical patent/JPH03233695A/en
Publication of JPH03233695A publication Critical patent/JPH03233695A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To easily and surely detect a character array by comparing a minimum value with a threshold while successively shifting a noticed point by calculation of the distance and detection of the minimum value with respect to each character position constituting a character group to discriminate a row position. CONSTITUTION:A picture input device 12, a picture memory 13, a matching processing part 14, a microprocessor unit 17, a memory 23, etc., are provided. The minimum value is compared with the threshold while successively shifting the noticed point by calculation of the distance and detection of the minimum value with respect to the position of each of characters constituting the character group, thereby discriminating a row position. Thus, the character array is easily and surely detected though calculated character positions are not uniform.

Description

【発明の詳細な説明】 〈産業上の利用分野〉 この発明は、複数行にわたる活字文字などの文字群の画
像につき、認識対象の文字の配列を各行毎に検出するの
に用いられる文字配列検出装置に関する。
[Detailed Description of the Invention] <Industrial Application Field> The present invention relates to a character arrangement detection method used to detect the arrangement of characters to be recognized for each line in an image of a group of characters such as printed characters spanning multiple lines. Regarding equipment.

〈従来の技術〉 従来、文字認識装置として、文字群の画像につき直交す
る2方向に濃度分布をとって文字構成画素(黒画素)の
切れ目を見付け、各切れ目で文字を切り出すことにより
各文字の位置を検出した後、各文字位置へテンプレート
を当てはめることにより文字を認識しかつ文字配列を検
出する方式が提案されている。
<Conventional technology> Conventionally, character recognition devices detect breaks in character constituent pixels (black pixels) by taking density distributions in two directions orthogonal to each other in an image of a group of characters, and cut out characters at each break to identify each character. A method has been proposed in which, after detecting the position, a template is applied to each character position to recognize the character and detect the character arrangement.

ところがこの方式の場合、第5図に示す画像のように、
文字1.1間にノイズ3が存在していたり、第6図に示
す画像のように、複数の文字1にわたってアンダーライ
ン4が存在していたりすると、それぞれの濃度分布HT
において本来切れ目であるべき箇所2が切れ目として検
出されず、文字の切出しが困難となる。
However, with this method, as shown in the image shown in Figure 5,
If noise 3 exists between characters 1.1 or underline 4 exists across multiple characters 1 as shown in the image shown in Figure 6, each density distribution HT
2, which should be a break is not detected as a break, making it difficult to cut out characters.

また第7図に示す画像のように、文字列が傾いて各文字
が回転している場合も同様であり、その濃度分布HTに
おいて、文字列1.1の間に相当する切れ目が現れず、
やはり文字の切出しが困難となる。
The same is true when the character string is tilted and each character is rotated, as in the image shown in FIG.
It is still difficult to cut out the characters.

そこで発明者は、文字群の画像に対し各文字の標準パタ
ーンを全面走査してテンプレートマツチングを行うこと
により各文字の位置と文字の内容とを認識する方式を開
発した。
Therefore, the inventor developed a method for recognizing the position and content of each character by scanning a standard pattern of each character over the entire image of a character group and performing template matching.

この方式によれば、ノイズやアンダーラインが存在して
いても、また各文字に傾きがあっても、各文字の位置お
よび内容の認識が可能となる。
According to this method, the position and content of each character can be recognized even if there is noise or underlining, or even if each character has an inclination.

〈発明が解決しようとする問題点〉 しかしながら二の方式の場合、得られた文字位置は必ず
しも行毎に整然とした配列とならないため、各文字位置
がどの行に属するかを検出して、文字位置を補正するな
どの必要がある。
<Problem to be solved by the invention> However, in the case of the second method, the obtained character positions are not necessarily arranged in an orderly manner line by line. It is necessary to correct the

この発明は、検出された文字位置が不揃いであっても、
文字配列を行毎に容易かつ確実に検出できる新規な文字
配列検出装置を提供することを目的とする。
This invention allows even if the detected character positions are irregular,
It is an object of the present invention to provide a novel character array detection device that can easily and reliably detect character arrays line by line.

〈問題点を解決するための手段〉 二の発明の文字配列検出装置は、文字群を構成する各文
字の位置の検出データを記憶する記憶手段と、記憶手段
に記憶された複数の文字位置につき着目点を定めてその
着目点から他の文字位置までの距離を算出する距離算出
手段と、距離算出手段で求めた算出値のうち最小値を検
出してその最小値にかかる文字位置を新たな着目点とし
て抽出する着目点抽出手段と、前記最小値を所定のしき
い値と比較することにより新たな着目点の行位置を判別
する判別手段とを具備している。
<Means for Solving the Problems> The character arrangement detection device of the second invention includes a storage means for storing detection data of the position of each character constituting a character group, and a plurality of character positions stored in the storage means. Distance calculating means for determining a point of interest and calculating the distance from the point of interest to another character position, and detecting the minimum value among the calculated values obtained by the distance calculating means and calculating a new character position corresponding to the minimum value. The apparatus includes a point-of-interest extracting means for extracting a point of interest, and a determining means for determining the row position of a new point of interest by comparing the minimum value with a predetermined threshold.

〈作用〉 文字群を構成する各文字の位置につき、距離の算出およ
び最小値の検出により順次着目点を移行しつつ前記最小
値をしきい値と比較して行位置の判別を行うので、検出
された文字位置がたとえ不揃いであっても文字配列を容
易かつ確実に検出することが可能である。
<Operation> For the position of each character constituting a character group, the line position is determined by calculating the distance and detecting the minimum value while sequentially shifting the focus point and comparing the minimum value with a threshold value. Even if the character positions are irregular, it is possible to easily and reliably detect the character arrangement.

〈実施例〉 第1図は、この発明の文字配列検出装置が組み入れられ
た文字認識装置11の全体構成を示している。
<Embodiment> FIG. 1 shows the overall configuration of a character recognition device 11 incorporating a character arrangement detection device of the present invention.

図示例の装置11は、複数行にわたる文字群の入力画像
に対し認識すべき各文字のテンプレートを全面走査する
方式のものであって、画像入力装置12.画像メモリ1
3. マツチング処理部14.マイクロプロセッサユニ
ット(以下。
The illustrated device 11 is of a type in which a template of each character to be recognized is scanned over the entire input image of a group of characters spanning multiple lines, and the image input device 12. Image memory 1
3. Matching processing section 14. Microprocessor unit (hereinafter referred to as microprocessor unit)

MPUと略す)17.メモリ23などを構成として含み
、MPU17にはキーボードなどの操作部20と、外部
インターフェイス回路21を介してホストコンピュータ
22とが接続されている。
(abbreviated as MPU)17. The MPU 17 includes a memory 23 and the like, and is connected to an operation section 20 such as a keyboard and a host computer 22 via an external interface circuit 21 .

画像人力装置12は、ティーチングモードで登録すべき
テンプレートの基準画像を取り込んで画像メモリ13に
格納し、また認識モードで認識対象の画像を入力してそ
の画像データをマツチング処理部14へ与える。
The image human power device 12 takes in the reference image of the template to be registered in the teaching mode and stores it in the image memory 13, and also inputs the image to be recognized in the recognition mode and provides the image data to the matching processing section 14.

画像メモIJ 13に記憶された基準画像は、MPU1
7により読み出され、操作部20により領域指定を受け
た各文字の画像がテンプレートとしてパターンメモリ1
8に登録される。なお拡大/縮小処理部19は、文字サ
イズの異なるテンプレートを作成するためのものである
The reference image stored in the image memo IJ 13 is
7 and the image of each character whose area has been specified by the operation unit 20 is stored in the pattern memory 1 as a template.
Registered in 8. Note that the enlargement/reduction processing section 19 is for creating templates with different character sizes.

マ・7チング処理部14は、パターンマツチング部14
aと、一致度算出部15と、−数位置検出部16とを含
むもので、パターンマツチング部14aには画像入力装
置12から認識対象の1フレ一ム分の画像データが入力
され、またMPtJ17によりテンプレートがロードさ
れ、この入力画像に対しテンプレートを順次全面走査す
ることによりテンプレートマツチングが行われる。
The pattern matching section 14 includes a pattern matching section 14.
a, a matching degree calculating section 15, and a -number position detecting section 16. Image data for one frame of recognition target is inputted to the pattern matching section 14a from the image input device 12, and A template is loaded by the MPtJ 17, and template matching is performed by sequentially scanning the template over the input image.

一致度算出部15は、テンプレートの各走査位置でテン
プレートの各構成画素と入力画像の対応する各画素との
一致画素数を一致度として算出する部分である。たとえ
ば文字構成画素が黒画素、それ以外の背景画素が白画素
である場合、テンプレートの各画素と人力画像の対応す
る画素とがいずれも黒画素または白画素となる画素数を
計測するのである。
The matching degree calculation unit 15 is a part that calculates the number of matching pixels between each constituent pixel of the template and each corresponding pixel of the input image at each scanning position of the template as a matching degree. For example, if the character constituent pixels are black pixels and the other background pixels are white pixels, the number of pixels in which each pixel of the template and the corresponding pixel of the human image are both black pixels or white pixels is counted.

一致位置検出部16は一致度算出部15で算出された前
記一致度をMPU17より与えられた所定のしきい値と
比較し、そのしきい値を越える一致度が一致度算出部1
5より与えられたとき、その位置をそのテンプレートの
文字の存在位置の候補として検出する。この場合にひと
つの文字位置につき多数の候補が検出されたときは、一
致度が最大となる候補位置を文字位置とするなどの統合
処理が実行されることになる。
The matching position detection unit 16 compares the matching degree calculated by the matching degree calculation unit 15 with a predetermined threshold value given by the MPU 17, and the matching degree exceeding the threshold value is detected by the matching degree calculation unit 1.
5, the position is detected as a candidate position of the character in the template. In this case, when a large number of candidates are detected for one character position, an integration process such as setting the candidate position with the highest degree of matching as the character position is performed.

このような処理を各テンプレートにつき画像データ全体
に施すことにより入力画像における全ての文字位置が得
られ、その位置データはメモリ17に記憶される。
By applying such processing to the entire image data for each template, all character positions in the input image are obtained, and the position data is stored in the memory 17.

下表は上記マツチング処理で得られた各文字位置のX座
標およびY座標を示す。同表中、(X 10.  yl
o) 1.” (X Ill+  y+n)は1番目の
テンプレートに一致した文字位置を、(XZ。。
The table below shows the X and Y coordinates of each character position obtained by the above matching process. In the same table, (X 10. yl
o) 1. ” (X Ill+ y+n) is the character position that matched the first template, (XZ.

y2゜)・・・・(xzn、  yzn)は2番目のテ
ンプレートに一致した文字位置を、それぞれ示している
(以下同様)。また同表中、処理済フラグはその文字位
置についての処理が済んだ場合にonとなり、未処理の
場合にoffとなるフラグである。
y2゜)...(xzn, yzn) respectively indicate the character positions that matched the second template (the same applies hereafter). Further, in the same table, the processed flag is a flag that is turned on when the processing for that character position has been completed, and is turned off when the character position has not been processed.

第2図は、マツチング処理で得られた人力画像上の各文
字位置P I+ P z、・・・・、Plを示している
。図示例の場合、文字位置P、〜P11゜P、□〜P 
24.  P 25〜P36.・・・・がそれぞれ文字
列の一行に相当するもので、つぎにMPU17は第3図
および第4図に示す手順を実行することにより、文字配
列を一行単位で検出する。
FIG. 2 shows each character position P I+ P z, . . . , Pl on the human image obtained by the matching process. In the case of the illustrated example, character positions P, ~P11゜P, □~P
24. P25-P36. . . corresponds to one line of the character string, and the MPU 17 then detects the character arrangement line by line by executing the procedure shown in FIGS. 3 and 4.

まず第3図のステップO(図中rsTOJで示す)では
、入力画像の原点0(0,0)を着目点とし、前記の表
に示す各文字位置データの処理済フラグを全てonにす
ると共に、前記メモIJ23のフラグエリアに改行フラ
グをOnにセットする。この改行フラグは現在の処理が
改行直後であるか否かを表すためのものである。つぎの
ステップ1では処理済フラグがonでありかつ現在の着
目点に最も近い文字位置(第2図の例ではP、)が求め
られる。この処理の手順は第4図に示してあり、後に詳
述する。
First, in step O (indicated by rsTOJ in the figure) in Figure 3, the origin 0 (0, 0) of the input image is set as the point of interest, and all processed flags for each character position data shown in the table above are turned on. , sets the line feed flag to ON in the flag area of the memo IJ23. This line feed flag is used to indicate whether or not the current process is immediately after a line feed. In the next step 1, the character position (P in the example of FIG. 2) whose processed flag is on and which is closest to the current point of interest is determined. The procedure for this process is shown in FIG. 4 and will be described in detail later.

つぎのステップ2では、改行フラグがonか否かを判断
しており、この場合、その判断は肯定であるから、ステ
ップ7へ進んで改行フラグをoffにした後、前記文字
位置を新たな着目点とし、その文字位置の処理済フラグ
をoffとする(ステップ4)。
In the next step 2, it is determined whether the line feed flag is on or not. In this case, the judgment is affirmative, so proceed to step 7, turn off the line feed flag, and then change the character position to a new focus. point, and the processed flag for that character position is turned off (step 4).

この後、処理はステップ1へ戻り、処理済フラグがOn
でありかつ前記着目点に最も近い文字位置(第2図の例
ではP2)が第4図の手順を実行することにより求めら
れる。
After this, the process returns to step 1, and the processed flag is turned on.
, and the character position closest to the point of interest (P2 in the example of FIG. 2) is obtained by executing the procedure of FIG.

つぎにステップ2で改行フラグがOnか否かが判断され
、この場合、その判断は否定であるから、ステップ3へ
進み、現在の着目点と求めた文字位置との距離りが予め
定めるしきい値以上かどうかが判断される。もし距#D
がしきい値より小さければ、ステップ3が否定となり、
現在の着目点は行末すなわち改行位置でないと判断し、
前記の文字位置を同一行の新たな着目点とし、その文字
位置の処理済フラグをoffとする。この後、処理はス
テップ1へ戻り、同様の手順が繰り返される。
Next, in step 2, it is determined whether the line break flag is on, and in this case, the determination is negative, so the process proceeds to step 3, and the distance between the current point of interest and the obtained character position is a predetermined threshold. It is determined whether the value is greater than or equal to the value. If distance #D
If is smaller than the threshold, step 3 is negative;
Determine that the current point of interest is not at the end of the line, that is, at the line break position,
The above character position is set as a new point of interest on the same line, and the processed flag of that character position is turned off. After this, the process returns to step 1 and the same procedure is repeated.

この繰り返し手順において、ステップ3の判断が肯定に
なると、ステップ5へ進み、現在の着目点は行末すなわ
ち改行位置であると判断して、処理済フラグはoffに
、また改行フラグはonに、それぞれセットすると共に
、人力画像の原点○(0,O)を着目点とする。つぎの
ステップ6では全ての文字位置のチエツクが終了したか
どうかを判断しており、否定ならばステップ1へ戻って
次の行の処理に移り、チエツクすべき文字位置がなくな
るまで上記一連の手順を繰り返し実行する。なお原点以
外の各着目点は、その位置と行毎の配列順序をメモリ2
3の別の記憶領域に記憶させておくことは勿論である。
In this iterative procedure, if the judgment in step 3 is affirmative, the process proceeds to step 5, where it is determined that the current point of interest is the end of the line, that is, the line feed position, and the processed flag is turned off and the line feed flag is turned on. At the same time, the origin ○ (0, O) of the human image is set as the point of interest. In the next step 6, it is determined whether or not all character positions have been checked.If negative, the process returns to step 1 and proceeds to the next line, and the above series of steps is repeated until there are no more character positions to check. Execute repeatedly. For each point of interest other than the origin, its position and arrangement order for each row are stored in memory 2.
Of course, the data may be stored in a separate storage area.

つぎに第4図に示す手順を説明すると、同図のステ・ノ
ブ1′〜3′は、着目点に最も近い文字位置を求めるの
に、処理済フラグがOnである全ての文字位置との距離
を求めるための手順であって、ステップ1′がチエツク
対象とする文字位置の処理済フラグがOnか否かを判断
している。もしonであれば、ステ712′で着目点と
その文字位置との距IDを、縦方向(第2図の上下方向
)に重み付けした下記の計算式により算出する。
Next, to explain the procedure shown in Fig. 4, in order to find the character position closest to the point of interest, Ste Knobs 1' to 3' in the same figure are connected to all character positions whose processed flag is on. This is a procedure for determining the distance, and step 1' determines whether or not the processed flag of the character position to be checked is on. If it is on, step 712' calculates the distance ID between the point of interest and its character position using the following calculation formula weighted in the vertical direction (vertical direction in FIG. 2).

D=(x、−に、)”= w2(y; −yJ)2なお
上式中、(x+ 、)’i )は文字位置P1の座標、
(XJ、yJ)は着目点の位置P、の座標であり、Wは
前記重み(ただし1以上)である。
D=(x, −,)”=w2(y; −yJ)2In the above formula, (x+,)'i) is the coordinate of character position P1,
(XJ, yJ) are the coordinates of the position P of the point of interest, and W is the weight (1 or more).

つぎのステノ13′は全ての文字位置に対する上記の距
離計算が実行されたか否かを判断するもので、その判定
が“’No”であれば、ステップビ、2′の手順が繰り
返し実行される。なお前記ステップ1′で処理済フラグ
がorfであればステップ2′はスキノブされる。
The next step 13' determines whether the above-described distance calculations have been performed for all character positions, and if the determination is "No", the steps 2 and 2' are repeated. Note that if the processed flag in step 1' is orf, step 2' is skipped.

かくしてステップ3′の判断が肯定になると、つぎのス
テップ4′において、算出された各文字位置との距離の
うち最小の距離りを求め、その距離りにかかる文字位置
につき第3図のステップ3の判断が行われることになる
In this way, if the judgment in step 3' is affirmative, in the next step 4', the minimum distance from the calculated distances to each character position is determined, and for each character position corresponding to that distance, step 3 in FIG. A judgment will be made.

なお上記の実施例は、横書きの文字群を処理の対象とし
ているが、縦書きの文字群についても同様の手順で文字
配列の検出が可能である。
Note that although the above embodiment deals with horizontally written character groups, the character arrangement can also be detected for vertically written character groups using the same procedure.

この場合に第4図のステップ2′の距離計算では横方向
に重み付けした計算式を用いることば勿論である。
In this case, it goes without saying that a horizontally weighted calculation formula is used in the distance calculation in step 2' of FIG.

〈発明の効果〉 この発明は上記の如く、文字群を構成する各文字位置に
つき、距離の算出および最小値の検出により順次着目点
を移行しつつ、前記最小値をしきい値と比較して行位置
の判別を行うようにしたから、検出された文字位置がた
とえ不揃いであっても文字配列を容易かつ確実に検出す
ることが可能であるなど、発明目的を達成した顕著な効
果を奏する。
<Effects of the Invention> As described above, the present invention sequentially shifts the focus point by calculating the distance and detecting the minimum value for each character position constituting the character group, and compares the minimum value with a threshold value. Since the line positions are determined, the character arrangement can be easily and reliably detected even if the detected character positions are irregular, achieving the remarkable effect of achieving the object of the invention.

【図面の簡単な説明】[Brief explanation of drawings]

第1図はこの発明が実施された文字認識装置のブロック
図、第2図は入力画像上の文字位置を示す説明図、第3
図および第4図は文字配列検出手順を示すフローチャー
ト、第5図、第6図および第7図は従来例の問題点を説
明するための説明図である。 11・・・・文字認識装置 14・・・・マツチング処理部 17・・・・M P IJ       23・・・・
メモリ第 4 図 i椙妃刺11第−Qとネず フローケイート 第 図 g#!PItlTr、J−lI、q、h社aft 1)
、1:i?社縛図 ■ 第 図 7′J″qM/!r5M、#、z劉Jr第 図 戻紳m虎”璧i1智7
FIG. 1 is a block diagram of a character recognition device in which the present invention is implemented, FIG. 2 is an explanatory diagram showing character positions on an input image, and FIG.
5 and 4 are flowcharts showing the character arrangement detection procedure, and FIGS. 5, 6, and 7 are explanatory diagrams for explaining the problems of the conventional example. 11...Character recognition device 14...Matching processing unit 17...M P IJ 23...
Memory No. 4 Figure i Sugihi Sashi 11th - Q and Nezu Flow Kate Diagram g#! PItlTr, J-lI, q, h company aft 1)
, 1:i? Company binding map ■ Figure 7'J''qM/!r5M, #, z Liu Jr.

Claims (1)

【特許請求の範囲】 文字群を構成する各文字の位置の検出データを記憶する
記憶手段と、 記憶手段に記憶された複数の文字位置につき着目点を定
めてその着目点から他の文字位置までの距離を算出する
距離算出手段と、 距離算出手段で求めた算出値のうち最小値を検出してそ
の最小値にかかる文字位置を新たな着目点として抽出す
る着目点抽出手段と、 前記最小値を所定のしきい値と比較することにより新た
な着目点の行位置を判別する判別手段とを具備して成る
文字配列検出装置。
[Scope of Claims] Storage means for storing detection data of the position of each character constituting a character group; A point of interest is determined for a plurality of character positions stored in the storage means, and a method from the point of interest to other character positions is provided. a distance calculation means for calculating the distance between the two points; a point-of-interest extraction means for detecting the minimum value among the calculated values obtained by the distance calculation means and extracting the character position corresponding to the minimum value as a new point of interest; and the minimum value. 1. A character arrangement detecting device comprising: a determining means for determining a line position of a new point of interest by comparing the line position of a new point of interest with a predetermined threshold value.
JP2031115A 1990-02-08 1990-02-08 Character array detector Pending JPH03233695A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2031115A JPH03233695A (en) 1990-02-08 1990-02-08 Character array detector

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2031115A JPH03233695A (en) 1990-02-08 1990-02-08 Character array detector

Publications (1)

Publication Number Publication Date
JPH03233695A true JPH03233695A (en) 1991-10-17

Family

ID=12322405

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2031115A Pending JPH03233695A (en) 1990-02-08 1990-02-08 Character array detector

Country Status (1)

Country Link
JP (1) JPH03233695A (en)

Similar Documents

Publication Publication Date Title
US10936911B2 (en) Logo detection
CN111507251B (en) Method and device for positioning answering area in test question image, electronic equipment and computer storage medium
US9092697B2 (en) Image recognition system and method for identifying similarities in different images
CN107622271B (en) Handwritten text line extraction method and system
CN113111880A (en) Certificate image correction method and device, electronic equipment and storage medium
CN112419207A (en) Image correction method, device and system
CN113762274B (en) Answer sheet target area detection method, system, storage medium and equipment
JP2007025902A (en) Image processor and image processing method
CN112580499A (en) Text recognition method, device, equipment and storage medium
CN111753719A (en) Fingerprint identification method and device
CN113850238B (en) Document detection method and device, electronic equipment and storage medium
CN112784737B (en) Text detection method, system and device combining pixel segmentation and line segment anchor
JPH03233695A (en) Character array detector
CN111881732B (en) SVM (support vector machine) -based face quality evaluation method
CN103473549A (en) Image target detecting method and device
CN111599080B (en) Spliced paper money detection method and device, financial machine tool equipment and storage medium
US11710331B2 (en) Systems and methods for separating ligature characters in digitized document images
JPH11203404A (en) Method and device for reading character in view image and recording medium recording the method
CN116416671B (en) Face image correcting method and device, electronic equipment and storage medium
JPH0728935A (en) Document image processor
JP2000322514A (en) Pattern extraction device and character segmentation device
JP7405528B2 (en) Media discrimination device, medium discrimination system, and medium discrimination method
JP3074691B2 (en) Character recognition device
CN115063822A (en) Document detection method and device, electronic equipment and storage medium
JPH07302338A (en) Template matching method and pattern recognizing device using the same method