JP3250317B2 - Character recognition device - Google Patents

Character recognition device

Info

Publication number
JP3250317B2
JP3250317B2 JP09319493A JP9319493A JP3250317B2 JP 3250317 B2 JP3250317 B2 JP 3250317B2 JP 09319493 A JP09319493 A JP 09319493A JP 9319493 A JP9319493 A JP 9319493A JP 3250317 B2 JP3250317 B2 JP 3250317B2
Authority
JP
Japan
Prior art keywords
segment
character
dictionary
point
inspection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP09319493A
Other languages
Japanese (ja)
Other versions
JPH06309501A (en
Inventor
敏幸 吉武
東善 ▲裴▼
美佐子 諏訪
晴雄 秋元
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP09319493A priority Critical patent/JP3250317B2/en
Publication of JPH06309501A publication Critical patent/JPH06309501A/en
Application granted granted Critical
Publication of JP3250317B2 publication Critical patent/JP3250317B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Character Discrimination (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は、手書き文字や印刷され
た文字を認識する文字認識装置に関するものである。近
年、コンピュータ等の情報処理装置の普及に伴い、これ
らの装置への入力手段として、帳票等に記入された手書
き文字や印刷文字を読み取る文字認識の技術が開発され
ており、特に、手書き文字は印刷文字に比べて歪みや傾
き等の変形が大きいので、精度の高い認識技術が求めら
れている。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a character recognition device for recognizing handwritten characters and printed characters. In recent years, with the spread of information processing devices such as computers, a character recognition technology for reading handwritten characters or printed characters written on a form or the like has been developed as an input means to these devices. Since deformation such as distortion and inclination is larger than that of printed characters, a highly accurate recognition technique is required.

【0002】[0002]

【従来の技術】以下、従来の文字認識装置について図面
に基づいて説明する。図10は、従来の文字認識装置の
ブロック構成図である。図10において、100は文字
画像入力部、101はセグメント抽出部、102は特徴
抽出部、103は候補決定部、104は辞書である。
2. Description of the Related Art A conventional character recognition apparatus will be described below with reference to the drawings. FIG. 10 is a block diagram of a conventional character recognition device. 10, reference numeral 100 denotes a character image input unit, 101 denotes a segment extraction unit, 102 denotes a feature extraction unit, 103 denotes a candidate determination unit, and 104 denotes a dictionary.

【0003】従来の文字認識装置では、まず最初に文字
画像入力部100において、帳票等の特定の位置に記入
された手書き文字や印刷文字をイメージとして読み取
り、白黒の2値画像に変換し、セグメント抽出部101
において、変換された2値画像から文字セグメントとし
て、例えば、2値画像の輪郭線を抽出する。そして、特
徴抽出部102において、抽出された輪郭線の特徴量と
して、文字画像の幾何学的形状情報を抽出し、抽出され
た特徴量を与えられた候補決定部103は、この特徴量
を予め辞書104に格納されている辞書セグメントの特
徴量との距離を計算し、距離の最も近い辞書を認識結果
として出力する。
In a conventional character recognition apparatus, first, in a character image input unit 100, a handwritten character or a printed character written in a specific position such as a form is read as an image, converted into a black and white binary image, and segmented. Extraction unit 101
In, for example, a contour of the binary image is extracted as a character segment from the converted binary image. Then, in the feature extracting unit 102, the geometric shape information of the character image is extracted as the extracted feature amount of the contour line, and the candidate determining unit 103 given the extracted feature amount sets the feature amount in advance. The distance from the feature amount of the dictionary segment stored in the dictionary 104 is calculated, and the dictionary having the closest distance is output as a recognition result.

【0004】図11は、文字画像の幾何学的形状による
文字認識を説明する図である。図11の(A)に示すよ
うに、文字画像「2」の輪郭には、幾何学的形状とし
て、例えば、凹部(図中、矢印で示した部分)が左側に
1つ、右側に1つあり、図11の(B)に示す文字画像
「3」の輪郭には、凹部が左側に2つ、右側に1つあ
る。
FIG. 11 is a diagram illustrating character recognition based on the geometric shape of a character image. As shown in FIG. 11A, the outline of the character image “2” has, for example, one concave portion (indicated by an arrow in the figure) on the left side and one on the right side as a geometric shape. In addition, the outline of the character image “3” shown in FIG. 11B has two concave portions on the left side and one concave portion on the right side.

【0005】このように、文字画像の輪郭にある凹凸等
の文字画像毎に異なる幾何学的形状を文字画像を識別す
る特徴量として用いて、各カテゴリに特有な形状に着目
して文字を認識するので、特に、局所的に形状の異なる
文字の認識に対しては有益である。
[0005] As described above, using a geometrical shape different for each character image such as unevenness in the outline of the character image as a feature amount for identifying the character image, the character is recognized by paying attention to a shape unique to each category. This is particularly useful for recognizing characters having locally different shapes.

【0006】[0006]

【発明が解決しようとする課題】しかしながら、認識対
象となる文字の文字セグメントの局所的形状が、辞書に
格納された辞書セグメントのどの部分に対応するかを特
定する際に、特に、変形の大きな文字に対しては、その
対応付けるを効率的行わなければ、認識率が低下すると
ともに、認識処理の時間が遅くなるという問題がある。
However, when specifying which part of the dictionary segment stored in the dictionary corresponds to the local shape of the character segment of the character to be recognized, particularly large deformations occur. If characters are not efficiently associated with each other, there is a problem that the recognition rate is reduced and the time required for the recognition process is reduced.

【0007】例えば、図11の(C)に示すように、辞
書セグメントでは凹部が左側に1つあるのに対して、図
11の(D)に示す認識対象の文字画像のように、凹部
が左側に2つある場合にはどちらの凹部が辞書セグメン
トの凹部に対応するのか処理する必要がある。本発明
は、このような点に鑑みて、文字セグメントと辞書セグ
メントとの対応を的確に行って文字を認識することがで
きる文字認識装置を提供することを目的とする。
For example, as shown in FIG. 11C, the dictionary segment has one concave portion on the left side, whereas the concave portion is formed as shown in the character image to be recognized shown in FIG. 11D. If there are two on the left side, it is necessary to process which concave portion corresponds to the concave portion of the dictionary segment. In view of the above, an object of the present invention is to provide a character recognition device capable of recognizing a character by accurately associating a character segment with a dictionary segment.

【0008】[0008]

【課題を解決するための手段】図1は、本発明の原理ブ
ロック図である。本発明において、上記の課題を解決す
るための手段は、図1に示すように、文字画像から抽出
された文字のセグメントを辞書セグメントとして格納
し、且つ前記辞書セグメント上にとった基準点における
辞書セグメントの特徴を当該文字画像の辞書特徴情報と
して格納する辞書10と、認識対象となる文字の文字画
像から抽出された文字セグメント上の点と、前記辞書セ
グメント上の点との対応関係をとるために、角度変化量
の累積値を用いたDP照合法による対応関係決定手段1
1と、前記対応関係決定手段11で得られた対応関係に
基づいて、前記辞書セグメント上の基準点に対応する文
字セグメントの点を検査点として設定し、なお且つ、前
記基準点における当該辞書セグメントの辞書特徴情報に
対応する前記検査点における当該文字セグメントの特徴
情報を抽出する検査点検出手段12と、前記検査点検出
手段12で抽出された文字セグメントの特徴情報を、辞
書セグメント上の対応する基準点の辞書特徴情報と比較
して前記認識対象となる文字画像の認識候補を決定する
候補決定手段13を備えることである。
FIG. 1 is a block diagram showing the principle of the present invention. In the present invention, as shown in FIG. 1, a means for solving the above problem stores a segment of a character extracted from a character image as a dictionary segment, and stores a dictionary at a reference point taken on the dictionary segment. the characteristics of the segments and dictionary 10 for storing a dictionary feature information of the character image, to take a point on the character segment extracted from character image to be recognized, a correspondence between the points on the dictionary segment And angle change
Correspondence Determination Means 1 by DP Matching Method Using Cumulative Value of
1 and a point of a character segment corresponding to a reference point on the dictionary segment is set as a check point based on the correspondence obtained by the correspondence determination means 11, and the dictionary segment at the reference point Test point detecting means 12 for extracting the characteristic information of the character segment at the test point corresponding to the dictionary characteristic information of the above, and the characteristic information of the character segment extracted by the test point detecting means 12 It is provided with candidate determining means 13 for determining a recognition candidate of the character image to be recognized by comparing with dictionary feature information of a reference point.

【0009】[0009]

【作用】本発明によれば、上記構成に基づき、辞書セグ
メント上の各点が、認識対象となる文字画像の文字セグ
メント上のどの点に対応するかを見て、予め定められた
辞書セグメント上の基準点と対応する認識対象の文字画
像の文字セグメント上の検査点を求める。
According to the present invention, based on the above configuration, it is determined whether each point on the dictionary segment corresponds to a point on the character segment of the character image to be recognized. Inspection points on the character segments of the character image to be recognized corresponding to the reference points are determined.

【0010】そして、求めた検査点において、辞書セグ
メント上の基準点での特徴情報に対応する文字セグメン
トの特徴情報を算出し、辞書セグメントの特徴情報との
比較を行い、比較対象の辞書セグメントが認識対象の文
字画像の認識候補であるか判定する。よって、カテゴリ
毎に認識するために注目すべき辞書セグメント上の特徴
的な認識情報を有する点での特徴情報と、この点と対応
する認識対象となる文字画像の文字セグメント上の特徴
情報とを効率的に比較することにより、容易に文字の認
識を行うことができる。
Then, at the obtained inspection point, the characteristic information of the character segment corresponding to the characteristic information at the reference point on the dictionary segment is calculated and compared with the characteristic information of the dictionary segment. It is determined whether the character image to be recognized is a recognition candidate. Therefore, the feature information at the point having the characteristic recognition information on the dictionary segment to be noted for recognition for each category and the feature information on the character segment of the character image to be recognized corresponding to this point are Characters can be easily recognized by efficient comparison.

【0011】[0011]

【実施例】以下、本発明の実施例を図面に基づいて説明
する。図2は、本発明の実施例による文字認識装置のブ
ロック構成図である。図2において、20は文字画像入
力部、21はセグメント抽出部、22は対応関係判定
部、23は検査点検出部、24は候補決定部、25は辞
書である。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 2 is a block diagram of a character recognition device according to an embodiment of the present invention. 2, reference numeral 20 denotes a character image input unit, 21 denotes a segment extraction unit, 22 denotes a correspondence determination unit, 23 denotes an inspection point detection unit, 24 denotes a candidate determination unit, and 25 denotes a dictionary.

【0012】文字画像入力部20は、帳票等に書かれた
文字を白黒2値の2次元パターンの文字画像として入力
するところであり、帳票等に記入された文字を2次元パ
ターンのイメージである文字画像として入力するスキャ
ナ201と、スキャナ201から入力された文字画像を
白黒の2値画像に変換する2値化部202とで構成され
る。
The character image input section 20 is for inputting characters written on a form or the like as a black and white binary two-dimensional pattern character image, and converts the characters written on the form or the like into a two-dimensional pattern image. The scanner 201 includes a scanner 201 for inputting an image, and a binarizing unit 202 for converting a character image input from the scanner 201 into a black and white binary image.

【0013】セグメント抽出部21は、文字画像入力部
20で得られた文字の2値画像から文字セグメントを抽
出するところであり、輪郭線抽出部211と、端点検出
部212、セグメント分割部213とで構成されてい
る。図4は、文字セグメントの抽出を説明する図であ
る。図4の(A)は文字画像の2値画像であり、斜線を
施した部分が黒画素で表された文字部分を示しており、
図4の(B)は図4の(A)に示した2値画像から抽出
された輪郭線であり、点線部分が元の2値画像を示して
おり、図4の(C)は図4の(B)に示した輪郭線をセ
グメント(S1とS2)と端点部分(T1とT2)とに
分割した状態を示している。
The segment extracting section 21 is for extracting a character segment from the binary image of the character obtained by the character image input section 20, and includes a contour line extracting section 211, an end point detecting section 212, and a segment dividing section 213. It is configured. FIG. 4 is a diagram illustrating extraction of a character segment. FIG. 4A is a binary image of a character image, and a hatched portion indicates a character portion represented by black pixels.
FIG. 4B is a contour line extracted from the binary image shown in FIG. 4A, and the dotted line portion shows the original binary image, and FIG. 3B shows a state in which the contour shown in FIG. 3B is divided into segments (S1 and S2) and end points (T1 and T2).

【0014】輪郭線抽出部211では、文字画像入力部
20の2値化部202で得られた文字の2値画像上で黒
画素で表される文字部分の輪郭線を抽出し、端点検出部
212では、抽出された輪郭線から文字の書き始め、書
き終わり部分に相当する端点を検出する。図5は、端点
の検出を説明する図である。
The contour line extracting section 211 extracts a contour line of a character portion represented by a black pixel on the binary image of the character obtained by the binarizing section 202 of the character image input section 20, and detects an end point detecting section. At 212, an end point corresponding to a part where writing of a character starts and ends of writing is detected from the extracted outline. FIG. 5 is a diagram illustrating the detection of an end point.

【0015】図5に示すように、端点は輪郭線が急激に
変化する場所であり、輪郭線(S)上に一定間隔離れた
3点(A,B,C)をとり、その3点のうちで真ん中の
点(A)を頂点としてなす角の値(θ)が所定の値以下
である輪郭線領域として求める。セグメント分割部21
3では、検出された端点によって輪郭線をセグメントに
分割し、各文字画像毎に抽出されたセグメントを格納す
る。
As shown in FIG. 5, an end point is a place where the contour changes rapidly, and three points (A, B, C) are placed on the contour (S) at regular intervals, and the three points are defined. The value is determined as a contour line region in which the value of the angle (θ) formed with the middle point (A) as the vertex is equal to or less than a predetermined value. Segment dividing section 21
In step 3, the outline is divided into segments based on the detected end points, and the segments extracted for each character image are stored.

【0016】対応関係判定部22は、文字画像から抽出
された文字セグメント毎に、辞書25に格納されている
辞書セグメントとの対応関係を求めるところであり、代
表点決定部221と、角度変化検出部222と、ダイナ
ミック・プログラミング(DP)照合部223とで構成
されている。代表点決定部221では、セグメント抽出
部21のセグメント分割部213に格納された文字セグ
メント上に、DP照合に用いる代表点を一定距離毎にと
り、角度変化検出部222では、連続する3つの代表点
のなす角度を求め、各代表点での特徴量として、文字セ
グメントの最初の代表点から各代表点までの角度変化量
の累積値を算出する。
The correspondence determining section 22 determines the correspondence between the character segments extracted from the character image and the dictionary segments stored in the dictionary 25. The representative point determining section 221 and the angle change detecting section 222 and a dynamic programming (DP) collation unit 223. The representative point determining unit 221 sets representative points to be used for DP collation at regular intervals on the character segment stored in the segment dividing unit 213 of the segment extracting unit 21, and the angle change detecting unit 222 sets three consecutive representative points. Then, the accumulated value of the angle change from the first representative point of the character segment to each representative point is calculated as the characteristic amount at each representative point.

【0017】図6は、角度変化の検出を説明する図であ
る。図6において、輪郭線(S)上に任意の間隔で代表
点(A,B,C,・・・)をとり、点Aから点Bに引い
たベクトルABと、点Bから点Cに引いたベクトルBC
をつくり、ベクトルABとベクトルBCとのなす角(θ
2)が点Bでの角度変化となる。
FIG. 6 is a diagram for explaining detection of a change in angle. In FIG. 6, representative points (A, B, C,...) Are set at arbitrary intervals on the contour line (S), and a vector AB drawn from point A to point B and a vector AB drawn from point B to point C. Vector BC
And the angle between the vector AB and the vector BC (θ
2) is an angle change at the point B.

【0018】角度変化の初期値である輪郭線(S)の一
端点Aでの角度変化は、文字の重心(G)から点Aに引
いたベクトルGAとベクトルABとのなす角(θ1)と
し、各代表点での特徴量は、角度変化の初期値を有する
点Aから各代表点までの角度変化を累積した値で表し、
例えば、点Bでの特徴量はθ1+θ2となる。DP照合
部223では、代表点決定部221で選択した文字セグ
メントの代表点と辞書25に格納されている辞書セグメ
ントの代表点との間で、角度変化検出部222で算出し
た特徴量と辞書25に格納されている辞書セグメントの
代表点の特徴量との差の絶対値を距離とした場合に最も
距離の近い代表点を対応させる1次元のDP照合を行
う。
The angle change at the end point A of the outline (S), which is the initial value of the angle change, is defined as the angle (θ1) between the vector GA and the vector AB obtained by subtracting the point A from the center of gravity (G) of the character. , The characteristic amount at each representative point is represented by a value obtained by accumulating the angle change from the point A having the initial value of the angle change to each representative point,
For example, the feature value at point B is θ1 + θ2. The DP matching unit 223 compares the characteristic amount calculated by the angle change detection unit 222 between the representative point of the character segment selected by the representative point determination unit 221 and the representative point of the dictionary segment stored in the dictionary 25 and the dictionary 25. When the absolute value of the difference between the feature amount of the representative point of the dictionary segment and the feature amount stored in the dictionary segment is defined as the distance, one-dimensional DP matching is performed so that the closest representative point is associated.

【0019】図7は、セグメントの対応関係を説明する
図である。図7の(A)が文字セグメントであり、白ま
るが代表点を表し、図7の(B)が辞書セグメントであ
り、黒まるが代表点を表しており、矢印は両セグメント
上の代表点が対応していることを示している。検査点検
出部23は、対応関係決定部22で求めた対応関係を基
に、文字セグメント上に検査点を求めて検査情報を計算
するところであり、検査点決定部231と、検査情報検
出部232とで構成されている。
FIG. 7 is a diagram for explaining the correspondence between segments. FIG. 7A shows a character segment, white circles represent representative points, and FIG. 7B a dictionary segment, black circles represent representative points, and arrows represent representative points on both segments. Indicates that they are compatible. The inspection point detection unit 23 is to calculate inspection information by finding inspection points on the character segments based on the correspondence determined by the correspondence determination unit 22. The inspection point determination unit 231 and the inspection information detection unit 232 It is composed of

【0020】検査点決定部231では、図7の(D)に
示す辞書セグメント上に予め定められている基準点(d
1,d2)に対応する図7の(C)に示す文字セグメン
ト上の代表点を検査点(c1,c2)とする。DP照合
では、多対多の対応関係を求めることができるので、辞
書セグメント上の基準点に対応する文字セグメント上の
代表点が1点の場合には、その代表点を検査点とし、辞
書セグメント上の基準点に対して文字セグメント上の複
数の代表点が対応する場合には、端点に近い点や対応す
る複数の代表点の真ん中の点といった予め設定した条件
によって複数の代表点の中から1点を検査点とする。
In the inspection point determination unit 231, a reference point (d) set in advance on the dictionary segment shown in FIG.
The representative point on the character segment shown in FIG. 7C corresponding to (1, d2) is defined as the inspection point (c1, c2). In the DP matching, a many-to-many correspondence can be obtained. Therefore, when the number of the representative point on the character segment corresponding to the reference point on the dictionary segment is one, the representative point is set as the inspection point, and the dictionary segment is checked. When a plurality of representative points on the character segment correspond to the reference point above, the plurality of representative points are selected from among the plurality of representative points according to a preset condition such as a point close to an end point or a center point of the corresponding plurality of representative points. One point is an inspection point.

【0021】図8は、検査点決定の処理を示すフローチ
ャートである。図8において、まず、複数の基準点から
特定の基準点を指定する番号(i)の値を1に設定し
(S80)、辞書セグメント上の代表点の中から基準点
diを選定し(S81)、続いて、基準点diに対応し
ている文字セグメント上の代表点を検査点ciとして決
定する(S82)。
FIG. 8 is a flowchart showing a process of determining an inspection point. In FIG. 8, first, the value of the number (i) designating a specific reference point from a plurality of reference points is set to 1 (S80), and a reference point di is selected from the representative points on the dictionary segment (S81). Then, a representative point on the character segment corresponding to the reference point di is determined as the inspection point ci (S82).

【0022】次に、未処理の基準点がまだあるか判定し
(S83)、未処理の基準点が無い場合には、検査点決
定の処理を終了し、未処理の基準点が有る場合には、基
準点を指定する番号をi+1とし(S84)、その後
は、S81で示す処理に戻り、続くS82とS83の処
理を同様に繰り返す。検査情報検出部232では、文字
セグメント上の検査点での検査情報として、例えば、1
つの検査点に対しては、その検査点が文字画像全体に対
し、どの位置にあるかという個々の検査点の絶対的位置
情報や、2つの検査点に対しては、その検査点間の距離
や方向といった相対的位置情報や、2つ以上の検査点に
対しては、その検査点間の角度変化や直線性等の情報を
算出する。
Next, it is determined whether there is an unprocessed reference point (S83). If there is no unprocessed reference point, the inspection point determination process is terminated. Sets the number designating the reference point to i + 1 (S84), and thereafter returns to the process shown in S81 and repeats the subsequent processes of S82 and S83 in the same manner. In the inspection information detection unit 232, as the inspection information at the inspection point on the character segment, for example, 1
For one inspection point, the absolute position information of each inspection point indicating the position of the inspection point with respect to the entire character image, and for two inspection points, the distance between the inspection points For relative position information such as the direction and direction, and for two or more inspection points, information such as angle change and linearity between the inspection points is calculated.

【0023】候補決定部24は、基準点検査部23で求
めた文字セグメント上の検査点の検査情報に基づいて入
力文字画像のカテゴリを決定するところであり、検査情
報判定部241と、認識結果出力部242とで構成され
ている。検査情報判定部241では、検査点検出部23
の検査情報検出部232で算出された検査情報と、辞書
25に予め格納されている辞書セグメント上の基準点の
検査情報を比較し、文字セグメント上の検査点が辞書2
5に予め格納されている判定条件を満たすか満たさない
かを判定する。
The candidate deciding section 24 decides the category of the input character image based on the inspection information of the inspection point on the character segment obtained by the reference point inspecting section 23. 242. In the inspection information determination unit 241, the inspection point detection unit 23
The inspection information calculated by the inspection information detecting unit 232 is compared with the inspection information of the reference point on the dictionary segment stored in the dictionary 25 in advance.
It is determined whether the determination condition stored in advance in step 5 is satisfied or not satisfied.

【0024】判定条件としては、例えば、図7の(C)
に示した文字セグメント上の検査点c1から文字セグメ
ントに沿ってc2までの角度変化を検査情報とした場合
に、この角度変化が60度以上である文字セグメントの
文字画像が、対応させた辞書セグメントの文字候補
「2」のカテゴリに属する、というものである。認識結
果出力部242では、各辞書セグメントとの判定に基づ
いて、判定条件を満たした辞書セグメントのカテゴリを
入力画像の認識結果として決定し、出力する。
The determination condition is, for example, as shown in FIG.
In the case where the angle change from the inspection point c1 on the character segment to c2 along the character segment is used as the inspection information, the character image of the character segment whose angle change is 60 degrees or more is assigned to the corresponding dictionary segment. Belongs to the category of the character candidate "2". The recognition result output unit 242 determines a category of the dictionary segment that satisfies the determination condition as a recognition result of the input image based on the determination of each dictionary segment, and outputs the category.

【0025】図9は、認識候補決定の処理を示すフロー
チャートである。図9において、まず、複数の検査情報
から特定の検査情報を指定する番号(j)の値を1に設
定し(S90)、辞書セグメント上の任意の基準点di
における複数の検査情報の中から検査情報jを選定し
(S91)、続いて、この基準点diに対応している文
字セグメント上の検査点ciにおける検査情報jを算出
する(S92)。
FIG. 9 is a flowchart showing the process of determining a recognition candidate. In FIG. 9, first, a value of a number (j) designating specific test information from a plurality of test information is set to 1 (S90), and an arbitrary reference point di on the dictionary segment is set.
The inspection information j is selected from the plurality of inspection information in (S91), and the inspection information j at the inspection point ci on the character segment corresponding to the reference point di is calculated (S92).

【0026】次に、算出された検査情報jと辞書セグメ
ント上の基準点diにおける検査情報jの判定条件とを
比較して判定条件を満たすか判定し(S93)、判定条
件を満たさない場合には、文字セグメントの認識結果は
この辞書セグメントのカテゴリではないと判断し(S9
4)、続いて、認識候補決定処理を行っていない次の辞
書を選択し(S95)、処理を行っている特定の辞書と
の認識候補決定の処理を終了する。
Next, the calculated inspection information j is compared with the determination condition of the inspection information j at the reference point di on the dictionary segment to determine whether or not the determination condition is satisfied (S93). Determines that the recognition result of the character segment is not the category of the dictionary segment (S9).
4) Subsequently, the next dictionary that has not been subjected to the recognition candidate determination processing is selected (S95), and the processing of the recognition candidate determination with the specific dictionary being processed is terminated.

【0027】判定条件を満たす場合には、未処理の検査
情報があるか判定し(S96)、未処理の検査情報が無
い場合には、文字セグメントの認識結果はこの辞書セグ
メントのカテゴリであると判断し(S97)、続いて、
認識結果を出力し(S98)、認識候補決定の処理を終
了する。一方、未処理の検査情報が有る場合には、検査
情報を指定する番号をj+1とし(S99)、その後
は、S91で示す処理に戻り、続くS92〜S98の処
理を同様に繰り返す。
If the determination condition is satisfied, it is determined whether there is unprocessed inspection information (S96). If there is no unprocessed inspection information, the recognition result of the character segment is determined to be the category of this dictionary segment. Judgment (S97),
The recognition result is output (S98), and the recognition candidate determination process ends. On the other hand, when there is unprocessed inspection information, the number designating the inspection information is set to j + 1 (S99), and thereafter, the process returns to S91, and the subsequent processes of S92 to S98 are similarly repeated.

【0028】辞書25は、入力された文字画像のカテゴ
リを特定するための情報である辞書セグメント、基準
点、検査情報、判定条件を、それぞれ辞書セグメント格
納部251、基準点格納部252、検査点情報格納部2
53、判定条件格納部254に各カテゴリ毎に格納する
ところである。なお、図1における辞書10、対応関係
決定手段11、検査点検出手段12、候補決定手段13
は、図2における辞書25、対応関係判定部22、検査
点検出部23、候補決定部24にそれぞれ対応してい
る。
The dictionary 25 stores a dictionary segment, a reference point, inspection information, and a judgment condition, which are information for specifying a category of an input character image, in a dictionary segment storage unit 251, a reference point storage unit 252, and an inspection point, respectively. Information storage unit 2
53, to store in the judgment condition storage unit 254 for each category. Note that the dictionary 10, the correspondence determining means 11, the inspection point detecting means 12, the candidate determining means 13 in FIG.
Respectively correspond to the dictionary 25, the correspondence determination unit 22, the inspection point detection unit 23, and the candidate determination unit 24 in FIG.

【0029】以上の構成において、文字認識装置の処理
動作のフローを説明する。図3は、本発明の実施例の文
字認識装置の処理動作を示すフローチャートである。ま
ず、帳票等を文字画像入力部20のスキャナ201で走
査して入力された文字画像に対し、2値化部202にお
いて白黒2値の画像に2値化し(S30)、セグメント
抽出部21において、2値画像から文字セグメントを抽
出する処理(S31)を行う。
In the above configuration, a flow of processing operation of the character recognition device will be described. FIG. 3 is a flowchart showing a processing operation of the character recognition device according to the embodiment of the present invention. First, the form or the like is scanned by the scanner 201 of the character image input unit 20 and the input character image is binarized into a black and white binary image by the binarization unit 202 (S30). A process of extracting a character segment from the binary image (S31) is performed.

【0030】そして、辞書セグメント格納部に格納され
ている複数の辞書セグメントから、文字セグメントとの
対応関係処理を行っていない任意の辞書セグメントを選
択し(S32)、対応関係判定部22において、選択さ
れた辞書セグメントと文字セグメントとの対応関係処理
を行う(S33)。対応関係処理が終わると、検査点検
出部23において、文字セグメント上にとった代表点の
中から検査点を決定し、検査情報を算出する検査点決定
処理を行う(S34)。
Then, from the plurality of dictionary segments stored in the dictionary segment storage unit, an arbitrary dictionary segment which has not been subjected to the correspondence relationship processing with the character segment is selected (S32). The correspondence process between the dictionary segments and the character segments is performed (S33). After the correspondence processing, the inspection point detection unit 23 determines an inspection point from the representative points taken on the character segment, and performs an inspection point determination process of calculating inspection information (S34).

【0031】次に、検査情報に基づき文字セグメントと
辞書セグメントとを比較判定して文字セグメントが認識
候補である辞書セグメントと一致するかの候補決定処理
を行い(S35)、続いて、候補が決定したか判定し
(S36)、候補が決定した場合には、認識結果を出力
して入力された文字画像の認識処理を終了する。一方、
S32で選択した辞書セグメントが候補として決定され
なければ、文字セグメントとの対応関係処理を行ってい
ない未処理の辞書があるか判定し(S37)、未処理の
辞書がある場合には、辞書セグメントを選択するS32
に戻り、続くS33〜S36の処理を同様に繰り返す。
Next, a comparison is made between the character segment and the dictionary segment based on the inspection information, and a candidate determination process is performed to determine whether the character segment matches a dictionary segment that is a recognition candidate (S35). It is determined whether or not the recognition has been performed (S36). If the candidate is determined, the recognition result is output and the recognition processing of the input character image is terminated. on the other hand,
If the dictionary segment selected in S32 is not determined as a candidate, it is determined whether there is an unprocessed dictionary that has not been subjected to the correspondence processing with the character segment (S37). S32 to select
And the subsequent steps S33 to S36 are repeated in the same manner.

【0032】また、対応関係処理を行っていない未処理
の辞書が無い場合には、入力された文字画像は認識不可
能と判断し、認識不可能という認識結果を出力して認識
処理を終了する。
If there is no unprocessed dictionary for which no correspondence processing has been performed, the input character image is determined to be unrecognizable, a recognition result indicating that recognition is not possible is output, and the recognition processing ends. .

【0033】[0033]

【発明の効果】以上説明したように、本発明によれば、
認識対象の文字画像と辞書を照合する際に、照合する辞
書毎に入力された文字画像との対応関係を求め、特徴情
報を比較する検査点を指定するので、手書き文字等の変
形に対して安定した認識率を得ることができるという効
果がある。
As described above, according to the present invention,
When matching a recognition target character image with a dictionary, the correspondence between the input character image and the input character image is determined for each dictionary to be compared, and an inspection point for comparing feature information is specified. There is an effect that a stable recognition rate can be obtained.

【0034】また、カテゴリ毎に照合すべき箇所を辞書
セグメント上に設定し、対応する認識対象の文字セグメ
ント上の検査点における特徴情報を算出して認識判定す
ることにより、類似した文字の認識精度の向上を大幅に
図ることができる。
Further, a place to be collated for each category is set on the dictionary segment, and the characteristic information at the inspection point on the corresponding character segment to be recognized is calculated to determine the recognition. Can be greatly improved.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の原理ブロック図である。FIG. 1 is a principle block diagram of the present invention.

【図2】本発明の実施例による文字認識装置のブロック
構成図である。
FIG. 2 is a block diagram of a character recognition device according to an embodiment of the present invention.

【図3】本発明の実施例の文字認識装置の処理動作を示
すフローチャートである。
FIG. 3 is a flowchart illustrating a processing operation of the character recognition device according to the embodiment of the present invention.

【図4】文字セグメントの抽出を説明する図である。FIG. 4 is a diagram illustrating extraction of a character segment.

【図5】端点の検出を説明する図である。FIG. 5 is a diagram illustrating detection of an end point.

【図6】角度変化の検出を説明する図である。FIG. 6 is a diagram illustrating detection of an angle change.

【図7】セグメントの対応関係を説明する図である。FIG. 7 is a diagram illustrating the correspondence between segments.

【図8】検査点決定の処理を示すフローチャートであ
る。
FIG. 8 is a flowchart showing a process of determining an inspection point.

【図9】認識候補決定の処理を示すフローチャートであ
る。
FIG. 9 is a flowchart illustrating a process of determining a recognition candidate.

【図10】従来の文字認識装置のブロック構成図であ
る。
FIG. 10 is a block diagram of a conventional character recognition device.

【図11】文字画像の幾何学的形状による文字認識を説
明する図である。
FIG. 11 is a diagram illustrating character recognition based on a geometric shape of a character image.

【符号の説明】[Explanation of symbols]

10・・・辞書 11・・・対応関係決定手段 12・・・検査点検出手段 13・・・候補決定手段 DESCRIPTION OF SYMBOLS 10 ... Dictionary 11 ... Correspondence determination means 12 ... Inspection point detection means 13 ... Candidate determination means

───────────────────────────────────────────────────── フロントページの続き (72)発明者 秋元 晴雄 神奈川県川崎市中原区上小田中1015番地 富士通株式会社内 (56)参考文献 特開 昭58−66176(JP,A) 特開 平3−282896(JP,A) 特開 昭61−190682(JP,A) 特開 昭61−198381(JP,A) 特開 平2−217981(JP,A) 特開 昭58−163080(JP,A) 「電子通信学会論文誌」Vol.J67 −D No.3 p.351−358(1984) 山田博三”輪郭DP整合法と手書漢字認 識への適用" (58)調査した分野(Int.Cl.7,DB名) G06K 9/46 - 9/62 JICSTファイル(JOIS)──────────────────────────────────────────────────続 き Continuation of the front page (72) Inventor Haruo Akimoto 1015 Kamikodanaka, Nakahara-ku, Kawasaki City, Kanagawa Prefecture Inside Fujitsu Limited (56) References JP-A-58-66176 (JP, A) JP-A-3-282896 (JP, A) JP-A-61-190682 (JP, A) JP-A-61-198381 (JP, A) JP-A-2-217981 (JP, A) JP-A-58-163080 (JP, A) IEICE Transactions, Vol. J67-D No. 3 p. 351-358 (1984) Hirozo Yamada "Contour DP Matching Method and Application to Handwritten Kanji Recognition" (58) Fields investigated (Int. Cl. 7 , DB name) G06K 9/46-9/62 JICST file (JOIS)

Claims (1)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 文字画像から抽出された文字輪郭線から
端部を切断することにより得られた線分を辞書セグメン
トとして格納し、且つ前記辞書セグメント上にとった基
準点における辞書セグメントの特徴を当該文字画像の辞
書特徴情報として格納する辞書と、 認識対象となる文字の文字画像から抽出された文字輪郭
線から端部を切断することにより得られた線分を文字セ
グメントとして、前記文字セグメント上の特定の代表点
から各代表点までの角度変化量の累積値を用いたDP照
合法により、前記文字セグメント上の代表点と、前記辞
書セグメント上の代表点との対応関係をとる対応関係決
定手段と、 前記対応関係決定手段で得られた対応関係に基づいて、
前記辞書セグメント上の基準点に対応する文字セグメン
ト上の点を検査点として設定し、なお且つ、前記基準点
における当該辞書セグメントの辞書特徴情報に対応する
前記検査点における当該文字セグメントの特徴情報を抽
出する検査点検出手段と、 前記検査点検出手段で抽出された文字セグメントの特徴
情報を、辞書セグメント上の対応する基準点の辞書特徴
情報と比較して前記認識対照となる文字画像の認識候補
を決定する候補決定手段とを備えることを特徴とする文
字認識装置。
1. From a character contour extracted from a character image
A dictionary that stores a line segment obtained by cutting off the end as a dictionary segment, and stores the characteristics of the dictionary segment at reference points taken on the dictionary segment as dictionary characteristic information of the character image; Character outline extracted from the character image of the character
The line segment obtained by cutting the end from the line
A specific representative point on the character segment
Using the cumulative value of the angle change from the point to each representative point
The legal, and the representative point on the character segment, the correspondence determining means to take correspondence between the representative point on the dictionary segment, based on the correspondence relationship obtained by the relationship determining means,
A point on the character segment corresponding to the reference point on the dictionary segment is set as an inspection point, and the characteristic information of the character segment at the inspection point corresponding to the dictionary characteristic information of the dictionary segment at the reference point An inspection point detection unit to be extracted; and a recognition candidate for the character image to be recognized by comparing the feature information of the character segment extracted by the inspection point detection unit with dictionary feature information of a corresponding reference point on the dictionary segment. And a candidate deciding means for deciding a character.
JP09319493A 1993-04-20 1993-04-20 Character recognition device Expired - Fee Related JP3250317B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP09319493A JP3250317B2 (en) 1993-04-20 1993-04-20 Character recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP09319493A JP3250317B2 (en) 1993-04-20 1993-04-20 Character recognition device

Publications (2)

Publication Number Publication Date
JPH06309501A JPH06309501A (en) 1994-11-04
JP3250317B2 true JP3250317B2 (en) 2002-01-28

Family

ID=14075778

Family Applications (1)

Application Number Title Priority Date Filing Date
JP09319493A Expired - Fee Related JP3250317B2 (en) 1993-04-20 1993-04-20 Character recognition device

Country Status (1)

Country Link
JP (1) JP3250317B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6104833A (en) 1996-01-09 2000-08-15 Fujitsu Limited Pattern recognizing apparatus and method

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
「電子通信学会論文誌」Vol.J67−D No.3 p.351−358(1984)山田博三"輪郭DP整合法と手書漢字認識への適用"

Also Published As

Publication number Publication date
JPH06309501A (en) 1994-11-04

Similar Documents

Publication Publication Date Title
US5410611A (en) Method for identifying word bounding boxes in text
JP3065104B2 (en) Fingerprint matching device
US20020021840A1 (en) Apparatus for extracting ruled line from multiple-valued image
CN101957919B (en) Character recognition method based on image local feature retrieval
US20080298648A1 (en) Method and system for slap print segmentation
US9959475B2 (en) Table data recovering in case of image distortion
CN112329756A (en) Method and device for extracting seal and recognizing characters
EP1519302A2 (en) System and method for detecting a hand-drawn object in electronic ink input
JPH01253077A (en) Detection of string
CN112613506A (en) Method and device for recognizing text in image, computer equipment and storage medium
CN111738979A (en) Automatic certificate image quality inspection method and system
CN113011426A (en) Method and device for identifying certificate
CN114693917B (en) A data enhancement method for license plate recognition
EP0899679A2 (en) Line direction deciding device, image inclination dedecting device and image inclination correction device
US6671417B1 (en) Character recognition system
Ahmed et al. An advanced fingerprint matching using minutiae-based indirect local features
JP3250317B2 (en) Character recognition device
JP3558493B2 (en) Paper alignment device, paper alignment method, and computer-readable recording medium recording paper alignment program
KR100957508B1 (en) Optical character recognition system and method
CN116311292A (en) Document image information extraction method, device, computer equipment and storage medium
JP3476595B2 (en) Image area division method and image binarization method
JP4188342B2 (en) Fingerprint verification apparatus, method and program
JP2006330872A (en) Fingerprint verification apparatus, method and program
JP3428504B2 (en) Character recognition device
JPH05242224A (en) Fingerprint matching device

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20011016

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081116

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081116

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091116

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101116

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101116

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111116

Year of fee payment: 10

LAPS Cancellation because of no payment of annual fees