JPH01166276A - Image recognizing method - Google Patents

Image recognizing method

Info

Publication number
JPH01166276A
JPH01166276A JP62325782A JP32578287A JPH01166276A JP H01166276 A JPH01166276 A JP H01166276A JP 62325782 A JP62325782 A JP 62325782A JP 32578287 A JP32578287 A JP 32578287A JP H01166276 A JPH01166276 A JP H01166276A
Authority
JP
Japan
Prior art keywords
image
contour
area
histogram
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP62325782A
Other languages
Japanese (ja)
Inventor
Keiji Kojima
啓嗣 小島
Hiroshi Nakayama
寛 中山
Hajime Sato
元 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP62325782A priority Critical patent/JPH01166276A/en
Publication of JPH01166276A publication Critical patent/JPH01166276A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To improve the efficiency of matching with no useless candidate remaining in the result of recognition and to give no load on a sort module for result of recognition by checking the difference of features between an input image and a dictionary for each shape forming characters, etc., and then checking the overall difference of features. CONSTITUTION:The characters, etc., of an original are optically read and stored in an original image area 31 of a RAM 4 as a binary image where white picture elements are shown in '0' with the black picture elements shown in '1' respectively. The white or black picture elements of the contour part are tracked clockwise or counterclockwise by means of a CPU 2 for the original image stored in the area 41. Thus the direction code of the contour part is extracted and added to a 2-dimensional contour image and this contour image is stored in a contour image area 42. At the same time, a 1-dimensional direction code train is stored in a direction code storing area 43. Then the dividing lines which cross vertically and horizontally the contour image stored in the area 42 are decided. The image contour part is divided with said dividing lines for extraction of a type. Then the contour area of each form is equally divided into (n) pieces and a histogram is produced from the direction code of the area 43 and compared with a dictionary memory 5.

Description

【発明の詳細な説明】 〔技術分野〕  。[Detailed description of the invention] 〔Technical field〕 .

本発明は、光学文字読取装置などにおける画像認識方法
に関する。
The present invention relates to an image recognition method in an optical character reading device or the like.

〔従来技術〕[Prior art]

従来、光学文字読取装置などにおける文字等の入力画像
の認識方法としては、入力画像を2次元的に領域分割し
、各領域で方向コードのヒストグラムを生成して当該入
力画像の特徴量とし、これとあらかじめ辞書に登録され
ている同様の特徴量のマツチングをとり、その最小距離
値をもつパターンを認識結果とする方法が知られている
。しかし、この方法では、入力画像を対象に2次元に領
域分割を行うため、文字の形状変化に敏感で、特にマル
チフォントを対象にした場合、各フォントに辞書を必要
とし有効ではない。
Conventionally, as a method for recognizing input images such as characters in optical character reading devices, etc., the input image is divided into regions two-dimensionally, a histogram of direction codes is generated in each region, and this is used as the feature quantity of the input image. A known method is to match similar feature amounts registered in advance in a dictionary and use the pattern with the minimum distance value as the recognition result. However, since this method performs two-dimensional region segmentation on the input image, it is sensitive to changes in character shape, and is not effective, especially when dealing with multiple fonts, as it requires a dictionary for each font.

〔目 的] 本発明の目的は、光学的文字読取装置などにおいて、文
字の形状変化に有効で、かつ、簡単な認識方法を提供す
ることにある。
[Objective] An object of the present invention is to provide a simple recognition method that is effective for character shape changes in optical character reading devices and the like.

〔構 成〕〔composition〕

画像の上下あるいは左右にある規則で設定された各々の
分割線によって画像の輪郭部を分割し、形状(タイプ)
を抽出し、この各形状の領域をn等分(nは1以上の整
数)して方向コードのヒストグラムを生成する。その後
、まず1画像の輪郭部の形状単位で、作成されたヒスト
グラムとあらかじめ辞書に登録されているヒストグラム
とを照合する。これを全形状について終了した時点で、
次に、距離演算のゼロ加算値(入力画像あるいは辞書の
一方の方向コードが存在しない部分の距離加算値)のト
ータル値あるいはゼロカウント値(入力画像あるいは辞
書の一方向のコードが存在しない部分の出現回数)のト
ータル値と適当な閾値とを比較し、認識結果の候補とし
て残すかどうかチエツクする。
The outline of the image is divided by dividing lines set according to the rules on the top and bottom or left and right of the image, and the shape (type)
is extracted, and the region of each shape is divided into n equal parts (n is an integer of 1 or more) to generate a histogram of direction codes. After that, first, the created histogram is compared with the histogram registered in the dictionary in advance for each shape of the outline of one image. When this is completed for all shapes,
Next, the total value of the zero addition value of the distance calculation (the distance addition value of the part of the input image or dictionary where one direction code does not exist) or the zero count value (the distance addition value of the part of the input image or dictionary where one direction code does not exist) is calculated. The total value of the number of appearances) is compared with an appropriate threshold value, and it is checked whether to leave it as a candidate for the recognition result.

本発明では、文字等を構成している各形状単位で入力画
像と辞書との特徴差をチエツクし、さらに全体的な特徴
差をチエツクするので、効率のよいマツチングが行え、
認識結果に無駄な候補が残らない。
In the present invention, the feature difference between the input image and the dictionary is checked for each shape unit that constitutes a character, etc., and the overall feature difference is also checked, so that efficient matching can be performed.
No useless candidates remain in the recognition results.

〔実施例〕〔Example〕

以下、本発明の実施例について図面により説明する。 Embodiments of the present invention will be described below with reference to the drawings.

第1図は本発明を実現するハードウェア構成の一例のブ
ロック図であり、第2図はその中央処理装置i!2の概
略処理フローを示したものである。
FIG. 1 is a block diagram of an example of a hardware configuration for realizing the present invention, and FIG. 2 is a block diagram of the central processing unit i! 2 shows a schematic processing flow of step 2.

スキャナ1は原稿上の文字等を光学的に読取り、それを
2値画像(例えば、白画素は′″0″、黒画素は“1″
)としてデータメモリ(RAM)4の原画像領域41に
格納する。中央処理装置2は、まず、原画像領域41の
原画像について、その輪郭部白画素あるいは黒画素を左
回りあるいは右回りに追跡して輪郭部の方向コードを抽
出し、該方向コードの付与された二次元の輪郭画像を輪
郭画像領域42に格納し、また、−次元の方向コード列
それ自体は方向コード格納領域43に格納する(ステッ
プ101)。次に、中央処理装置i!2は、輪郭画像領
域42の方向コードの付与された輪郭画像について、該
画像の上下あるいは左右の所定位置で該画像と交叉する
分割線を、所定の規則にもとづいて決定する(ステップ
1o2)。次に、中央処理装置2は、該分割線を用いて
画像の輪郭部を分割し、当該画像の形状(タイプ)を抽
出する(ステップ103)、次に、中央処理袋g12は
、各形状の輪郭部領域をn等分(一般にnは1以上の整
数)し、方向コード格納領域43の方向コード列により
各分割領域について方向コードのヒストグラムを生成し
、ヒストグラム格納領域44に格納する(ステップ1o
4)。次に、中央処理装置2は、生成したヒストグラム
で辞書メモリ5を参照して認識結果を得る(ステップ1
05)。
The scanner 1 optically reads characters, etc. on a document and converts them into a binary image (for example, a white pixel is ``0'', a black pixel is ``1'').
) in the original image area 41 of the data memory (RAM) 4. First, the central processing unit 2 extracts the direction code of the contour by tracing the white pixels or black pixels of the contour of the original image in the original image area 41 in a counterclockwise or clockwise direction, and then extracts the direction code of the contour. The two-dimensional contour image obtained is stored in the contour image area 42, and the -dimensional direction code string itself is stored in the direction code storage area 43 (step 101). Next, the central processing unit i! Step 2 determines, based on a predetermined rule, dividing lines that intersect the contour image of the contour image area 42 to which the direction code has been added at predetermined positions on the top and bottom or left and right of the image (step 1o2). Next, the central processing unit 2 divides the outline of the image using the dividing line and extracts the shape (type) of the image (step 103). The contour area is divided into n equal parts (n is generally an integer of 1 or more), a direction code histogram is generated for each divided area using the direction code string in the direction code storage area 43, and is stored in the histogram storage area 44 (step 1o).
4). Next, the central processing unit 2 refers to the dictionary memory 5 using the generated histogram to obtain a recognition result (step 1
05).

プログラムメモリ(ROM)3は、上記中央処理装置2
の処理に必要なプログラムを格納している。以下、各処
理について詳述する。
A program memory (ROM) 3 includes the central processing unit 2
Stores the programs necessary for processing. Each process will be explained in detail below.

曵」」■(支互 二\で、画像輪郭部は、各追跡点の白画素あるい黒画素
に対し、次の追跡点への移動方向示す方向コード(これ
を移動方向コードという)を付与して記述するものとす
る。
In the image contour section, a direction code (this is called a movement direction code) indicating the direction of movement to the next tracking point is assigned to the white pixel or black pixel of each tracking point. shall be described as follows.

第3図は追跡点の移動方向と方向コードの関係を示した
ものである。即ち、注目点の画素の位置(座標)を位置
ベクトルIPと見れば、次の追跡点への移動は、第3図
(a)に示す4つの単位ベクトル(移動方向ベクトル)
ΔIPで表現され、移動先(次の追跡点)の座標は、注
目点の位置ベクトルIPに単位ベクトルΔIPを加えた
IP+ΔIPで表現される。これら4つの単位ベクトル
に第3図(b)に示す移動方向コードを割当て、該方向
コードにより画像輪郭部を記述するのである。なお、こ
れについては特願昭62−20289号に詳述されてい
る。
FIG. 3 shows the relationship between the moving direction of the tracking point and the direction code. In other words, if the position (coordinates) of the pixel of the point of interest is regarded as the position vector IP, movement to the next tracking point is determined by the four unit vectors (movement direction vectors) shown in Fig. 3(a).
The coordinates of the movement destination (next tracking point) are expressed as IP+ΔIP, which is the sum of the unit vector ΔIP and the position vector IP of the point of interest. The moving direction codes shown in FIG. 3(b) are assigned to these four unit vectors, and the image outline is described by the direction codes. This is detailed in Japanese Patent Application No. 62-20289.

分1lu1わ[1 こ\では、横方向の分割線を画像の上下に設定するもの
とする。これは移動方向コード毎の水平方向射影を使用
し、その#1.#3の移動方向コード(縦方向コード)
の射影が一致する位置を上下両端よりそれぞれ探して、
該位置より横方向に線(領域分割線)を引いて実現する
Min1lu1wa[1 Here, horizontal dividing lines are set at the top and bottom of the image. This uses a horizontal projection for each movement direction code, #1. #3 Movement direction code (vertical direction code)
Find the position where the projection of matches from both the upper and lower ends,
This is achieved by drawing a line (region dividing line) laterally from the position.

これの具体例を第4図に示す。第4図(a)は文字「S
」の輪郭部白画素を左回りに追跡して移動方向コードを
付与した輪郭画像を示している。
A concrete example of this is shown in FIG. Figure 4(a) shows the letter “S”
'' shows a contour image in which the white pixels of the contour part are traced counterclockwise and a movement direction code is assigned.

これの#1〜#4の移動方向コード毎の水平方向の射影
を求めると第4図(b)のようになる、第4図(b)の
水平方向射影は次のようにして求めたものである。例え
ば1ラインの場合、コード#1は1個、コード#2. 
#3は無し、コード#4は5個であり、射影をコード#
1.#3.$2゜#4の順に示すと1.O,0,5とな
る。ライン2〜22の射影についても同様である。第4
図中のCUT−Yl、CUT−Y2が求まった上下の領
域分割線をそれぞれ示している。
If we calculate the horizontal projection for each movement direction code #1 to #4, we will get something like Figure 4(b).The horizontal projection in Figure 4(b) was calculated as follows. It is. For example, in the case of one line, there is one code #1, one code #2.
#3 is none, code #4 is 5, and the projection is code #
1. #3. In order of $2゜#4, 1. It becomes O, 0, 5. The same applies to the projections of lines 2 to 22. Fourth
The upper and lower area dividing lines from which CUT-Yl and CUT-Y2 in the figure were determined are shown, respectively.

第5図は本領域分割線決定アルゴリズムのフローチャー
トで、図(a)は上方の領域分割線CIT−Y1の決定
アルゴリズム、図(b)は下方の領域分割線CUT−Y
2の決定アルゴリズムを示している。上方の領域分割線
の決定アルゴリズムと下方の領域分割線の決定アルゴリ
ズムとは対称をなしているので、二\では上方の領域分
割線CUT−Ylの決定についてのみ述べることにする
FIG. 5 is a flowchart of the area dividing line determination algorithm, in which figure (a) is the algorithm for determining the upper area dividing line CIT-Y1, and figure (b) is the lower area dividing line CUT-Y.
2 is shown. Since the algorithm for determining the upper area dividing line and the algorithm for determining the lower area dividing line are symmetrical, only the determination of the upper area dividing line CUT-Yl will be described in Section 2.

下方の領域分割線CUT−Y2の決定はこれから容易に
推洞可能である。
The lower region dividing line CUT-Y2 can be easily determined from this.

第5図(a)において、処理201は領域分割線CI 
T−Y 1を探すための範囲の終了点を決定するもので
ある。これは文字の肉厚を検出することに相当する。第
4図(a)の例の場合、移動方向コード#2の横方向の
射影がゼロでなくなる点はライン4で、これを(LIM
+1)とし、その1つ前の位置(ライン3)を領域分割
線CUT−Y1を探す範囲の終了点LIMIとする。
In FIG. 5(a), a process 201 is performed using the area dividing line CI.
This determines the end point of the range for searching for TY1. This corresponds to detecting the thickness of characters. In the case of the example in FIG. 4(a), the point at which the horizontal projection of movement direction code #2 is no longer zero is line 4, which is defined as (LIM
+1), and the previous position (line 3) is set as the end point LIMI of the range in which the area dividing line CUT-Y1 is searched.

処理202は領域分割線CUT−Y1を探すための範囲
の開始点を決定するものである。これは移動方向コード
#1と#3の横方向の射影がともにノンゼロとなる位置
を求めることを意味し、文字領域の上端を求めることに
相当する。第4図(a)の例では、ライン2が開始点と
なる。
Processing 202 is to determine the starting point of the range for searching for the area dividing line CUT-Y1. This means finding a position where the horizontal projections of movement direction codes #1 and #3 are both non-zero, and corresponds to finding the upper end of the character area. In the example of FIG. 4(a), line 2 is the starting point.

処理203,204は領域分割線決定のための条件であ
る。即ち、探索範囲を上から下に探していき、移動方向
コード#1と#3の横方向の射影が最初に一致する位置
を検出したら、その位置の水平方向の直線を領域分割線
CUT−Y1とする。
Processes 203 and 204 are conditions for determining area dividing lines. That is, when searching the search range from top to bottom and detecting the position where the horizontal projections of movement direction codes #1 and #3 first match, the horizontal straight line at that position is defined as the area dividing line CUT-Y1. shall be.

第4図(a)の例では、ライン3が当該位置であり、C
UT−Y 1が引かれる。条件を満たす位置が見つから
ない場合は、探索範囲の終了点LIM1を領域分割線C
UT−Y1の位置とする。
In the example of FIG. 4(a), line 3 is the relevant position, and C
UT-Y 1 is drawn. If a position that satisfies the conditions is not found, move the end point LIM1 of the search range to the area dividing line C.
The position is UT-Y1.

上記領域分割線決定のための条件はノイズ処理の作用を
もっている。第6図はその具体例を示したもので1図(
a)はノイズがない場合、図(b)と図(Q)はノイズ
がある場合である。即ち、領域分割線上にはノイズが存
在せず、常に画像輪郭部の最も安定した位置を領域分割
線とすることができる。
The above-mentioned conditions for determining the area dividing line have the effect of noise processing. Figure 6 shows a concrete example of this, and Figure 1 (
Figure a) shows the case where there is no noise, and Figures (b) and (Q) show the case where there is noise. That is, there is no noise on the area dividing line, and the most stable position of the image contour can always be set as the area dividing line.

予」(預UJ!L吸 これは、領域分割線を用いて画像輪郭部を分割し、画像
の大まかな形状をとらえるものである。
This method divides the image outline using area dividing lines to capture the rough shape of the image.

第7図(a)は文字「0」の輪郭部を上下の分割線を用
いて分割した場合の例で、文字「0」の形状(タイプ)
が’1,2,4.5”と表わされることを示している。
Figure 7(a) is an example of dividing the outline of the character "0" using upper and lower dividing lines, and shows the shape (type) of the character "0".
is expressed as '1, 2, 4.5'.

第7図(b)は同様に文字「I(」の例で、文字rHJ
の形状が“1,2,3゜2.4,5,6.5”と表わさ
れることを示している。二Nで、各分割領域に付した数
字は、第7図(c)に示す意味をもつとしている。
Similarly, FIG. 7(b) is an example of the character "I(", and the character rHJ
This shows that the shape is expressed as "1, 2, 3° 2.4, 5, 6.5". 2N, the numbers attached to each divided area have the meanings shown in FIG. 7(c).

ヒストグラム生J 理 これは、上下あるいは左右の分割線によって画像の輪郭
部を分割して抽出された各形状(タイプ)の領域を各々
n等分し、そのn等分された各領域の方向コードのヒス
トグラムを生成するものである。第8図にn=3の場合
の具体例を示す、第8図(a)は文字「0」の輪郭部を
上下の分割線によって分割して抽出した各形状(タイプ
)1,2゜4.5を3等分する場合を示し、第8図(b
)は各形状1,2,4.5について各領域ごとの方向コ
ードのヒストグラム示したものである。二\で、コード
1〜4は第3図で説明した移動方向コード#1〜#4に
対応する。第8図(c)は第8図(b)の入力ヒストグ
ラムに対する辞書ヒストグラムである。
Histogram Generation J Process This is done by dividing the outline of an image using vertical or horizontal dividing lines, dividing each shape (type) area into n equal parts, and then creating a direction code for each of the n equal parts. This generates a histogram of . Figure 8 shows a specific example when n = 3. Figure 8 (a) shows each shape (type) 1, 2゜4 extracted by dividing the outline of the character "0" by upper and lower dividing lines. Figure 8 (b) shows the case where .5 is divided into three equal parts.
) is a histogram of direction codes for each region for each shape 1, 2, and 4.5. 2, codes 1 to 4 correspond to movement direction codes #1 to #4 explained in FIG. FIG. 8(c) is a dictionary histogram for the input histogram of FIG. 8(b).

μmJ!LJ!L−星 これは、入力画像の輪郭部の形状単位で生成されたヒス
トグラムと、あらかじめ同様の方法で生成して辞書メモ
リに登録されている辞書ヒストグラムとを照らし合わせ
、入力画像を認識する処理である。第9図に、その処理
フローを示す。
μmJ! LJ! L-Star This is a process that recognizes the input image by comparing a histogram generated for each shape of the outline of the input image with a dictionary histogram that has been generated in advance in the same way and registered in the dictionary memory. be. FIG. 9 shows the processing flow.

処理301では、入力画像の輪郭部の各形状で得られた
ヒストグラムのうち、まず、例えばタイプ1のヒストグ
ラムについて辞書に登録されている同様のヒストグラム
との照合を行い、距離値、及びゼロ加算値又はゼロカウ
ント値を求める。第8図の例の場合、タイプ1では、距
離値は15+51+14−31+15−51+1l−2
1+11−11++5−51+14−31=3、ゼロ加
算値は10−01+l0−01+l0−01+10−0
1+l0−01+l0−01=O,同様にしてゼロカウ
ント値=0として求まる。
In process 301, among the histograms obtained for each shape of the outline of the input image, first, for example, a type 1 histogram is compared with similar histograms registered in the dictionary, and distance values and zero addition values are calculated. Or find the zero count value. In the example of Figure 8, for type 1, the distance value is 15+51+14-31+15-51+1l-2
1+11-11++5-51+14-31=3, zero addition value is 10-01+l0-01+l0-01+10-0
1+l0-01+l0-01=O, similarly determined as zero count value=0.

処理302では、処理301で求まった当該タイプの距
離値、及びゼロ加算値又はゼロカウント値について、予
め定めた適当な閾値と比較し、求めた値が閾値より大の
場合は、以後の処理を省略して直ちに次の辞書ヒストグ
ラムとの照合に移行し、求まった値が閾値と等しいが小
さい場合のみ、次の処理303に進む。
In process 302, the distance value and zero addition value or zero count value of the type determined in process 301 are compared with an appropriate predetermined threshold, and if the determined value is greater than the threshold, subsequent processes are performed. This is omitted and the process immediately proceeds to the next dictionary histogram comparison, and only when the obtained value is equal to but smaller than the threshold value, the process proceeds to the next process 303.

処理303では、距離値、及びゼロ加算値又はゼロカウ
ント値の各々について、それまでに求まった各タイプ毎
の値を加算する。第8図の例について、最初のタイプ1
のヒストグラムの照合が行われた段階では、処理303
の加算結果(トータル値)は処理301での演算結果と
同じである。
In process 303, the values for each type found so far are added for each of the distance value and the zero addition value or zero count value. For the example in Figure 8, the first type 1
At the stage where the histograms have been compared, processing 303
The addition result (total value) is the same as the calculation result in process 301.

即ち、距離値のトータル値=3、ゼロ加算値のトータル
値=0、ゼロカウント値のトータル値=0である。
That is, the total value of distance values=3, the total value of zero addition values=0, and the total value of zero count values=0.

処理304では、全てのタイプについて処理が終了した
か判定し、終了しなければ処理301に戻る。
In process 304, it is determined whether the processes have been completed for all types, and if not, the process returns to process 301.

処理301では、次に、例えばタイプ2について距離値
、及びゼロ加算値又はゼロカウント値を求める。第8図
の場合、タイプ2では、距離値は+2−31++2−2
1+11−01+14−41+11−21+12−21
+12−21=3、ゼロ加算値は10−01+l0−0
1+11−01+1o−01+l0−Of−110−0
1=1、ゼロカウント値=1である。処理302で、こ
れらの値が閾値と等しいか小さいと判定された場合、処
理303に進み、距離値のトータル値は3+3=6、ゼ
ロ加算値のトータル値はOf1=1.ゼロカウント値の
トータル値はOf1=1に更新される。
In process 301, next, for example, a distance value and a zero addition value or a zero count value are determined for type 2. In the case of Figure 8, for type 2, the distance value is +2-31++2-2
1+11-01+14-41+11-21+12-21
+12-21=3, zero addition value is 10-01+l0-0
1+11-01+1o-01+l0-Of-110-0
1=1, zero count value=1. If it is determined in process 302 that these values are equal to or smaller than the threshold value, the process proceeds to process 303, where the total value of distance values is 3+3=6, and the total value of zero addition values is Of1=1. The total value of the zero count values is updated to Of1=1.

各タイプ単位の距離値、及びゼロ加算値又はゼロカウン
ト値が予め定めた閾値と等しいか小さい場合、処理30
1,303が繰返される。第10図は、第8図の例につ
いてタイプ1,2,4,5の順に照合を行った場合の、
処理301,303で得られる各タイプ単位及びトータ
ルの距離値、ゼロ加算値及びゼロカウント値を表にまと
めて示したものである。
If the distance value and zero addition value or zero count value of each type unit is equal to or smaller than a predetermined threshold value, process 30
1,303 is repeated. Figure 10 shows the results when matching types 1, 2, 4, and 5 in the order of type 1, 2, 4, and 5 for the example in Figure 8.
The distance values, zero addition values, and zero count values for each type and total obtained in processes 301 and 303 are summarized in a table.

処理304でYESにぬけた場合、各タイプ単位での照
合ではリジェクトされなかったことを意味している。こ
の場合、処理305においては。
If the result of the process 304 is YES, it means that the item was not rejected in the verification on a per-type basis. In this case, in process 305.

トータルのゼロ加算値あるいはトータルのゼロカウント
値と予め定めた適当な閾値と比較する。そして、もし、
トータルのゼロ加算値あるいはトータルのゼロカウント
値が閾値より大ならば、候補として残さず、その時点で
次の辞書ヒストグラムの照合へ移行し、閾値と等しいか
小さい場合、最終候補とする。例えば、第8図の例の場
合、第10図よりタイプl、2,4.5のトータルのゼ
ロ加算値は4、同様にトータルのゼロカウント値は3で
ある。処理305では、このトータルのゼロ加算値=4
あるいはトータルのゼロカウント値=3を適当な閾値と
比較し、最終候補とするかどうか決めるのである。
The total zero addition value or total zero count value is compared with a predetermined appropriate threshold value. And if,
If the total zero addition value or total zero count value is greater than the threshold value, it is not retained as a candidate, and at that point the process moves to the next dictionary histogram comparison, and if it is equal to or smaller than the threshold value, it is determined as a final candidate. For example, in the case of the example shown in FIG. 8, the total zero addition value for types 1, 2, and 4.5 is 4, and the total zero count value is 3, as shown in FIG. In process 305, this total zero addition value = 4
Alternatively, the total zero count value = 3 is compared with an appropriate threshold value to decide whether to make it a final candidate.

この処理305は、入力画像の輪郭部の各タイプにおけ
る距離値やゼロ加算値(あるいゼロカウント値)が、各
タイプで決られている閾値を越えない程度の値で、各タ
イプ単位で見ればリジェクトの対象にならないが、全タ
イプ分積みかさなると大きな値となり、全体から見ると
リジェクトする必要がある場合に有効である。
This process 305 is carried out in such a way that the distance value and zero addition value (or zero count value) for each type of outline of the input image do not exceed the threshold determined for each type, and can be viewed for each type. However, when all types are accumulated, it becomes a large value, and it is effective when it is necessary to reject the whole type.

第11図はゼロ加算値の場合の各タイプ単位の値、トー
タル値、閾値の関係を示したものである。
FIG. 11 shows the relationship between the value of each type unit, the total value, and the threshold value in the case of a zero-added value.

この例の場合、各タイプ単位の照合では、各ゼロ加算値
は閾値より小さいためリジェクトの対象にならないが、
全体で見ると12のような大きな値になる。したがって
、トータルの閾値THを適当な値(例えば10)に決め
ることにより、リジェクトすることができる。
In this example, in the matching for each type, each zero addition value is smaller than the threshold and is not subject to rejection, but
When viewed as a whole, it becomes a large value like 12. Therefore, by setting the total threshold value TH to an appropriate value (for example, 10), rejection can be achieved.

〔効 果〕〔effect〕

以上説明したように、本発明によれば、文字等を構成し
ている各形状単位で入力画像と辞書との特徴差をチエツ
クし、さらに、全体的な特徴差をチエツクするので、効
率の良いマツチングが行え、認識結果に無駄な候補を残
さない、これは、認識結果のソートモジュールに負担を
与えない効果が得られる。
As explained above, according to the present invention, the feature difference between the input image and the dictionary is checked for each shape unit constituting a character, etc., and the overall feature difference is also checked. Matching can be performed and no useless candidates are left in the recognition results, which has the effect of not placing a burden on the recognition result sorting module.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明の一実施例のハードウェア構成のブロッ
ク図、第2図は本発明による処理フロー例を示す図、第
3図は移動方向コードを説明する図、第4図は分割線決
定の具体例を示す図、第5図は分割線決定アルゴリズム
のフローチャート、第6図はノイズを含む場合の分割線
の決定の具体例を示す図、第7図は形状抽出の具体例を
示す図、第8図はヒストグラム生成の具体例を示す図、
第9図は認識処理の詳細フローを示す図、第10図及び
第11図は認識処理の具体例を示す図である。 1・・・スキャナ、 2・・・中央処理装置、3・・・
プログラムメモリ、 31・・・輪郭追跡プログラム、 32・・・領域分割線決定プログラム。 33・・・形状抽出プログラム、 34・・・ヒストグラム生成プログラム。 35・・・認識プログラム、 4・・・データメモリ。 41・・・原画像領域、 42・・・輪郭画像領域、4
3・・・方向コード格納領域。 44・・・ヒストグラム格納領域。 第3図 (仄) (ト) 第5図 第7図 (Cつ 7う7’+234567 第8図 (α) り1ア5 q)>  c又ドア゛ラヘ             
   (C)  慴手書し又ドア″ラム第9図 LtNニオ ソート△ 第10図 第11図
Figure 1 is a block diagram of the hardware configuration of an embodiment of the present invention, Figure 2 is a diagram showing an example of a processing flow according to the present invention, Figure 3 is a diagram explaining movement direction codes, and Figure 4 is a dividing line. A diagram showing a specific example of determination, FIG. 5 is a flowchart of the dividing line determination algorithm, FIG. 6 is a diagram showing a specific example of determining the dividing line when noise is included, and FIG. 7 is a specific example of shape extraction. 8 is a diagram showing a specific example of histogram generation,
FIG. 9 is a diagram showing a detailed flow of the recognition process, and FIGS. 10 and 11 are diagrams showing specific examples of the recognition process. 1...Scanner, 2...Central processing unit, 3...
Program memory, 31... Contour tracking program, 32... Area dividing line determination program. 33... Shape extraction program, 34... Histogram generation program. 35... Recognition program, 4... Data memory. 41...Original image area, 42...Contour image area, 4
3...Direction code storage area. 44...Histogram storage area. Fig. 3 (b) (g) Fig. 5 Fig. 7 (C 7 7' + 234567 Fig. 8 (α) ri 1 a 5 q)
(C) Handwritten Shimata Door" Ram Figure 9 LtNio Sort △ Figure 10 Figure 11

Claims (3)

【特許請求の範囲】[Claims] (1)画像を輪郭追跡して画像輪郭部の方向コードを抽
出し、該画像の上下あるいは左右位置に所定の規則で該
画像と交叉する分割線を設定し、該設定した分割線によ
って画像の輪郭部を分割して形状を抽出し、該各形状の
領域をn等分して、その各領域毎のヒストグラムを生成
し、あらかじめ辞書に登録されているヒストグラムと照
合して当該画像を認識する画像認識方法において、 認識処理では、まず、画像の輪郭部の各形状単位で、生
成されたヒストグラムと辞書に登録されているヒストグ
ラムとの照合を行って候補を求め、次に、各形状単位の
照合結果を積算した値を予め定めた閾値と比較して、最
終的に候補として残すかどうか決めることを特徴とする
画像認識方法。
(1) Trace the contour of the image to extract the direction code of the image contour, set dividing lines that intersect the image according to a predetermined rule at the top and bottom or left and right positions of the image, and use the set dividing lines to divide the image. Divide the outline and extract the shape, divide the region of each shape into n equal parts, generate a histogram for each region, and recognize the image by comparing it with the histogram registered in the dictionary in advance. In the image recognition method, in the recognition process, candidates are first obtained by comparing the generated histogram with the histogram registered in the dictionary for each shape unit of the outline of the image, and then candidates are obtained for each shape unit. An image recognition method characterized in that a value obtained by integrating matching results is compared with a predetermined threshold value to ultimately decide whether to keep it as a candidate or not.
(2)各形状単位で、生成されたヒストグラムと辞書に
登録されているヒストグラムにおける一方の方向コード
が存在しない部分の距離を加算し、その値を全形状につ
いて積算した値を予め定めた閾値と比較して、最終的に
候補として残すかどうか決めることを特徴とする特許請
求の範囲第1項記載の画像認識方法。
(2) For each shape, add the distance between the generated histogram and the part of the histogram registered in the dictionary where one direction code does not exist, and then integrate that value for all shapes and use it as a predetermined threshold. 2. The image recognition method according to claim 1, wherein the comparison is made to decide whether or not to keep the image as a final candidate.
(3)各形状単位で、生成されたヒストグラムと辞書に
登録されているヒストグラムにおける一方の方向コード
が存在しない部分の出現回数をカウントし、その値を全
形状について積算した値を予め定めた閾値と比較して、
最終的に候補として残すかどうか決めることを特徴とす
る特許請求の範囲第1項記載の画像認識方法。
(3) For each shape, count the number of occurrences of the part where one direction code does not exist in the generated histogram and the histogram registered in the dictionary, and set the value obtained by integrating this value for all shapes as a predetermined threshold. compared to
2. The image recognition method according to claim 1, further comprising the step of deciding whether or not to leave the image as a final candidate.
JP62325782A 1987-12-23 1987-12-23 Image recognizing method Pending JPH01166276A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP62325782A JPH01166276A (en) 1987-12-23 1987-12-23 Image recognizing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP62325782A JPH01166276A (en) 1987-12-23 1987-12-23 Image recognizing method

Publications (1)

Publication Number Publication Date
JPH01166276A true JPH01166276A (en) 1989-06-30

Family

ID=18180550

Family Applications (1)

Application Number Title Priority Date Filing Date
JP62325782A Pending JPH01166276A (en) 1987-12-23 1987-12-23 Image recognizing method

Country Status (1)

Country Link
JP (1) JPH01166276A (en)

Similar Documents

Publication Publication Date Title
KR0130962B1 (en) Apparatus for extracting facila characteristic points
WO2017148377A1 (en) Automatic extraction method, device and system for driving licence expiration date, and storage medium
Lee et al. Binary segmentation algorithm for English cursive handwriting recognition
US20130322771A1 (en) Shape detection using chain code states
Özgen et al. Text detection in natural and computer-generated images
Wang et al. Logo detection in document images based on boundary extension of feature rectangles
Burghardt et al. Automated visual recognition of individual African penguins
CN112686248B (en) Certificate increase and decrease type detection method and device, readable storage medium and terminal
JPH0229886A (en) Method for extracting feature variable
Nishida et al. A model-based split-and-merge method for character string recognition
Valiente et al. A process for text recognition of generic identification documents over cloud computing
JPH01166276A (en) Image recognizing method
CN114781417A (en) Two-dimensional code identification method, two-dimensional code identification device and electronic equipment
Kolmakov et al. Machine-readable zones detection in images captured by mobile devices’ cameras
JP3586949B2 (en) Form recognition device
Saudagar et al. Arabic character extraction and recognition using traversing approach.
Chen et al. Segmentation of handwritten connected numeral string using background and foreground analysis
Joshi Study of Tesseract OCR
CN109840461B (en) Identification method and device based on dynamic iris image
JP2006235817A (en) Character-recognizing device, character-recognizing method and recording medium for character recognition program
Sadri et al. Statistical characteristics of slant angles in handwritten numeral strings and effects of slant correction on segmentation
JP4231375B2 (en) A pattern recognition apparatus, a pattern recognition method, a pattern recognition program, and a recording medium on which the pattern recognition program is recorded.
CN114067150A (en) Method and system for generating text line in any direction
JP4594765B2 (en) Character recognition apparatus, character recognition method, and character recognition program recording medium
JPS63303486A (en) Image recognition method