JPS61156486A - Picture processing device - Google Patents

Picture processing device

Info

Publication number
JPS61156486A
JPS61156486A JP59276461A JP27646184A JPS61156486A JP S61156486 A JPS61156486 A JP S61156486A JP 59276461 A JP59276461 A JP 59276461A JP 27646184 A JP27646184 A JP 27646184A JP S61156486 A JPS61156486 A JP S61156486A
Authority
JP
Japan
Prior art keywords
pattern
contour
code
recognition
circuit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP59276461A
Other languages
Japanese (ja)
Inventor
Masatoshi Okutomi
正敏 奥富
Tetsuo Sueda
末田 哲夫
Michihiro Tokuhara
徳原 満弘
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP59276461A priority Critical patent/JPS61156486A/en
Priority to GB08510712A priority patent/GB2161006B/en
Priority to DE19853515159 priority patent/DE3515159A1/en
Publication of JPS61156486A publication Critical patent/JPS61156486A/en
Priority to US07/157,147 priority patent/US4833721A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To realize a stable pattern recognition by mounting a means which recognizes a picture image by non-linear matching a coded code hole with a standard code hole. CONSTITUTION:A memory writing circuit 101 reads any area specified beforehand in an input original through an inputting device 100 to write it in a main memory 102, and then a pre-processing circuit 103 carries out segmenting a character area and binarizing. Moreover, a primary- and secondary-feature extracting circuit 104 traces a contour and extracts contour points, as well as secondary features from code rows depending on its coding and necessity. A non-linear matching circuit 105 calculates differences between the features and respective standard pattern of input patterns. The above-mentioned each circuit is connected on a pipeline to obtain high-speed recognition. Thus it becomes possible to realize a high-speed and stable recognizing device which has a simple configuration and is suitable for various recognition objects.

Description

【発明の詳細な説明】 〔技術分野〕 本発明は手書文字、印字文字、その他あらゆるパターン
の認識が可能な画像処理装置に関するものである。
DETAILED DESCRIPTION OF THE INVENTION [Technical Field] The present invention relates to an image processing device capable of recognizing handwritten characters, printed characters, and all other patterns.

〔従来技術〕[Prior art]

従来からパターン認識について様々な提案がある0例え
ば、パターンの輪郭情報を用いてパターン認識を行う場
合、各輪郭点における輪郭線方向を第1図に示す1〜8
の方向コードに従って量子化したコードとして求められ
ていた。
There have been various proposals for pattern recognition in the past.0 For example, when performing pattern recognition using contour information of a pattern, the contour line direction at each contour point is determined by 1 to 8 shown in Figure 1.
The code was obtained as a quantized code according to the direction code.

しかし、この方法では、例えば第2図に示す様なパター
ンがあった場合、図の51を始点とし、時計回りに輪郭
を追跡した時に得られる方向コードは、第3図に示す様
になり、本来連続的に変化する方向コードが、第3図の
A、Bの部分(第2図のa、bに対応)で示す様に、コ
ード上不連続になってしまい、認識する際に不都合を生
じる。 。
However, with this method, if there is a pattern as shown in Figure 2, for example, the direction code obtained when tracing the contour clockwise from 51 in the figure as the starting point is as shown in Figure 3. The direction code, which originally changes continuously, becomes discontinuous in the code, as shown in parts A and B in Figure 3 (corresponding to a and b in Figure 2), which causes inconvenience during recognition. arise. .

このことは、元のパターンが回転した場合等による開始
点の変化が、その後の認識を困難にするということを意
味し、処理時間の増大をもたらすという欠点があった。
This means that changes in the starting point due to rotation of the original pattern, etc., make subsequent recognition difficult, which has the disadvantage of increasing processing time.

〔目 的〕〔the purpose〕

以上の点に鑑み、本願発明は上記欠点を除去しパターン
の輪郭を連続したデータとしてとらえ、パターンの位置
ずれ、回転大きさの変化などに影響されない安定したパ
ターンの認識が可能な画像処理装置を提供することにあ
る。
In view of the above points, the present invention eliminates the above-mentioned drawbacks, captures the outline of a pattern as continuous data, and provides an image processing device that is capable of stable pattern recognition unaffected by pattern positional deviation, changes in rotation size, etc. It is about providing.

〔実施例〕〔Example〕

以下、図面を参照し、本願発明についての詳細に説明す
る0本願でいう画像は文字、マーク、記号、絵等を示す
ものである。
Hereinafter, the present invention will be described in detail with reference to the drawings. Images in the present application indicate characters, marks, symbols, pictures, etc.

第4図(a)、(b)は本願発明の適用が可能な画像処
理装置の1例を示す図である。1はリーグ、2はOCR
,リーグ又はプリンタ等の制御部、3はプリンタ、4は
ディスプレイ付コンピュータで、各機器の制御指令を出
したり、所望のデータを表示させることが可能である。
FIGS. 4(a) and 4(b) are diagrams showing an example of an image processing apparatus to which the present invention can be applied. 1 is league, 2 is OCR
, league, or printer, 3 is a printer, and 4 is a computer with a display, which can issue control commands for each device and display desired data.

5はキーボードである。5 is a keyboard.

又、(b)ではlOはハンディ型の画像処理装置本体で
、11は光源、12は読み取るべき原稿である。なお1
3は光学系で、光1itll及び原稿12上のパターン
からの光を光電変換素子(例えば面状C0D)14に導
く、15は光電変換素子14から出力データ処理及び/
又は出力を行う処理部である。なお、この様な構造に限
る必要はない。又、ディスク装置や、マイクロフィルム
、ワークステーション等を具備したシステムの一つであ
ってもよい。
Further, in (b), IO is a main body of a hand-held image processing apparatus, 11 is a light source, and 12 is an original to be read. Note 1
3 is an optical system that guides the light 1itll and the light from the pattern on the original 12 to a photoelectric conversion element (for example, planar C0D) 14; 15 is an optical system that processes output data from the photoelectric conversion element 14 and/or
Or it is a processing unit that performs output. Note that it is not necessary to limit the structure to this kind. Alternatively, it may be one of the systems equipped with a disk device, microfilm, workstation, etc.

次に前記処理部15について、詳細に説明する。第5−
1図は前記処理部15のブロック図である。16は前処
理回路で入カバターンに対し、2値化、ノイズ除去等を
行う。次にCPU17及びメモリ18によってパターン
の特徴を抽出する。特徴抽出については、第5−2図の
破線内に示す流れとなる。つまり、1次特徴抽出を行う
ことにより該パターンの輪郭情報をコード化する。そし
てパターンあるいは抽出法によってはそのコードをその
まま用いる。又、更に2次特徴抽出により前記コード列
とは別の特徴を抽出してもよい、そして以上によって得
られた特徴について、メモリ18等の辞書と照合したり
、あるいは類似度や相関を計算し、該パターンを判定し
てもよい。
Next, the processing section 15 will be explained in detail. 5th-
FIG. 1 is a block diagram of the processing section 15. A preprocessing circuit 16 performs binarization, noise removal, etc. on the input pattern. Next, the CPU 17 and memory 18 extract features of the pattern. Regarding feature extraction, the flow is shown within the broken line in Fig. 5-2. That is, the contour information of the pattern is encoded by performing primary feature extraction. Depending on the pattern or extraction method, the code is used as is. Further, features other than the code string may be extracted by secondary feature extraction, and the features obtained by the above may be checked against a dictionary in the memory 18 or the like, or similarities and correlations may be calculated. , the pattern may be determined.

更に上記特徴抽出を繰り返してもよいし、他の特徴抽出
を行い、その後パターンを決定してもよい。
Furthermore, the above feature extraction may be repeated, or other feature extraction may be performed and then a pattern may be determined.

次に、本発明の特徴抽出について、更に詳細に説明する
。1次特徴抽出では、まずパターンの輪郭を形成する画
素の中からあらかじめ定めた一定個数だけ抽出する。・
次いで、その抽出点に基づいて輪郭接線方向の方向差を
求め、順次それをコード化する。
Next, feature extraction according to the present invention will be explained in more detail. In primary feature extraction, a predetermined number of pixels forming the outline of a pattern are first extracted.・
Next, the directional differences in the contour tangential directions are determined based on the extracted points and are sequentially coded.

輪郭点抽出のフローチャートを第6図に示す。A flowchart of contour point extraction is shown in FIG.

即ち、まず画像をラスクスキャンして最初にパターンに
当たる画素を求める等の方法により輪郭追跡開始点を求
めその位置を記憶する(STEPI)。次いで、輪郭上
例えば右隣りに隣接する輪郭点を求め(STEP3)、
開始点からの距離文を求める(STEP4)。開始点か
らの距離文は例えば以下の(1)、(1)’式に従って
積算していく。
That is, first, the contour tracing starting point is determined by a method such as scanning the image by rask-scanning and first determining the pixels that correspond to the pattern, and the position is stored (STEPI). Next, find the contour point adjacent to the right side, for example, on the contour (STEP 3),
Find a distance statement from the starting point (STEP 4). The distance statement from the starting point is accumulated according to the following equations (1) and (1)', for example.

隣接輪郭点が上下左右に位置する詩 文=見+1       (1) 隣接輪郭点が斜め方向に位置する詩 文=文+1.4       (1) 以上により、5TEP6までで輪郭の一周の長さLが求
まる。次いで、このしの値を元に、一定個数Nの輪郭点
抽出を行なう、まず、開始点を抽出点として選び(ST
EP8)、隣接輪郭点とその開始点からの輪郭長文を求
める(STEPII、12)。ここで文の求め方は進む
毎に輪郭点を抽出ナベく、以下の条件を判定する(ST
EP 13)。
A poem in which adjacent contour points are located on the top, bottom, left, and right = Mi +1 (1) A poem in which adjacent contour points are located in a diagonal direction = Sentence +1.4 (1) From the above, the length L of one circumference of the contour can be found up to 5TEP6. Next, based on this value, a certain number N of contour points are extracted. First, the starting point is selected as the extraction point (ST
EP8), find adjacent contour points and a long contour sentence from their starting point (STEP II, 12). Here, the method of finding the sentence is to extract contour points as it progresses, and to judge the following conditions (ST
EP 13).

ここで、Nはあらかじめ定められた抽出すべき輪郭点の
個数である。もし、(2)式が成り立てば5TEP8に
戻って輪郭点を抽出し、成り立たない間は5TEPII
 、12を繰り返す。
Here, N is a predetermined number of contour points to be extracted. If the formula (2) holds true, return to 5TEP8 and extract the contour points, and while it does not hold, 5TEPII
, 12 are repeated.

そして、N個の輪郭点が抽出されると終了する(STE
P I O)。
Then, the process ends when N contour points are extracted (STE
PIO).

以上の方法を、例えば第7図に示すパターンに適用すれ
ば、図の斜線で示した画素(S1〜520)が抽出され
る。但し、N=20とし、輪郭追跡開始点はSlで、右
回りに輪郭を追跡した。
If the above method is applied to the pattern shown in FIG. 7, for example, the pixels (S1 to 520) indicated by diagonal lines in the figure are extracted. However, N=20, the contour tracing starting point was Sl, and the contour was traced clockwise.

具体的に説明すると、第7図に示すパターンでは、パタ
ーンの全長L=98.6でN=20よテップ4において
式(1)、(1)’により説明した様に1つの画素の辺
を1、対角線を1.4として算出する。第7図の画素内
に示された数値はその距離である。つまり、Slから3
2点の画素(斜線で示す)に進むと距離は5.4となり
ステップ13において5.4 > 4.93であること
から、該斜線を施こされた画素を抽出点としてS2とす
る。同様にして、次の抽出点までは、第7図に示す様に
、6.8 、7.8 、9.2と進み、次の斜線の施こ
された部分において立=10.6となり、第6図のステ
ップ13において、10.6 > 4.93 X 2と
なり、この画素を抽出点として(S3)抽出するのであ
る。以下同様にして第7図に示した抽出点51〜S 2
0が抽出される。
Specifically, in the pattern shown in FIG. 7, the total length of the pattern is L=98.6 and N=20, so the side of one pixel is 1. Calculate with the diagonal as 1.4. The numerical value shown within the pixel in FIG. 7 is the distance. That is, from Sl to 3
When proceeding to two pixels (indicated by diagonal lines), the distance becomes 5.4, and in step 13, since 5.4 > 4.93, the shaded pixel is set as the extraction point S2. In the same way, as shown in Fig. 7, up to the next extraction point, it progresses in the order of 6.8, 7.8, 9.2, and at the next diagonally shaded part, the value becomes 10.6. In step 13 of FIG. 6, 10.6 > 4.93 x 2, and this pixel is extracted as an extraction point (S3). Similarly, extraction points 51 to S2 shown in FIG.
0 is extracted.

次に、輪郭抽出点に基づいて輪郭接線方向の方向差を順
次求めコード化する0例えば輪郭抽出点が第8図に示す
様に並んでいる時、輪郭接線方向の方向差は図のαで、
それを例えば第9図に示す様に8方向に量子化し、コー
ド化する。ここで、常に最初の輪郭接線方向(第8図の
5iSit1)をコード0の方向に一致させる。この様
に、輪郭接線方向の方向差をコード化することにより、
不当な不連続点が生じることなく、かつ輪郭を何度回っ
ても周期的に変化するコード列が得られる。−例として
、第2図のパターンの総ての輪郭点を用いて得られるコ
ード列を第10図に示す、第3図と比較して明らかな様
に、不当な不連続点がなく、以後の識別処理に適してお
り、かつコードの開始点の変動などに対し安定である。
Next, the direction difference in the contour tangent direction is sequentially determined based on the contour extraction points and coded. For example, when the contour extraction points are lined up as shown in Figure 8, the direction difference in the contour tangent direction is α in the figure. ,
For example, as shown in FIG. 9, it is quantized in eight directions and coded. Here, the first contour tangent direction (5iSit1 in FIG. 8) is always made to match the code 0 direction. In this way, by encoding the direction difference in the contour tangent direction,
It is possible to obtain a code string that changes periodically no matter how many times it goes around the contour without causing any unreasonable discontinuity points. - As an example, FIG. 10 shows a code string obtained using all the contour points of the pattern in FIG. 2. As is clear from comparing it with FIG. It is suitable for identification processing, and is stable against changes in the starting point of the code.

第7図に示したパターンに対し、以上詳述した処理を施
こした結果が第11図である。図の()で示したものが
コード列であるが、パターンの細かな凹凸に影響されず
に輪郭形状をよく表現しており、かつ長さも正規化され
ている。
FIG. 11 shows the result of performing the processing detailed above on the pattern shown in FIG. 7. The code string shown in parentheses in the figure expresses the contour shape well without being affected by the fine irregularities of the pattern, and its length is also normalized.

次に、判定部では、まず次特徴抽出で得られたコード列
とあらかじめメモリに記憶しである標準コード列との非
線形マツチングを行なって、入カバターンと上記標準コ
ード列が属するカテゴリとの類似性を表わす距離D(類
似している程小さい値になる)を計算する。その計算式
を以下に示す。ある入カバターンのコード列を、air
   a2 −−−−−−、   aN標準コード列を cl、   c2 −−−−−−、   CNとした時
、次の斬化式を計算する 但し、 d(Ci、aj)=lci−ajl+f(lci−aj
l)   (4)ここでd(ci、aj)は標準コード
ciと入力コードaj間の距離であり、f(lci−a
N)は対応するコードのコード列上での位置ずれに対す
るペナルティに相当するもので、例えば第12図の様に
定める。
Next, the determination section first performs non-linear matching between the code string obtained from the next feature extraction and the standard code string stored in memory in advance to determine the similarity between the input cover pattern and the category to which the standard code string belongs. Calculate the distance D (the more similar the value, the smaller the value). The calculation formula is shown below. The code string of a certain input pattern is air
a2 -------, aN When the standard code string is cl, c2 -------, CN, calculate the following decomposition formula. However, d(Ci, aj)=lci-ajl+f(lci -aj
l) (4) Here, d(ci, aj) is the distance between the standard code ci and the input code aj, and f(lci-a
N) corresponds to a penalty for the positional shift of the corresponding code on the code string, and is determined, for example, as shown in FIG.

そして、最終的に入カバターンとカテゴリ間の距@Dは D=g(N、N)            (5)とし
て求まる。
Finally, the distance @D between the input turn and the category is found as D=g(N,N) (5).

例えば、第11図に示した入カバターンによる入力コー
ドとある標準コードとが第13図に示す様に対応付けら
れるとすれば(この対応付は(3)、 (4)式を最後
まで計算することにより求まる)、その時の各コード間
の距離d (ci 、 aDは、第14図に示す様にな
り、その和はDに等しい。
For example, if the input code based on the input pattern shown in Figure 11 and a certain standard code are correlated as shown in Figure 13 (this correspondence is expressed as (3), then calculate equation (4) to the end). The distance d (ci, aD) between each code is as shown in FIG. 14, and the sum thereof is equal to D.

次に図面を参照し、Dの算出及びマツチングについて、
詳細に説明する。
Next, referring to the drawings, regarding the calculation and matching of D,
Explain in detail.

第11図に示した様に、入カバターンのコード列は、a
j=1.l、1,0,0.−3.0,1,3,0,0゜
3.0,0,0.−2.−2.0,4,1.であること
は明らかである。一方の文字“2°゛の標準パターンの
コード列はci=1.1.O,O,−2,0,0,3,
0,0゜2,0,0,0.−1.−1.0,3,1.1
とすると、Dの算出方法は第15図に示す流れになる。
As shown in FIG. 11, the input pattern code string is a
j=1. l, 1, 0, 0. -3.0,1,3,0,0°3.0,0,0. -2. -2.0, 4, 1. It is clear that The code string of the standard pattern for one character “2°” is ci=1.1.O,O,-2,0,0,3,
0,0°2,0,0,0. -1. -1.0, 3, 1.1
Then, the method for calculating D becomes the flow shown in FIG. 15.

つまり、式(3)において、 g(1,1)=d(c、a)  は cl=1.a1=
1  よりg(1,1)=O g (1、2) =d (c4 、 az)  は c
1=l、a2=2  よりg(1,2)=d(cl、a
z)+min(g(1,1))=0.1同様にして、 g (2,2) =d (c2.az) +min(g
(1,2) g(2,1) 、g(1,1))= I 
c2−a21+f (I c2−az l) +mi 
n (0,1、0,1、0) =Oとなる。
That is, in equation (3), g(1,1)=d(c,a) is cl=1. a1=
1, g (1, 1) = O g (1, 2) = d (c4, az) is c
1=l, a2=2, so g(1,2)=d(cl,a
z) + min (g (1, 1)) = 0.1 Similarly, g (2, 2) = d (c2.az) + min (g
(1,2) g(2,1) , g(1,1)) = I
c2-a21+f (I c2-az l) +mi
n (0, 1, 0, 1, 0) =O.

なおf (lci−ajl)は第12図に示したiとj
(対応サンプリング点)との対応に基づいたデータであ
る。以下、t+Jを1〜20まで行うと、第15図の右
上に示す様に1=j=20におけるg (i 、 j)
の値D = 8.1と算出される。
Note that f (lci-ajl) is i and j shown in Figure 12.
(corresponding sampling points). Below, when t+J is performed from 1 to 20, g (i, j) at 1=j=20 as shown in the upper right of Figure 15.
The value D = 8.1 is calculated.

一方、第7図に示した同一パターンに対して、標準パタ
ーンを“°3”の標準パターン(ci=1.1.−2.
1,1,1,1,3,0.−1.−1.−1.0゜2.
0.−1.−1.0,3.1)に置き換えた場合は、第
16図に示す結果となる。つまり3″の標準パターンを
用いた場合は1=j=20におけるg (i 、 j)
の値りは15.2と算出される。以上から明らかなよう
に第7図に示したパターンに対しては標準パターンの゛
3パより標準パターンの°2”の方が8.1 < 15
.2であることから距離が短かいという判定が可能とな
り、第7図に示したパターンは、2に判定される確度が
高くなるのである。
On the other hand, for the same pattern shown in FIG. 7, the standard pattern is changed to the standard pattern of "°3" (ci=1.1.-2.
1, 1, 1, 1, 3, 0. -1. -1. -1.0°2.
0. -1. -1.0, 3.1), the result is shown in FIG. In other words, when using a standard pattern of 3'', g (i, j) at 1=j=20
The value of is calculated as 15.2. As is clear from the above, for the pattern shown in Figure 7, the standard pattern °2'' is 8.1 < 15 compared to the standard pattern ゛3pa.
.. Since the distance is 2, it can be determined that the distance is short, and the pattern shown in FIG. 7 has a high probability of being determined to be 2.

又、標準パターン“2”の各抽出された点と第7図に示
したパターンの各抽出点との対応は。
Also, what is the correspondence between each extracted point of standard pattern "2" and each extracted point of the pattern shown in FIG.

第15図の太線の矢印に示されているようになり、結局
第17図に示す様な対応となる0図から明らかなように
、それぞれの位置において無理な対応付けが成されてい
ないことがわかる。
As shown by the thick line arrow in Figure 15, the correspondence is as shown in Figure 17.As is clear from Figure 0, there is no unreasonable correspondence at each position. Recognize.

又、必要であれば第6図に示した抽出点の選択条件を、
変えてずれた抽出点を複数回抽出し、更に精度を向上さ
せるようにしてもよい。以下、文字パターン“3”につ
いて、上述の抽出点をずらして、種々の距1!10 (
式5)を求めより精度の高い認識が可能な方法について
説明する。
Also, if necessary, change the extraction point selection conditions shown in Figure 6.
The accuracy may be further improved by extracting the shifted extraction points multiple times. Hereinafter, for the character pattern "3", the above-mentioned extraction points are shifted and various distances of 1!10 (
A method that allows for more accurate recognition by calculating Equation 5) will be explained.

その場合の輪郭点抽出法を、第18図に示す。The contour point extraction method in that case is shown in FIG.

なお、詳細は第6図と同様なので省略する。ここでステ
ップ8、ステップ16に示す8は、最初の輪郭抽出点か
らのオフセット量(最初の輪郭抽出点に比べどれだけず
れるかを指示する値)であり、 0≦δくl なる値である。(もし、δ=0であれば、最初の輪郭抽
出点と一致する。)例えば、第19−1図に示す様な入
カバターンがあった時、最初の輪郭抽出点と、さらにそ
れから求められる方向コードは、第19−2図に示すよ
うになる。
Note that the details are the same as those in FIG. 6 and will therefore be omitted. Here, 8 shown in step 8 and step 16 is an offset amount from the first contour extraction point (a value indicating how much it deviates from the first contour extraction point), and is a value of 0≦δkl. . (If δ = 0, it matches the first contour extraction point.) For example, when there is an input cover turn as shown in Figure 19-1, the first contour extraction point and the direction found from it. The code becomes as shown in Figure 19-2.

それに対し、δ=繕として輪郭抽出をやり直し、コード
列を求めると第19−3図に示すようになる。つまり、
最初の抽出点の位置が、第19−2図と見比べてわかる
通り、パターン外郭形状の凹凸が忠実にコードに反映さ
れており、(第19−3図の「→」で示した箇所)、従
って、以後の処理によって正しく認識される確率が大幅
に増す0例えば、コード上で連なるマイナスのコードの
かたまりの数(パターンの凹の数に相当)を大分類に用
いるとすれば、第15−2図では2個しか検出されない
が第19−3図ではパターンの形状に忠実に3個検出さ
れており正確な認識が行われる可能性がはるかに高くな
る。(第15−2図、第15−3図のコード列上の↑印
参照)なお、δの値は局には限らず、例えば115 、
215 。
On the other hand, when the contour extraction is redone with δ=touch and the code string is obtained, the result is as shown in FIG. 19-3. In other words,
As you can see by comparing the position of the first extraction point with Figure 19-2, the unevenness of the pattern outline is faithfully reflected in the code (the location indicated by "→" in Figure 19-3). Therefore, the probability of correct recognition increases significantly through subsequent processing. In FIG. 2, only two are detected, but in FIG. 19-3, three are detected faithfully to the shape of the pattern, making it much more likely that accurate recognition will be performed. (Refer to the ↑ marks above the code strings in Figures 15-2 and 15-3.) Note that the value of δ is not limited to stations; for example, 115,
215.

315.415といった具合に少しづつ変えながら輪郭
抽出を繰り返してもよく、より正確な認識が行なえるよ
うになる。
315, 415, etc., the contour extraction may be repeated while changing it little by little, allowing for more accurate recognition.

また、以上の一連の処理による判定結果は、そのまま認
識結果として出力してもよいし、また候補カテゴリとし
て記憶し、さらに別の認識処理に進むこともできる。
Furthermore, the determination results obtained through the series of processes described above may be outputted as recognition results as they are, or may be stored as candidate categories and then proceed to another recognition process.

次に前述の第19−2図、第19−3図に示したパター
ンのコード列と文字“°3゛°の標準コードにより、距
離D(式5)を求める場合について説明する。抽出点を
変えるだけで、更に精度の高い認識が可能となる。第2
0図、第21図は°゛3”9の標準コード列ct=1,
1.−2.1,1゜1.1,3,0.−1.−1.−1
.0,2,0.−1.−1.0,3゜lと°“3パの入
カバターンコード列aj=l、0゜1.0,0,0,1
,1,0,4,0.−2.−1.−1.0,0゜−1,
−2,0,3,との距離り及び抽出点をずらした場合°
“3°゛の入カバターンコード列”J=L1+L  L
nO,1,1,l、1,3,0.−1.−1.−1.2
.−1.−1゜−1,3,1との距離りを求める場合の
説明図である。
Next, we will explain the case where the distance D (Equation 5) is calculated using the code string of the pattern shown in Figures 19-2 and 19-3 and the standard code of the character "°3゛°." Even more accurate recognition is possible by simply changing the
0 and 21 are standard code strings of °゛3''9 ct=1,
1. -2.1,1゜1.1,3,0. -1. -1. -1
.. 0, 2, 0. -1. −1.0,3゜l and °“3 pa input turn code string aj=l, 0゜1.0,0,0,1
,1,0,4,0. -2. -1. -1.0,0゜-1,
-2, 0, 3, when the distance and extraction point are shifted °
“3° Input Cover Turn Code Row” J=L1+L L
nO, 1, 1, l, 1, 3, 0. -1. -1. -1.2
.. -1. It is an explanatory diagram when calculating the distance from -1°-1, 3, 1.

距離りの求め方は、第15図及び第16図において説明
したので詳細は省略する。結局距離りは17.5→8と
より正確にパターンを認識することが可能となるわけで
ある。また、第20図、第21図↑印を観ることにより
、それぞれ第22図の(a)、Cb)に示した様な各画
素の抽出を行っていることがわかる。
The method for determining the distance has been explained in FIGS. 15 and 16, so the details will be omitted. In the end, the distance changes from 17.5 to 8, making it possible to recognize the pattern more accurately. Also, by looking at the ↑ marks in FIGS. 20 and 21, it can be seen that each pixel is extracted as shown in (a) and Cb) of FIG. 22, respectively.

なお、この距離によりパターンの判定の補助として行う
必要はなく類似度やその他いかなる判定法でもよい。つ
まり以上は、基本的にはいわゆるダイナミック・プログ
ラミング(D 、 P)という手法を用いたのであるが
、コード上での位置ずれや多重対応を許すことにより、
例えば手書文字などの変形を吸収できる非線形マツチン
グを実現している。さらに、本発明では、第12図に示
した様な、コード上での位置ずれを評価量(ペナルティ
)として加味することにより、変形を許しつつも不当な
対応付け(いわゆる合わせ過ぎ)を排除し、正確で高速
な認識を可能にしている。
Note that it is not necessary to use this distance as an aid for pattern determination; similarity or any other determination method may be used. In other words, the above basically used a method called dynamic programming (D, P), but by allowing positional shifts and multiple correspondence in the code,
For example, it realizes nonlinear matching that can absorb deformations such as handwritten characters. Furthermore, in the present invention, by considering positional deviation on the code as an evaluation amount (penalty) as shown in FIG. 12, it is possible to eliminate inappropriate correspondence (so-called overmatching) while allowing deformation. , enabling accurate and fast recognition.

そして、各標準コードに対して、パターンの類似性を表
わす距離りを計算し、例えば以下の条件に従って入カバ
ターンを判定する。すなわち、ある入カバターンに対し
て最も小さい距離りをDl、次に小さい距離りをD2と
する時、次の■、■の条件を共に満たせば、上記入カバ
ターンがDlに対応するカテゴリに属すと判定し、それ
以外は対応するカテゴリが存在しないと判定する。
Then, for each standard code, a distance representing pattern similarity is calculated, and an incoming cover turn is determined according to, for example, the following conditions. In other words, when the smallest distance for a certain input cover turn is Dl, and the next smallest distance is D2, if both the following conditions ■ and ■ are satisfied, then the input cover turn belongs to the category corresponding to Dl. Otherwise, it is determined that the corresponding category does not exist.

■ Di<Kl ■D2−DI>K2又は、Dl とD2に対応するカテ
ゴリが等しい、 但し、Kl、に2は認識対象の変形の度合やカテゴリ相
互のまぎられしさなどにより、あらかじめ定められる定
数である。
■ Di < Kl ■ D2 - DI > K2 or the categories corresponding to Dl and D2 are equal, however, Kl and 2 are constants determined in advance depending on the degree of deformation of the recognition target and the degree of confusion between categories. be.

また、上記判定結果は、そのまま認識結果として出力し
てもよいし、また候補カテゴリとして記憶しておき、さ
らに別の認識処理に進むこともできる。
Furthermore, the above determination result may be output as is as a recognition result, or may be stored as a candidate category and proceed to another recognition process.

前記実施例において、輪郭点の抽出法は第6図、第18
図に示した方法に限られるものではなく、パターンの輪
郭形状の細かな凹凸やノイズなどになるべく影響されず
にパターンの形状の特徴を表わすような画素を一定個数
抽出する方法であれば後の処理に全く影響を及ぼすこと
なく適用できる。またコード付の第9図に示す0 七 
而 I+ 四 lh  ユμ   矧 烏 占4 h、
 1ヂ 円 1−−    μ Ll  湘 講、く(
例えば第23図の様に)又は粗くすることは効果的であ
る。
In the above embodiment, the contour point extraction method is as shown in FIGS. 6 and 18.
The method is not limited to the one shown in the figure, but any method that extracts a certain number of pixels that represent the characteristics of the pattern shape without being affected by small irregularities or noise in the contour shape of the pattern can be used. It can be applied without affecting the processing at all. Also shown in Figure 9 with code 0 7
I + 4 lh Yuμ 矧 烏 4 h,
1ヂ yen 1--μ Ll Xiang Ko, Ku(
For example, as shown in FIG. 23) or roughening is effective.

さらに、非線形マツチングを実行する斬化式%式% (但し、にはk>1なる宝船 という様に多重対応に対するペナルティ(k)を付加し
たり、第12図に示したコードの位置ずれに対するペナ
ルティを変えることで、変形に対する制約条件を変え、
さまざまな認識対象に適したマツチングを行なうことが
できる。
In addition, a penalty (k) for multiple correspondences is added, such as a treasure ship where k > 1, or a penalty for the positional shift of the code shown in Figure 12. By changing the constraint conditions for deformation,
Matching suitable for various recognition targets can be performed.

なお、以上説明した方法を繰り返してもよく、又、組み
合せてもよいことは言うまでもない。
It goes without saying that the methods described above may be repeated or may be combined.

次に以上説明した方法のハード構成の一例を第24図に
示す、即ち、メモリー書込み回路lにより、入力原稿内
のあらかじめ指定される任意のエリアを入力装置100
 (図ではディジタルコピーのリーダー)より読み込ん
でメインメモリー102に書込み、次いで前処理回路1
03により、文字領域の切出しと2値化を行なう。更に
、1次、2次特徴抽出回路104では、輪郭追跡と輪郭
点抽出、更にそのコード化と必要に応じてコード列より
2次特徴を抽出する。そして、非線形マツチング回路1
05により、入カバターンの各標準パターン(コード)
との相違度が計算される0以上の各回路をパイプライン
上に接続することにより、高速な認識速度が得られる。
Next, an example of the hardware configuration of the method described above is shown in FIG.
(digital copy reader in the figure) and writes it to the main memory 102, then the preprocessing circuit 1
03, the character area is cut out and binarized. Furthermore, the primary and secondary feature extraction circuit 104 performs contour tracing and contour point extraction, and also encodes the contour and extracts secondary features from the code string as necessary. And nonlinear matching circuit 1
According to 05, each standard pattern (code) of the input cover turn
A high recognition speed can be obtained by connecting each circuit whose degree of difference is 0 or more from 0 to 1 on a pipeline.

また、制御用C0P、Uは、上記各回路を制御し、さら
に非線形マツチング回路105から得られた相違度値を
元に、最終認識効果を外部機器106に出力したり、場
合によっては、1次、2次特徴抽出回路104に対し、
再びコード化をやり直すことを指示したりする。
In addition, the control C0P and U control each of the above-mentioned circuits, and further output the final recognition effect to the external device 106 based on the dissimilarity value obtained from the nonlinear matching circuit 105. , for the secondary feature extraction circuit 104,
Instructs to re-encode.

〔効果〕〔effect〕

以上、詳述したように本願発明によりパターンの輪郭点
を一定個数抽出し、それに基づいて輪郭接線方向の方向
差を求めてコード化し、上記コードと、あらかじめメモ
リに記憶しである標準コードとの非線形マツチングを行
なって、パターンの変形の度合を適格に加味した、該入
カバターンと上記標準コードが属するカテゴリとの類似
性を表わす距離を求め、上記入カバターンの認識を行な
うことにより、さまざまな認識対象に適し、かつ高速で
安定した認識装置を、簡単な構成で実現することが可能
となりた。
As described in detail above, according to the present invention, a certain number of contour points of a pattern are extracted, and based on this, the direction difference in the contour tangent direction is determined and coded, and the above code is compared with a standard code stored in memory in advance. By performing non-linear matching to calculate the distance representing the similarity between the input cover pattern and the category to which the standard code belongs, taking into account the degree of pattern deformation, and recognizing the input cover pattern, various recognition methods can be achieved. It has become possible to realize a recognition device that is suitable for the target, fast, and stable with a simple configuration.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は従来の方向コードを示す図、第2図はパターン
の一例を示す図、第3図は輪郭点と方向コードの関係を
示す図、第4図は本願発明の適用が可能な画像処理シス
テムの1例を示す図である。第5−1図は処理部のブロ
ック図。 第5−2図はパターンの特徴抽出の流れを示す図、第6
図は1次特徴抽出部における輪郭点の抽出法を示す図、
第7図はパターンの1例とその輪郭抽出点を示す図、第
8図は輪郭抽出点と輪郭接線方向の方向差の関係を示す
図、第9図は本発明適用の各輪郭抽出点における方向コ
ードを示す図、第1O図は輪郭点と方向コードの関係を
示す図、第11図は本発明による方向コードを示す図、
第12図は非線形マツチングを行なってパターンの距離
を求める際に用いるコードの位置ずれに対するペナルテ
ィを示す図、第13図はコードの対応付の例を示す図、
第14図は第13図の対応付に対するコード間の距離を
示す図、第15図は第11図に示した入カバターンのコ
ード列と文字2パの標準パターンのコード列との距離り
の算出方法の説明図、第16図は第11図に示した入カ
バターンのコード列と文字“°3゛の標準パターンのコ
ード列との距#Dの算出方法の説明図、第17図は標準
パターン2と入カバターンとの対応付を示す図、第18
図は抽出点をずらして選択する場合のフローチャート、
第19−1図は入カバターンの1例を示す図、第19−
2図は第19−1図に示した入カバターンのコード化の
例を示す図、第19−3図は第19−2図に示したコー
ド化^Ill l+j−k Lギ督1■^但人小1−に
′ル小11壬す図、第20図は第19−2図に示したコ
ード列と文字“3゛の標準パターンのコード列との距離
りの算出方法を示す図、第21図は第19−3図に示し
たコード列と文字“3”の標準パターンのコード列との
距離りの算出方法を示す図、第22図は第20図、第2
1図に示した各パターンの対応付を示す図、第23図は
細分化した方向コードを示す図、第24図は本発明のシ
ステム制御ブロック図。 106は制御用CPU 105は非線形マツチング回路 104は特徴抽出回路
FIG. 1 is a diagram showing a conventional direction code, FIG. 2 is a diagram showing an example of a pattern, FIG. 3 is a diagram showing the relationship between contour points and direction codes, and FIG. 4 is an image to which the present invention can be applied. FIG. 1 is a diagram showing an example of a processing system. FIG. 5-1 is a block diagram of the processing section. Figure 5-2 is a diagram showing the flow of pattern feature extraction;
The figure shows the contour point extraction method in the primary feature extraction section.
FIG. 7 is a diagram showing an example of a pattern and its contour extraction points, FIG. 8 is a diagram showing the relationship between the contour extraction points and the difference in the direction of the contour tangent, and FIG. A diagram showing the direction code, FIG. 1O is a diagram showing the relationship between contour points and the direction code, FIG. 11 is a diagram showing the direction code according to the present invention,
FIG. 12 is a diagram showing a penalty for positional deviation of codes used when calculating pattern distances by performing nonlinear matching, and FIG. 13 is a diagram showing an example of code correspondence.
Figure 14 is a diagram showing the distance between codes for the correspondence shown in Figure 13, and Figure 15 is a calculation of the distance between the code string of the input pattern shown in Figure 11 and the code string of the standard pattern of character 2-pa. An explanatory diagram of the method, Fig. 16 is an explanatory diagram of the method for calculating the distance #D between the code string of the input pattern shown in Fig. 11 and the code string of the standard pattern of character “°3゛”, and Fig. 17 is an explanatory diagram of the standard pattern Figure 18 showing the correspondence between 2 and the input cover pattern.
The figure is a flowchart for selecting extraction points by shifting them.
Figure 19-1 is a diagram showing an example of an input cover pattern, Figure 19-1
Figure 2 shows an example of encoding the input pattern shown in Figure 19-1, and Figure 19-3 shows the encoding shown in Figure 19-2. Figure 20 is a diagram showing how to calculate the distance between the code string shown in Figure 19-2 and the standard pattern code string of the character "3". Figure 21 is a diagram showing a method for calculating the distance between the code string shown in Figure 19-3 and the code string of the standard pattern of the character "3", and Figure 22 is a diagram showing the method for calculating the distance between the code string shown in Figure 19-3 and the code string of the standard pattern of the character "3".
1, FIG. 23 is a diagram showing subdivided direction codes, and FIG. 24 is a system control block diagram of the present invention. 106 is a control CPU 105 is a nonlinear matching circuit 104 is a feature extraction circuit

Claims (1)

【特許請求の範囲】 画像パターンの輪郭情報を所定方向に、追跡し輪郭点を
検出する検出手段、 上記検出手段により検出された輪郭点の中から所定個数
選び出す抽出手段、 上記抽出点に基いて輪郭接線方向の方向差を順次求め、
コード化する手段、 上記コード化手段によってコード化された コード列と標準コード列との非線形マツチングを行ない
上記画像パターンを認識する認識手段を有したことを特
徴とする画像処理装置。
[Claims] Detection means for tracing contour information of an image pattern in a predetermined direction to detect contour points; Extraction means for selecting a predetermined number of contour points from among the contour points detected by the detection means; Based on the extraction points. Sequentially find the directional difference in the contour tangent direction,
An image processing apparatus comprising: a coding means; and a recognition means for performing non-linear matching between the code string encoded by the coding means and a standard code string to recognize the image pattern.
JP59276461A 1984-04-27 1984-12-28 Picture processing device Pending JPS61156486A (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP59276461A JPS61156486A (en) 1984-12-28 1984-12-28 Picture processing device
GB08510712A GB2161006B (en) 1984-04-27 1985-04-26 Character recognition apparatus
DE19853515159 DE3515159A1 (en) 1984-04-27 1985-04-26 IMAGE PROCESSING DEVICE
US07/157,147 US4833721A (en) 1984-04-27 1988-02-11 Image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP59276461A JPS61156486A (en) 1984-12-28 1984-12-28 Picture processing device

Publications (1)

Publication Number Publication Date
JPS61156486A true JPS61156486A (en) 1986-07-16

Family

ID=17569764

Family Applications (1)

Application Number Title Priority Date Filing Date
JP59276461A Pending JPS61156486A (en) 1984-04-27 1984-12-28 Picture processing device

Country Status (1)

Country Link
JP (1) JPS61156486A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04103696U (en) * 1991-02-12 1992-09-07 三洋電機株式会社 electrical equipment

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04103696U (en) * 1991-02-12 1992-09-07 三洋電機株式会社 electrical equipment

Similar Documents

Publication Publication Date Title
US4408342A (en) Method for recognizing a machine encoded character
US5077805A (en) Hybrid feature-based and template matching optical character recognition system
US5610993A (en) Method of co-centering two images using histograms of density change
JP6900164B2 (en) Information processing equipment, information processing methods and programs
US4833721A (en) Image processing apparatus
US5832102A (en) Apparatus for extracting fingerprint features
JPH05506115A (en) Correlation masking process for deskewing, filtering and recognition of vertically segmented characters
JPS61156486A (en) Picture processing device
US5059775A (en) Slip and method of and apparatus for automatic reading of the slip
JP2580976B2 (en) Character extraction device
JP2965165B2 (en) Pattern recognition method and recognition dictionary creation method
JPH04268685A (en) Method for discriminating type of slips
JPS61156488A (en) Picture image processing device
JPS61156487A (en) Picture processing device
CN112183538B (en) Manchu recognition method and system
JP2959054B2 (en) Line type discrimination method in pattern recognition device
JP2885476B2 (en) Image processing method and apparatus
JPS6170674A (en) Image processor
JPS622382A (en) Feature extracting devie for pattern
JPS58165178A (en) Character reader
JPS60168283A (en) Character recognition device
JPH0365585B2 (en)
JPH09231314A (en) On-line handwritten character recognizing device
JPH09114927A (en) Method and device for rough classifying input characters in on-line character recognition
JPH0142029B2 (en)