JPS6365991B2 - - Google Patents

Info

Publication number
JPS6365991B2
JPS6365991B2 JP54141336A JP14133679A JPS6365991B2 JP S6365991 B2 JPS6365991 B2 JP S6365991B2 JP 54141336 A JP54141336 A JP 54141336A JP 14133679 A JP14133679 A JP 14133679A JP S6365991 B2 JPS6365991 B2 JP S6365991B2
Authority
JP
Japan
Prior art keywords
pattern
value
recognition method
character
standard
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired
Application number
JP54141336A
Other languages
Japanese (ja)
Other versions
JPS5665275A (en
Inventor
Hiromichi Fujisawa
Osamu Kunisaki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP14133679A priority Critical patent/JPS5665275A/en
Publication of JPS5665275A publication Critical patent/JPS5665275A/en
Publication of JPS6365991B2 publication Critical patent/JPS6365991B2/ja
Granted legal-status Critical Current

Links

Landscapes

  • Character Discrimination (AREA)

Description

【発明の詳細な説明】 本発明は、パターン認識方式に関し、特にパタ
ーン整合法(類似度法ともいう)を採用する文字
認識方式の改良に関する。
DETAILED DESCRIPTION OF THE INVENTION The present invention relates to a pattern recognition method, and particularly to an improvement of a character recognition method that employs a pattern matching method (also referred to as a similarity method).

従来、文字認識方式としては、活字に対しては
パターン整合法を採用しながらも、手書文字認識
に対しては細線化を行い中心線を用いた構造解析
法(例.佐野.他「H―8959形光学文字読取機」、
日立評論、vol.54,pp,1077―1082,1972)、あ
るいは白地や輪郭に注目した構造解析法が考察さ
れ、あるものは製品として製造されている。
Traditionally, character recognition methods have adopted pattern matching methods for printed characters, while structural analysis methods that use thin lines and center lines for handwritten character recognition (e.g. Sano et al. ``H. -8959 optical character reader"
Hitachi Hyoron, vol. 54, pp. 1077-1082, 1972), or structural analysis methods that focus on white backgrounds and contours have been considered, and some have been manufactured as products.

しかし、これら手書文字を認識するための構造
解析手法は、トポロジー(枝の接続関係、ループ
の有無など)を利用しているため、線の切れや接
触などの変形に対して弱く、それぞれの変形に対
して専用の標準パターンを用意しなければならな
いという欠点をもつている。しかも、これらの標
準パターンは、多くの場合、自動的に作成するこ
とが困難で人手に依存することが多く、文字読取
装置(以後OCRと呼ぶ)の開発に多大のコスト
がかかつている。
However, since these structural analysis methods for recognizing handwritten characters utilize topology (connection relationships of branches, presence or absence of loops, etc.), they are vulnerable to deformations such as line breaks and contact, and each It has the disadvantage that a dedicated standard pattern must be prepared for modification. Moreover, these standard patterns are often difficult to create automatically and often rely on human labor, which incurs a great deal of cost in developing character reading devices (hereinafter referred to as OCR).

一方、パターン整合法は活字認識に適用して成
功しているものの、パターン整合法のみの形態で
手書文字に適用した認識装置は実用化していな
い。
On the other hand, although the pattern matching method has been successfully applied to printed character recognition, a recognition device using only the pattern matching method for handwritten characters has not been put to practical use.

しかしながら、上記構造解析法の欠点に対して
パターン整合法のもつ利点、たとえば、1)構造
の如何なる違いをもつたパターン同志でも、それ
らの間の類似度又は距離が計算可能であるがゆえ
に、変形毎に標準パターンを用意しなくても良い
こと、2)認識処理の内容はアルゴリズミツクで
はなく数値的であるがゆえに単純明快であるこ
と、3)標準パターンを自動的に生成できるため
に開発コストが少いこと、などは一般的に認識さ
れている一方、従来のパターン整合法では手書文
字のように変形の度合の大きいパターンを認識す
ることはできないとされていた。
However, the advantages of the pattern matching method over the disadvantages of the above structural analysis method include: 1) It is possible to calculate the similarity or distance between patterns with any difference in structure; 2) The recognition process is simple and clear because it is numerical rather than algorithmic; 3) Development costs are reduced because standard patterns can be automatically generated. While it is generally recognized that there is a small amount of deformation, conventional pattern matching methods are not able to recognize highly deformed patterns such as handwritten characters.

これらの認識に対して、パターン整合法の長所
を生かしつつ手書文字認識を行なおうとする試み
も成されている。たとえば、特願昭47―50720号
「図形認識装置」、あるいは特願昭53―100377号
「図形認識方式」はパターン整合法の長所を生か
して、手書文字認識を可能とする装置あるいは方
式を示している。
Attempts have also been made to recognize handwritten characters while taking advantage of the advantages of pattern matching methods. For example, Japanese Patent Application No. 47-50720 ``Graphic Recognition Device'' or Japanese Patent Application No. 53-100377 ``Graphic Recognition Method'' utilize the advantages of pattern matching methods to develop a device or method that enables handwritten character recognition. It shows.

上記方式は、手書文字の変形に対処するために
大きなぼかし処理を施すものであるが、その際に
直接ぼかしを行つたのでは分解能が認識不能なほ
どに悪化してしまうため、ぼかしを行う前に、細
線化パターンを経由して方向性を抽出し、方向毎
にパターン面を分けて(上記特許では4面に分割
各面毎に大きなぼかし処理を施すというものであ
り、方向性と大きなぼかし処理を導入したという
点が従来にない新規なものであつた。
The above method performs a large blurring process to deal with the deformation of handwritten characters, but if the blurring is performed directly at that time, the resolution will deteriorate to the point where it is unrecognizable. Then, the directionality is extracted via the thinning pattern, and the pattern surface is divided for each direction. The introduction of processing was new and unprecedented.

しかしながら、上記の方式では方向性を抽出す
るのに、細線化パターンの接続関係を用いてい
る。従来すでに、細線化手法には理想に近い細線
化パターンを得る方式がなく多くの問題点を抱え
ていることが一般に認識されている。たとえば、
つぶれた文字に対処できない交差点で中心線が乱
れる、屈曲点で余分な短い枝が発生する、などで
ある。したがつて、細線化パターンを経由して方
向性を抽出する方法では、本来パターン整合法が
持つているとされる長所をなくしてしまうおそれ
がある。
However, in the above method, the connection relationship of the thinning pattern is used to extract the directionality. It has already been generally recognized that line thinning methods have many problems because there is no method for obtaining a thinning pattern that is close to the ideal. for example,
Center lines are disrupted at intersections where crushed characters cannot be dealt with, and extra short branches occur at bend points. Therefore, the method of extracting directionality via a thinning pattern may eliminate the advantages that the pattern matching method originally has.

したがつて、本発明の目的は、方向性と大きな
ぼかし処理を導入したパターン整合法を実現する
に際し、上記問題点を解決することにある。すな
わち、方向性を抽出するために中心線を求めるこ
となく、文字パターンに空間微分を施すことによ
つて方向性を抽出する方式を提供する。
Therefore, an object of the present invention is to solve the above-mentioned problems when realizing a pattern matching method that introduces directionality and large blurring processing. That is, the present invention provides a method for extracting directionality by subjecting a character pattern to spatial differentiation without determining the center line in order to extract directionality.

まず、本発明方式の概要を、認識処理に沿つて
説明する。第1図は本方式の認識処理の流れ図で
ある。ある一文字に注目して処理を説明すると、
紙面上に印刷、タイプ、あるいは手書きされた文
字パターンは光電変換により、反射率に応じた値
を持つ信号に変換される。光電変換は通常紙面を
ある一定の順序に走査することによつて行なわ
れ、同段階では、文字もそれ以外の白地の領域も
一様に扱われており、文字の位置はまだ同定され
ていない。光電変換された後の信号は、電圧など
のアナログ量の場合と、それを量子化したデイジ
タル量の場合もある。これらの量はそのまま認識
処理に渡すには、処理量が多すぎるので、二値化
を施し、文字パターンは、白地の点で0の値、黒
い線上の点で1の値をとるようにする。光電変換
された信号は光学系や照明系の影響を受けてシエ
イデイング(反射率とそれを測定した結果との比
が一様でないこと)があつたり、紙面上の細かい
反射率の乱れや光電変換素子の熱雑音などの影響
によるノイズが混入しており、直接二値化処理を
施せない。したがつて、二値化の前にシエイデイ
ング除去や、フイルタリングによるノイズ除去な
どの前処理が必要となる。これらが第1図におけ
る処理2である。
First, an overview of the method of the present invention will be explained along with the recognition process. FIG. 1 is a flowchart of the recognition process of this method. If we focus on one character and explain the process,
A character pattern printed, typed, or handwritten on paper is converted by photoelectric conversion into a signal with a value corresponding to reflectance. Photoelectric conversion is usually performed by scanning the paper surface in a certain order, and at this stage, both the characters and other white areas are treated equally, and the position of the characters has not yet been identified. . The signal after photoelectric conversion may be an analog quantity such as voltage, or a digital quantity obtained by quantizing it. Since these quantities require too much processing to pass through to recognition processing as they are, they are binarized so that the character pattern takes a value of 0 at points on the white background and a value of 1 at points on the black line. . The photoelectrically converted signal is affected by the optical system and illumination system, causing shading (uneven ratio between the reflectance and the measured result), small disturbances in the reflectance on the paper, and photoelectric conversion. Noise is mixed in due to the effects of element thermal noise, etc., so direct binarization processing cannot be performed. Therefore, preprocessing such as shading removal and noise removal by filtering is required before binarization. These are process 2 in FIG.

処理3は上記処理2で得られた二値パターン
(通常は行単位で保持)から一文字ずつ分離し、
一定の大きさの枠で切り出す。切り出されたパタ
ーンは、縦mビツト、横nビツト、合計m・nビ
ツトの二値パターンf(i,j)(i=1,2,
…,m;j=1,2,…,n)となる。
Processing 3 separates each character from the binary pattern obtained in Processing 2 (usually held on a line-by-line basis),
Cut out a frame of a certain size. The extracted pattern is a binary pattern f(i,j) (i=1, 2,
..., m; j=1, 2, ..., n).

f(i,j)=0なる点(i,j)は紙面上の白
い点であり、f(i,j)=1なる点は印刷された
部分、又は筆記された黒い部分である。
The point (i, j) where f(i,j)=0 is a white point on the paper surface, and the point where f(i,j)=1 is a printed part or a black part written in writing.

手書文字の場合は通常、帳票と呼ばれる所定の
枠の印刷された紙面に書かれる。同枠は多くの場
合、縦7mm、横5mm程度であり、走査ピツチが縦
横0.11mmの場合、切り出されたパターンはおよそ
64×48ビツト(m=64,n=48)の大きさにな
る。手書文字はこの範囲内で各種の大きさや位置
で書かれるため、パターン整合が有効に働くよう
に、これらを一定の位置と大きさに正規化する。
同処理が第1図の処理4である。処理2,3,4
は一括して前処理10と呼ぶことにする。第2図
に位置と大きさの正規化の例を図示する。
Handwritten characters are usually written on a printed sheet of paper in a predetermined frame called a form. In most cases, the frame is about 7 mm in height and 5 mm in width, and if the scanning pitch is 0.11 mm in height and width, the cut out pattern will be approximately
The size is 64 x 48 bits (m = 64, n = 48). Since handwritten characters are written in various sizes and positions within this range, these are normalized to a fixed position and size so that pattern matching works effectively.
This process is process 4 in FIG. Processing 2, 3, 4
will be collectively referred to as preprocessing 10. FIG. 2 illustrates an example of position and size normalization.

位置、大きさの正規化は以下のように行う。第
2図に示すように、切り出しパターンf(i,j)
を調べて、縦方向の文字の上端座標is、下端座標
ie、横方向左端座標js、右端座標jeを決定する。
大きさの正規化の係数、すなわち伸縮率を、縦方
向、横方向それぞれGi,Gjとすると、これらは以
下のように決まる。正規化後の文字は最大28ビツ
ト×28ビツトの大きさであるとすれば、 Gi=max((ie−is+1)/28,0.25) (1) Gj=max((je−js+1)/28,0.25) (2) ここで、(1)式において、maxは(ie−is
1)/28と0.25との大きい方の値をとることを意
味する。また、これらの大きい方の値を取る目的
は、切り出しパターンの大きさが極めて小さい場
合に、(5)式で示す正規化処理で極めて大きいな拡
大をしないようにするためである。
The position and size are normalized as follows. As shown in Fig. 2, the cutout pattern f(i,j)
Check the vertical character's top coordinate i s and bottom coordinate
i e , the horizontal left end coordinate j s , and the right end coordinate j e are determined.
Assuming that the size normalization coefficients, that is, the expansion/contraction ratios are G i and G j in the vertical and horizontal directions, respectively, these are determined as follows. Assuming that the character after normalization has a maximum size of 28 bits × 28 bits, G i = max ((i e −i s +1) / 28, 0.25) (1) G j = max ((j e −j s +1)/28, 0.25) (2) Here, in equation (1), max is (i e −i s +
1) This means taking the larger value of /28 and 0.25. Furthermore, the purpose of taking the larger value is to prevent an extremely large enlargement in the normalization process shown by equation (5) when the size of the cutout pattern is extremely small.

(1)式の場合は、結局Giの値は0.25以下になるこ
とはなく、従つて、(5)式で4倍(0.25の逆数)以
上の拡大は行わないことになる。(1)式は縦方向の
正規化についてであるが、(2)式は横方向の正規化
についてであり、意味は(1)式の場合と同様であ
る。
In the case of equation (1), the value of G i will never be less than 0.25, and therefore, in equation (5), expansion by a factor of four (the reciprocal of 0.25) or more will not be performed. Equation (1) is about normalization in the vertical direction, whereas equation (2) is about normalization in the horizontal direction, and has the same meaning as equation (1).

パターンf(i,j)における開始点(IS,
JS)を以下のように決める。
The starting point (IS,
JS) as follows.

IS=is−Gi×2 (3) JS=js−Gj×2 (4) これにより、正規化後のパターンを第2図34
のように中央に位置させることができる。
IS=i s −G i ×2 (3) JS=j s −G j ×2 (4) This allows the normalized pattern to be
It can be centered like this.

このとき、正規化パターンは以下のような式で
求められる。
At this time, the normalized pattern is obtained using the following formula.

g(i,j)=f(IS+Gi(i−1) ,JS+Gj(j−1)) (5) ここで、第2図の場合には、iとjは1から32
の整数をとる。(5)式から分るように、正規化パタ
ーンg(i,j)は、切り出しパターンfをサン
プリングしたものとなる。
g (i, j) = f (IS + G i (i-1) , JS + G j (j-1)) (5) Here, in the case of Figure 2, i and j are 1 to 32
Takes an integer. As can be seen from equation (5), the normalized pattern g(i, j) is a sample of the cutout pattern f.

第1図において次の処理は方向性抽出(処理
5)である。方向性抽出は位置と大きさの正規化
後のパターンg(i,j),(i=1,2,…,
m1;J=1,2,…,n1)に対して施される。
パターンg(i,j)は方向別に8面のパターン
h〓(i,j)(θ=1,2,…8;i=1,2,
…,m2;j=1,2,…,n2)に分離される。
θは全方向(360゜)を45゜おきに量子化したもの
で、第3図に示す8方向を表す。
In FIG. 1, the next process is directionality extraction (process 5). Directional extraction is performed using patterns g(i, j), (i=1, 2,..., after position and size normalization).
m 1 ; J=1, 2,..., n 1 ).
Pattern g(i,j) is a pattern of 8 faces in each direction.
h〓(i,j)(θ=1,2,...8;i=1,2,
…, m 2 ; j=1, 2, …, n 2 ).
θ is obtained by quantizing all directions (360°) at intervals of 45°, and represents the 8 directions shown in FIG.

方向性は空間微分を施すことにより検出するこ
とができる。量子化された空間で真の微分はでき
ないが近似的に求めることはできる。いま、パタ
ーンg(i,j)のある一点(i,j)のまわり
を二次曲面で近似する。すなわち、 g〓(ξ+i,η+j)=a1ξ2+2a2ξη +a3η2+a4ξ+a5η+a6 (6) と置く。縦方向、横方向の点(i,j)での偏微
分値は、それぞれ ∂g〓/∂ξ〓==0=a4 (7) ∂g〓/∂η〓==0=a5 (8) で与えられることになる。従つて、点(i,j)
のまわりの9点から最小自乗法によつて(6)式の係
数a4,a5を求めればよいことになる。結局、 a4=1/3{g(i+1,j+1)+g(i+1,j
)g(i,1,j−1)} −1/3{g(i+1,j+1)+g(i−1,j
)+g(i−1,j−1)}(9) a5=1/3{g(i+1,j+1)+g(i,j+1
)+g(i−1,j+1)} −1/3{g(i+1,j−1)+g(i,j−1
)+g(i−1,j−1)}(10) と求まる。
Directivity can be detected by applying spatial differentiation. True differentiation is not possible in quantized space, but it can be obtained approximately. Now, a quadratic surface is approximated around a certain point (i, j) of pattern g (i, j). That is, we set g〓(ξ+i, η+j)=a 1 ξ 2 +2a 2 ξη +a 3 η 2 +a 4 ξ+a 5 η+a 6 (6). The partial differential values at points (i, j) in the vertical and horizontal directions are respectively ∂g〓/∂ξ〓 ==0 =a 4 (7) ∂g〓/∂η〓 ==0 =a 5 (8). Therefore, the point (i,j)
The coefficients a 4 and a 5 of equation (6) can be found by the least squares method from nine points around . After all, a 4 = 1/3 {g(i+1,j+1)+g(i+1,j
)g(i,1,j-1)} -1/3{g(i+1,j+1)+g(i-1,j
)+g(i-1,j-1)}(9) a 5 =1/3{g(i+1,j+1)+g(i,j+1
)+g(i-1,j+1)}-1/3{g(i+1,j-1)+g(i,j-1
)+g(i-1,j-1)}(10).

ここでg(i,j)は二値パターンであるので、
得られる空間微分ベクトル(a4,a5)は一定の範
囲内: −1≦a4≦1 (11) −1≦a5≦1 (12) の値のみしかとらず、従つて、各ベクトル(a4
a5)に対して予めその法線方向、又はそれと直交
する輪郭の方向を計算しておけば、(9),(10)式の計
算後直ちに表引きにより、方向と変化の強さを得
ることができる。
Here g(i,j) is a binary pattern, so
The resulting spatial differential vectors (a 4 , a 5 ) take only values within a certain range: −1≦a 4 ≦1 (11) −1≦a 5 ≦1 (12), and therefore each vector (a 4 ,
If the normal direction or the direction of the contour perpendicular to it is calculated in advance for a 5 ), the direction and strength of change can be obtained by table lookup immediately after calculating equations (9) and (10). be able to.

実際には、(9),(10)式において3で割る必要はな
い。ここでは、 a4′=3・a4 (13) a5′=3・a5 (14) を空間微分として求めるものとする。
Actually, there is no need to divide by 3 in equations (9) and (10). Here, a 4 ′=3・a 4 (13) a 5 ′=3・a 5 (14) are determined as spatial differentials.

変化の強さは√(4252)に比例して決ま
る。実際には整数、しかも一定の幅の中に量子化
する。量子化した輪郭を方向θ、量子化した変化
の強さをvとすると、これらは(a4′,a5′)から
求まるので次式のように表わせる。
The strength of the change is determined in proportion to √( 42 + 52 ). In reality, it is quantized into integers and within a certain width. Letting the quantized contour be the direction θ and the strength of the quantized change be v, these can be expressed from (a 4 ′, a 5 ′) as shown in the following equation.

θ=θ(a4′,a5′) (15) v=v(a4′,a5′) (16) (15),(16)式は表の形で実現できる。θ=θ(a 4 ′, a 5 ′) (15) v=v(a 4 ′, a 5 ′) (16) Equations (15) and (16) can be realized in the form of a table.

第4図に空間微分の例、第5図に方向θ、第6
図に強さvの数値を示す。たとえば、点(i,
j)のまわりの9点のパターンが第4図aのよう
であつたとすると、(9),(10),(13),(14)式から
a4′=2,a5′=2となる。これらの値から第5図
に示す表を引けばθ=2、第6図に示す表を引け
ばv=6と方向、および強さが求まる。
Figure 4 shows an example of spatial differentiation, Figure 5 shows the direction θ,
The figure shows the numerical value of strength v. For example, point (i,
If the pattern of 9 points around j) is as shown in Figure 4 a, then from equations (9), (10), (13), and (14),
a 4 ′=2, a 5 ′=2. By subtracting the table shown in FIG. 5 from these values, θ=2, and by subtracting the table shown in FIG. 6, v=6, indicating the direction and strength.

正規化パターンg(i,j)のすべての点に対
して(θ,v)が求められ、以下の手続により方
向性特徴パターン{h〓(i′,j′)|θ=1,2,…

8;i′=1,2,…,m2;j′=1,2,…,n2
を作成する。すなわち、 点(i,j)に対し、(θ,v)が求まると、 h〓(i′,j′)=h〓(i′,j′)+v (17) とする。ここで、 i′=〔m2/m1・(i−1)〕+1 (18) j′=〔n2/n1・(j−1)〕+1 (19) また〔 〕はガウス記号である。
(θ, v) is obtained for all points of the normalized pattern g(i, j), and the directional feature pattern {h〓(i′, j′)|θ=1,2, …

8;i'=1,2,..., m2 ;j'=1,2,..., n2 }
Create. That is, when (θ, v) is found for point (i, j), h〓(i′, j′)=h〓(i′, j′)+v (17). Here, i′=[m 2 /m 1・(i−1)]+1 (18) j′=[n 2 /n 1・(j−1)]+1 (19) Also, [ ] is a Gaussian symbol. be.

このようにして得られた方向性パターンh〓にぼ
かし処理を施す。第1図の処理6である。ぼかし
処理は二次元点ひろがり関数(point spread
function)を方向性パターンh〓にたたみ込むもの
である。点ひろがり関数は空間的な低域通過フイ
ルタである。いま、点ひろがり関数をb(k,l)
(k=1,2,…,m3;=1,2,…,n3)と
すると、ぼかし処理は次式で表わせる。
The directional pattern h〓 obtained in this way is subjected to a blurring process. This is process 6 in FIG. The blurring process uses a two-dimensional point spread function (point spread function).
function) into the directional pattern h〓. The point spread function is a spatial low-pass filter. Now, the point spread function is b(k,l)
When (k=1, 2,..., m 3 ;=1, 2,..., n 3 ), the blurring process can be expressed by the following equation.

(h〓〓(i,j)=n3k=1 o2 〓 〓l=1 b(k,l)・h〓(i−k+m3+1/2,j−l+
n3+1/2)(20) 点ひろがり関数b(k,l)はガウス関数を適
当に整数値で近似したものである。ここでは、0
以外の値をもつ範囲を原点を中心に縦横3ビツ
ト、すなわちm3=5,n3=5とする。関数b
(k,l)の具体的な値を第7図に示す。ぼかし
の程度はガウス関数のひろがりの度合を指定する
パラメータσによつて設定する。最適なぼかしの
程度は字種や、方向性パターンの大さきm2,n2
などに依存する。第7図は、m2=n2=8に対し
て最適なσ=1に対して求めたものである。
(h〓〓(i,j)= n3k=1 o2 〓 〓 l=1 b(k,l)・h〓(i−k+m 3 +1/2, j−l+
n 3 +1/2) (20) The point spread function b(k,l) is a Gaussian function appropriately approximated by an integer value. Here, 0
The range having values other than the above is defined as 3 bits in the vertical and horizontal directions centered on the origin, that is, m 3 =5, n 3 =5. function b
Specific values of (k, l) are shown in FIG. The degree of blurring is set by a parameter σ that specifies the degree of spread of the Gaussian function. The optimal degree of blurring depends on the type of character and the size of the directional pattern (m 2 , n 2 )
Depends on etc. FIG. 7 shows the results obtained for the optimum σ=1 for m 2 =n 2 =8.

ぼかし処理(第1図,処理6)は大きさの正規
化を施したパターンg(i,j)を単に圧縮した
パターンh0(i′,j′)に対しても適用される。ぼか
し処理前のパターンh0(i′,j′)はg(i,j)の
各点に対して次式で示される処理を施すことによ
り求められる。すなわち、 h0(i′,j′)=h0(i′,j′)+g(i,j)(21) ただし、 i′=〔m2/m1(i−1)〕+1 (22) j′=〔m2/m1(j−1)〕+1 (23) また〔 〕はガウス記号である。
The blurring process (process 6 in FIG. 1) is also applied to the pattern h 0 (i', j') that is simply compressed from the size-normalized pattern g (i, j). The pattern h 0 (i', j') before the blurring process is obtained by applying the process shown by the following equation to each point of g(i, j). That is, h 0 (i', j') = h 0 (i', j') + g (i, j) (21) where, i' = [m 2 /m 1 (i-1)] + 1 (22 ) j′=[m 2 /m 1 (j-1)]+1 (23) Also, [ ] is a Gaussian symbol.

h0(i′,j′)に対するぼかし処理は、h〓(i′,j
′)
に対する場合と全く同様に、 h〓0(i,j)=n3k=1 o3 〓 〓l=1 b(k,l)・h0(i−k+m3+1/2,j−l+n
3+1/2(24) に従つておこなわれる。
The blurring process for h 0 (i′, j′) is h〓(i′, j
′)
In exactly the same way as for
It is performed according to 3 + 1/2 (24).

方向性を抽出したパターンh〓〓は第1次の特徴パ
ターン、そのままぼかしたパターンh〓0は第0次の
特徴パターンと呼ぶ。
The pattern h〓〓 from which the directionality has been extracted is called a first-order feature pattern, and the pattern h〓〓 which is blurred as is is called a zero-th order feature pattern.

以上の過程、処理5,6はまとめて処理20、
すなわち特徴抽出と呼ばれる。(第1図参照) 第8図に、実際に手書文字パターン「0」,
「1」,「2」に特徴抽出を施したパターンを図示
する。第8図において、右端のh〓0が圧縮パターン
にぼかし処理を施したパターンを示し、h〓1〜h〓8
各方向別特徴パターンにぼかし処理を施したパタ
ーンを示している。
The above processes and processes 5 and 6 are combined into process 20.
In other words, this is called feature extraction. (See Figure 1) Figure 8 shows the actual handwritten character pattern "0",
A pattern obtained by performing feature extraction on “1” and “2” is illustrated. In FIG. 8, h〓 0 at the right end indicates a pattern obtained by blurring the compressed pattern, and h〓 1 to h〓 8 indicate patterns obtained by performing blurring processing on the feature patterns for each direction.

認識における次の処理は階層的パターン整合、
(第1図,処理7)である。パターン整合法(類
似度法)は、特徴抽出された未知パターン{h〓〓
(i,j)|θ=0,1,2,…,8}と標準パタ
ーン{H〓(i,j;k,ω)|θ=0,1,…,
8;k=1,2,…,K}の各各と類似度を求め
ることにより認識を行うものである。ここでkは
各標準パターンに付された通し番号、Kは標準パ
ターンの総数、ωはカテゴリを示す番号でkの関
数である。すなわち、 ω=ω(k) (25) 手書文字の場は、文字形状の変形の種類、量が
大きく、1カテゴリあたり用意しなければならな
い標準パターンの数は大きい。したがつて、カテ
ゴリ数が100程度(数字、英字、片仮名、記号)
となる場合、類似度を計算しなければならない標
準パターンの数Kはかなり大きくなる。
The next process in recognition is hierarchical pattern matching,
(FIG. 1, Process 7). The pattern matching method (similarity method) is based on the feature extracted unknown pattern {h〓〓
(i, j) | θ = 0, 1, 2, ..., 8} and the standard pattern {H 〓 (i, j; k, ω) | θ = 0, 1, ...,
8; k=1, 2, . . . , K}, recognition is performed by determining the degree of similarity. Here, k is a serial number given to each standard pattern, K is the total number of standard patterns, and ω is a number indicating a category and is a function of k. That is, ω=ω(k) (25) In the field of handwritten characters, the types and amounts of character shape deformation are large, and the number of standard patterns that must be prepared for each category is large. Therefore, the number of categories is around 100 (numbers, alphabets, katakana, symbols)
In this case, the number K of standard patterns whose similarity must be calculated becomes considerably large.

一方、認識速度は高速にする必要があることか
ら類似度計算を行う回数を極力押える必要があ
る。この問題を解決するために階層性を導入する
ことは公知である。本方式では二層構成とし、第
一層に第0次特徴量h〓0を用い、候補の数を最大
Ncまで絞り、絞られた候補についてのみ第1次
特徴量{h〓〓|θ=1,2,…,8}を用いて最終
判定に持ち込む。
On the other hand, since the recognition speed needs to be high, it is necessary to minimize the number of times similarity calculations are performed. It is known to introduce hierarchy to solve this problem. This method has a two-layer structure, and the 0th-order feature h〓 0 is used in the first layer to maximize the number of candidates.
The candidates are narrowed down to Nc , and only the narrowed down candidates are brought to the final judgment using the primary feature amount {h〓〓|θ=1, 2,...,8}.

まず第一層での処理を説明する。 First, the processing in the first layer will be explained.

第一層で指定すべきパラメータは、 Nc:最大候補数 δ1:絶対閾値 ε1:相対閾値 の3つで、候補数を制御することができる。第一
層への入力は未知パターンから作られた第0次特
徴量h〓0であり、出力は候補文字数N、および各候
補に対応する標準パターン番号の集合{λ(ν)|
ν=1,2,…,N}である。候補文字集合を得
るための手順を説明する。
There are three parameters to be specified in the first layer: N c : maximum number of candidates δ 1 : absolute threshold ε 1 : relative threshold, and the number of candidates can be controlled. The input to the first layer is the 0th-order feature h〓 0 created from the unknown pattern, and the output is the number of candidate characters N and the set of standard pattern numbers corresponding to each candidate {λ(ν)|
ν=1, 2,...,N}. The procedure for obtaining a candidate character set will be explained.

(S1.1)k=1,N=0,ρnax=0,ρnio=1
とする。
(S1.1) k = 1, N = 0, ρ nax = 0, ρ nio = 1
shall be.

(S1,2)類似度ρ1(h〓0,H0)を次式に従つて
計算する。
(S1, 2) Calculate the similarity ρ 1 (h〓 0 , H 0 ) according to the following equation.

ρ1(h〓0,H0)=α0・β0n3i=1 o2j=1 h〓0(i,j)・H0(i,
j;k,ω) (26) ただし、 α0=〔n3i=1 o3j=1 h2 0(i,j)〕−1/2 (27) β0=〔n3i=1 o3j=1 H2 0(i,j;k,ω)〕−1/2 (28) (S1,3ρ1(h〓0,H0)<max(δ1,ρnax−ε1

ときは(S1.7)へ行く。それ以外のときは
(S1.4)へ行く。
ρ 1 (h〓 0 , H 0 )=α 0・β 0n3i=1 o2j=1 h〓 0 (i, j)・H 0 (i,
j; k, ω) (26) However, α 0 = [ n3i=1 o3j=1 h 2 0 (i, j)] - 1/2 (27) β 0 = [ n3i=1 o3j=1 H 2 0 (i, j; k, ω)〕−1/2 (28) (S 1 , 3ρ 1 (h〓 0 , H 0 )<max(δ 1 , ρ nax −ε 1 )
If so, go to (S1.7). Otherwise, go to (S1.4).

(S1.4)N′>0のときは(S1.5)へ行く。
N′=0のときは、 N′=1 ρnax=ρ1(h〓0,H0) ρnio=ρ1(h〓0,H0) λ(N)=k,φ(N′)=ρ1(h〓0,H0) とし、(S1.7)へ行く。
(S1.4) If N′>0, go to (S1.5).
When N'=0, N'=1 ρ nax = ρ 1 (h〓 0 , H 0 ) ρ nio = ρ 1 (h〓 0 , H 0 ) λ(N)=k, φ(N') =ρ 1 (h〓 0 , H 0 ) and go to (S1.7).

(S1.5)N′=Ncのときは(S1.6)へ行く。 (S1.5) When N′=N c , go to (S1.6).

N′<Ncのときは、 N′=N′+1 λ(N′)=k,φ(N′)=ρ1(h〓0,H0) とし、さらにρnio>ρ1(h〓0,H0)のときは、 ρnio=ρ1(h〓0,H0) また、ρnax<ρ1(h〓0,H0)のときは ρnax=ρ1(h〓0,H0) とする。(S1.7)へ行く。When N′<N c , N′=N′+1 λ(N′)=k, φ(N′)=ρ 1 (h〓 0 , H 0 ), and further ρ nio1 (h〓 0 , H 0 ), ρ nio = ρ 1 (h〓 0 , H 0 ), and when ρ nax1 (h〓 0 , H 0 ), ρ nax = ρ 1 (h〓 0 , H 0 ). Go to (S1.7).

(S1.6)ρnio>ρ1(h〓0,H0)のときは、(S1.7)
へ行く。そうでない場合は、ρnio=φ(n)
となるn*を捜し、 λ(n*)=k,φ(n*)=ρ1(h〓0,H0) とし、改めて、{φ(ν)|ν=1,2,…,Nc
の中の最小値を捜し、ρnioとする。さらに、 ρnax<ρ1(h〓0,H0)のときは ρnax=ρ1(h〓0,H0) とする。
(S1.6) When ρ nio > ρ 1 (h〓 0 , H 0 ), (S1.7)
go to Otherwise, ρ nio =φ(n)
Find n * that becomes _ c }
Find the minimum value among and set it as ρ nio . Furthermore, when ρ nax1 (h〓 0 , H 0 ), ρ nax = ρ 1 (h〓 0 , H 0 ).

(S1.7)k=k+1とする。k≦Kのときは
(S1.2)へ戻る。k>Kのときは次へ進む。
(S1.7) Let k=k+1. When k≦K, return to (S1.2). When k>K, proceed to the next step.

(S1.8){φ(ν)|ν=1,…N′}の中でφ
(ν)<ρnax−ε1 となるνすべてに対して λ(ν)=0 とする。また、それらのνの数をn0とすると、 N=N′−n0 とする。さらに、{λ(ν)|ν=1,…,N′}か
らλ(ν)=0なる要素を捨てて、並べ直したもの
をあらためて{λ(ν)|ν=1,…,N}とす
る。
(S1.8) φ in {φ(ν) | ν=1,...N′}
Let λ(ν)=0 for all ν such that (ν)<ρ nax −ε 1 . Further, if the number of ν is n 0 , then N=N'-n 0 . Furthermore, we discard the element λ(ν)=0 from {λ(ν)|ν=1,...,N'} and rearrange the element again {λ(ν)|ν=1,...,N} shall be.

以上が第一層の処理であり、出力はNと{λ
(ν)|ν=1,…,N}である。
The above is the first layer processing, and the output is N and {λ
(ν)|ν=1,...,N}.

第二層の処理は第一層の出力を受けて行われ
る。第二層の出力は未知パターンの第1次特徴量
{h〓〓{i,j)|θ=1,2,…,8}と候補文字
の標準パターンとの最大および次大類似度および
標準パターン番号である。手順を説明する。
The processing of the second layer is performed in response to the output of the first layer. The output of the second layer is the maximum and dimensional similarity between the primary feature of the unknown pattern {h〓〓{i, j) | θ = 1, 2, ..., 8} and the standard pattern of the candidate character, and the standard This is the pattern number. Explain the steps.

(S2.1)ν=1,ρnax=0,ρnax2=0とする。 (S2.1) Let ν=1, ρ nax =0, ρ nax2 =0.

(S2.2)k=λ(ν)として以下の式によつて
類似度ρ2(h〓〓,H〓)を求める。
(S2.2) Find the similarity ρ 2 (h〓〓, H〓) using the following formula with k=λ(ν).

ρ2(h〓〓,H〓)=1/88 〓 〓=1aθ{α〓.β〓n3i=1 o3j=1 h〓〓(i,j)・H〓(i,j;k,ω} (29) ただし、ここで α〓=〔n3i=1 o3j=1 h〓2(i,j)〕-1/2 (30) β〓=〔n3i=1 o3j=1 H〓2(i,j;k,ω)〕-1/2 (31) a〓≧0,8 〓 〓=1a〓=1 (32) である。 ρ 2 (h〓〓, H〓)=1/8 8 〓 〓 =1 aθ{α〓. β〓 n3i=1 o3j=1 h〓〓(i,j)・H〓(i,j;k,ω} (29) However, here α〓=〓[ n3i=1 o3j=1 h〓 2 (i, j)〕 -1/2 (30) β〓=[ n3i=1 o3j=1 H〓 2 (i, j; k, ω)] -1/2 (31) a〓≧0, 8 〓 〓 =1 a〓=1 (32)

(S2.3)ρ2(h〓〓,H〓)<ρnax2のときは(S2.6
)へ
行く。それ以外は次へ進む。
(S2.3) When ρ 2 (h〓〓, H〓)<ρ nax2 , (S2.6
). Otherwise, proceed to the next step.

(S2.4)ρ2(h〓〓,H〓)<ρnaxのときは(S2.5)

行く。それ以外のときは、 ρnax2=Pnax knax2=knax ρnax=ρ2(h〓〓,H〓) knax=k とし(S2.6)へ行く。
(S2.4) When ρ 2 (h〓〓, H〓)<ρ nax (S2.5)
go to Otherwise, set ρ nax2 = P nax k nax2 = k nax ρ nax = ρ 2 (h〓〓, H〓) k nax = k and go to (S2.6).

(S2.5)ρnax2=ρ2(h〓〓,H〓) knax2=k とし(S2.6)へ行く。 (S2.5) ρ nax2 = ρ 2 (h〓〓, H〓) k nax2 = k and go to (S2.6).

(S2.6)ν=ν+1とする。ν>Nのときは終
了。それ以外のときは(S2.2)へ戻る。
(S2.6) Let ν=ν+1. When ν>N, the process ends. Otherwise, return to (S2.2).

以上の過程が階層的パターン整合(第1図、処
理7)である。一標準パターン当りの類似度計算
に要する処理量は、第一層が第二層の1/8であり
その分だけ、階層性導入により高速化が計れるこ
とになる。
The above process is hierarchical pattern matching (FIG. 1, process 7). The amount of processing required to calculate the similarity per standard pattern in the first layer is 1/8 of that in the second layer, and the introduction of hierarchy can speed up the process by that much.

最後の処理は、階層的パターン整合の出力であ
る最大、次大類似度、ρnax,Pnax2およびそれら
に対応する標準パターン番号knax,knax2によつ
て行う最終判定と、結果の出力である。
The final process is the final judgment performed using the maximum and dimensional similarities, ρ nax and P nax 2, which are the outputs of hierarchical pattern matching, and their corresponding standard pattern numbers k nax and k nax2 , and the output of the results. It is.

最終判定は次のように行う。ここで、2つのパ
ラメータ δ2:絶対閾値 δ2:相対閾値 を用いる。
The final judgment is made as follows. Here, two parameters δ 2 : absolute threshold and δ 2 : relative threshold are used.

(判定論理) ρnax≧max(δ2,ρnax2+ε2) (33) が満たされれば、未知パターンの属するカテゴリ
は ω(knax)であると決定する。
(Decision logic) If ρ nax ≧max (δ 2 , ρ nax22 ) (33) is satisfied, it is determined that the category to which the unknown pattern belongs is ω(k nax ).

(33)式が満たされなく、 ρnax<δ2 (34) であれば、第1種の認識不能、 ρnax<ρnax+ε2 (35) であれば、第2種の認識不能であると判定し、そ
れぞれ対応したコードを所定のフオーマツトで出
力する。
If Equation (33) is not satisfied and ρ nax2 (34), it is unrecognizable of the first kind, and if ρ naxnax2 (35), it is unrecognizable of the second kind. The corresponding code is output in a predetermined format.

最後に、入力パターンの方向性特徴パターンの
ぼかしパターンと標準パターンとから(29)式にお
けるa〓を(32)式で与えられる条件のもとに、選択
的かつ自動的に決定する方法について説明する。
Finally, we will explain how to selectively and automatically determine a〓 in equation (29) from the blur pattern of the directional feature pattern of the input pattern and the standard pattern under the conditions given by equation (32). do.

入力パターンの方向性特徴パターンのぼかしパ
ターンと標準パターンとから(30)式、(31)式にし
たがつて、α〓,β〓を求め、これをもとに、入力パ
ターンに対する8次元ベクトルX→と、標準パター
ンに対する8次元ベクトルS→を求める。
From the blurred pattern of the directional feature pattern of the input pattern and the standard pattern, α〓, β〓 are calculated according to equations (30) and (31), and based on this, the 8-dimensional vector X for the input pattern is calculated. → and an eight-dimensional vector S→ for the standard pattern.

X→=(1/α1,1/α2,…,1/α8) (36) S→=(1/β1,1/β2,…,1/β8) (37) X→とS→から重みベクトル W→=(a1,a2,…,a8) (38) を求める方法は、認識すべきパターンの種類、
数、品質など認識すべき対象の性質によつて決定
されるが、認識実験の結果つぎのような方法が有
効なことが確認された。
X→=(1/α 1 , 1/α 2 ,…, 1/α 8 ) (36) S→=(1/β 1 , 1/β 2 ,…, 1/β 8 ) (37) X→ The method of calculating the weight vector W→=(a 1 , a 2 , ..., a 8 ) (38) from S→ and S→ is based on the type of pattern to be recognized,
Although it is determined by the nature of the object to be recognized, such as the number and quality, recognition experiments have confirmed that the following method is effective.

によれば、各方向別重みのうち重要度の低い重み
の大きさをより圧縮させることができるため、入
力パターンを、互いに似た形状を有する標準パタ
ーン群と同一のグループに属するとして精度よく
分類することができる。
According to the method, it is possible to further compress the size of the less important weights among the weights for each direction, so it is possible to accurately classify input patterns as belonging to the same group as a group of standard patterns that have similar shapes. can do.

すなわち、通常の階層的パターン整合法におけ
るパターン分類のステツプに適用して効果大なら
しめる方法といえる。
In other words, it can be said that this method is highly effective when applied to the pattern classification step in a normal hierarchical pattern matching method.

によれば、各方向別重みのうち重要度の高い重み
の大きさをより強調させることができるため、入
力パターンと標準パターンとの各部の構造の違い
を詳細に比較してその本質的な差にもとづいて、
標準パターンのいずれかに精度よく同定すること
ができる。
According to the method, it is possible to further emphasize the size of the weight with high importance among the weights for each direction, so the differences in the structure of each part between the input pattern and the standard pattern can be compared in detail to find out the essential differences. Based on
It is possible to accurately identify any of the standard patterns.

すなわち、通常の階層パターン整合法における
パターン同定のステツプに適用して効果大ならし
める方法といえる。
In other words, it can be said that this method is highly effective when applied to the pattern identification step in a normal hierarchical pattern matching method.

つぎに、第15図を用いて重みベクトルW→の意
味を説明する。第15図において、A,B,C,
Dは入力パターンまたは標準パターンを示すとと
もに、Eに示した8方向における入力パターンに
対する8次元ベクトルX→の要素1/α〓と標準パタ
ーンに対する8次元ベクトルS→の要素1/β〓とを
同時に示したものである。いま、Bが入力パター
ンで、A,B,C,Dが標準パターンであるとす
る。
Next, the meaning of the weight vector W→ will be explained using FIG. In Figure 15, A, B, C,
D indicates an input pattern or a standard pattern, and at the same time, element 1/α〓 of the 8-dimensional vector This is what is shown. Assume now that B is an input pattern and A, B, C, and D are standard patterns.

BとBとの類似度計算においては、(39)式、(4
0)式のいずれを用いても、a〓のうち主としてa2
a6が使用されるが、BとCとの類似度計算におい
ては(40)式を用いると、a2とa6の他にa3とa7も大
きな値を持つため、3と7方向のパターンの差が
(29)式で求められる類似度の値に顕著に現われ
る。
In calculating the similarity between B and B, Equation (39) and (4
0) No matter which formula is used, of a〓, mainly a 2 and
a 6 is used, but when formula (40) is used to calculate the similarity between B and C, in addition to a 2 and a 6 , a 3 and a 7 also have large values, so the 3 and 7 directions are The difference in the patterns appears prominently in the similarity value obtained by equation (29).

すなわち、BとCの相異部分に相当する3と7
方向のa3とa7の大きさがより強調されるため、a3
とa7の値が大きくなつた分だけ、BとCの相似部
分に相当するa2とa6の値が小さくなり、しかもa1
とa5は相異部分の相関値にたいする係数であるか
ら、3と7方向の類似度は0に近くなり、2と6
方向を含めたパターン全体の類似度もBとBとの
類似度に比較して十分小さくなる結果として、入
力パターンBはCではない(B≠C)という判定
がより精度よくおこなえることになる。
In other words, 3 and 7 correspond to the different parts of B and C.
The magnitude of a 3 and a 7 in the direction is more emphasized, so a 3
As the values of and a 7 increase, the values of a 2 and a 6 , which correspond to the similar parts of B and C, become smaller, and moreover, a 1
Since and a 5 are coefficients for the correlation values of the different parts, the similarity in the 3 and 7 directions is close to 0, and the similarity in the 2 and 6 directions is close to 0.
As a result, the similarity of the entire pattern including the direction is sufficiently smaller than the similarity between B and B, and as a result, it is possible to more accurately determine that input pattern B is not C (B≠C).

一方、BとCとの類似度計算において(39)式を
用いると、a3とa7の値は小さい方が選択されるた
め、主としてa2とa6の値により類似度の値が決定
されるが、2と6方向とはパターンの類似部分に
相当する。
On the other hand, when formula (39) is used to calculate the similarity between B and C, the smaller value of a 3 and a 7 is selected, so the value of similarity is mainly determined by the values of a 2 and a 6 . However, the 2nd and 6th directions correspond to similar parts of the pattern.

したがつて、2と6方向との両パターンの類似
度は通常の方法により求めた値よりも大きくな
り、BとCとは同一の組に属するパターンとして
分類される精度が向上する。
Therefore, the degree of similarity between the two patterns and the six-direction pattern becomes larger than the value obtained by the usual method, and the accuracy with which B and C are classified as patterns belonging to the same set is improved.

別の例として、入力パターンがA、標準パター
ンがCの場合の類似度計算において(39)式を用い
ると、a2とa6の値のみにより類似度の値が決定さ
れるが、2と6方向とはパターンの類似部分に相
当する。
As another example, when formula (39) is used to calculate the similarity when the input pattern is A and the standard pattern is C, the similarity value is determined only by the values of a 2 and a 6 , but 2 and The six directions correspond to similar portions of the pattern.

したがつて、2と6方向との両パターンの類似
度は通常の方法により求めた値よりも大きくな
り、AとCとは同一の組に属するパターンとして
分類される精度も向上することになる。
Therefore, the degree of similarity between both patterns in the 2nd and 6th directions is greater than the value obtained by the normal method, and the accuracy with which patterns A and C are classified as belonging to the same set is improved. .

以上の説明から明らかな通り、重みベクトルW→
の選び方により類似度の値は大きく変わるから、
入力パターンおよび標準パターンの各方向毎の固
有の特徴に応じた適切な重みを各方向毎に自動的
に選択することにより、高精度の分類および同定
が可能になる。
As is clear from the above explanation, the weight vector W →
The similarity value changes greatly depending on how you choose, so
By automatically selecting appropriate weights for each direction according to the unique characteristics of each direction of the input pattern and standard pattern, highly accurate classification and identification is possible.

また、重みベクトルの選び方としては(39),(4
0)式の分子の差をとつて(41)式のようにすること
も可能である。
In addition, the methods of selecting the weight vector are (39) and (4
It is also possible to obtain equation (41) by calculating the difference between the numerators of equation (0).

(41)式によれば、入力パターンと標準パターン
との相異する部分のみに関する各方向別重みを抽
出して類似度を求めることができる。
According to equation (41), the degree of similarity can be determined by extracting the weights for each direction regarding only the different portions between the input pattern and the standard pattern.

以上、本発明による文字認識方式を認識処理の
流れに沿つて説明したが、本発明は文字に限定さ
れることなく、図形など一般のパターンの認識に
も適用することができる。
Although the character recognition method according to the present invention has been described above along the flow of recognition processing, the present invention is not limited to characters, but can also be applied to recognition of general patterns such as figures.

以下、本発明を実施例を参照して詳細に説明す
る。
Hereinafter, the present invention will be explained in detail with reference to Examples.

第9図に本発明方式の一実施例の文字認識装置
のブロツク図を示す。本実施例の装置は大きく分
けて、系全体を制御するマイクロプロセツサ10
0、切り出しなどの前処理を実行する前処理装置
(PPU)200、文字観測をする走査機構30
0、特徴抽出装置(FEU)400、パターン整
合を行う認識処理装置(RPU)500、認識結
果などを出力する出力装置600の6つのサブシ
ステムから成つている。
FIG. 9 shows a block diagram of a character recognition device according to an embodiment of the present invention. The device of this embodiment is roughly divided into a microprocessor 10 that controls the entire system.
0, a preprocessing unit (PPU) 200 that performs preprocessing such as clipping, and a scanning mechanism 30 that observes characters.
0, a feature extraction unit (FEU) 400, a recognition processing unit (RPU) 500 that performs pattern matching, and an output device 600 that outputs recognition results and the like.

PPU,FEU、およびRPUは同じ構成のマイク
ロプロセツサで構成されている。マイクロプロセ
ツサ100は基本的に、基本演算および制御をす
るMPU(Microprocessing Unit)201,40
1,501;メモリMU(Memory Unit)20
2,402,502;および上位のプロセツサと
接続するための入出力制御部IOC―A(Input―
Output Control―A)203,403,503
から成つている。これらの基本要素の元に、それ
ぞれのサブシステムで必要な特殊論理回路が接続
されている。
PPU, FEU, and RPU are composed of microprocessors with the same configuration. The microprocessor 100 basically includes MPUs (Microprocessing Units) 201 and 40 that perform basic calculations and control.
1,501; Memory MU (Memory Unit) 20
2,402,502; and an input/output control unit IOC-A (Input-
Output Control-A) 203, 403, 503
It consists of Special logic circuits required for each subsystem are connected to these basic elements.

サブシステムPPU(Preprocessing Unit)20
0に接続されている特殊論理回路は、切り出し補
助回路SGU230、および位置と大きさの正規
化回路SNU270である。また、PPUには下位
の装置を制御するための入出力制御回路(タイプ
B)IOC―B204が接続されている。同IOC―
Bのもとには走査機構300を接続する。走査機
構300は、文字を印刷又は筆記した帳票を給
紙、移送、排出などを行うPHU(Paper
Handling Unit)302と、帳票上のパターンを
走査し光電変換するSCU(Scanning Unit)30
1とから成つている。
Subsystem PPU (Preprocessing Unit) 20
The special logic circuits connected to 0 are the extraction auxiliary circuit SGU230 and the position and size normalization circuit SNU270. Furthermore, an input/output control circuit (type B) IOC-B 204 for controlling lower-level devices is connected to the PPU. Same IOC-
A scanning mechanism 300 is connected to B. The scanning mechanism 300 is a PHU (Paper
Handling Unit) 302 and SCU (Scanning Unit) 30 that scans the pattern on the form and converts it photoelectrically.
It consists of 1.

サブシステムFEU(Feature Extracting Unit)
400を持つ特殊論理回路は、方向性抽出を行う
FXU420と、ぼかし処理を実行するBLU1
450およびBLU2 460である。
Subsystem FEU (Feature Extracting Unit)
A special logic circuit with 400 performs directional extraction.
FXU420 and BLU1 that performs blurring processing
450 and BLU2 460.

サブシステムRPU(Recognition Processing
Unit)500の特殊論理回路は高速メモリHMU
520に接続された内積計算回路IPU530であ
る。また類似度(18)式、(21)式を求める際に行う
掛算を高速に実行するための掛算回路MPY51
0がある。
Subsystem RPU (Recognition Processing
Unit) 500 special logic circuits are high-speed memory HMU
An inner product calculation circuit IPU 530 is connected to 520. In addition, the multiplication circuit MPY51 is used to quickly execute multiplication when calculating similarity equations (18) and (21).
There is 0.

本実施例における認識結果の出力装置はフロツ
ピーデイスク装置602である。601は同装置
用の制御回路FDCである。またTCE620は本
文字認識装置を上位計算機と接続するための制御
回路である。
The recognition result output device in this embodiment is a floppy disk device 602. 601 is a control circuit FDC for the device. Further, the TCE 620 is a control circuit for connecting this character recognition device to a host computer.

フロツピーデイスク602は認識結果を出力す
るための媒体であるとともに、システム・プログ
ラム、認識プログラム、あるいはユーテイリテ
イ・プログラムなどを格納する二次記憶装置でも
ある。これらのプログラムは必要に応じて主マイ
クロプロセツサ100の主メモリ102へロード
され、CPU101により実行される。
The floppy disk 602 is a medium for outputting recognition results, and is also a secondary storage device for storing system programs, recognition programs, utility programs, and the like. These programs are loaded into the main memory 102 of the main microprocessor 100 as needed and executed by the CPU 101.

オペレータから系全体への制御情報はキーボー
ドKBD104から入力される。また、系の状態
は、CRT630に表示される。オペレータは
CRTを眺めながら種々の命令をKBDから入力す
ることができる。
Control information from the operator to the entire system is input from the keyboard KBD104. Additionally, the system status is displayed on the CRT 630. The operator is
Various commands can be input from the KBD while viewing the CRT.

つぎに、文字認識処理に沿つて各回路の役目を
説明する。
Next, the role of each circuit will be explained along with character recognition processing.

系全体の主電源が投入されると、各回路の状態
は初期状態に自動的にリセツトされる。さらに自
動的にフロツピーデイスク602内のシステム・
プログラムが主マイクロプロセツサ100にロー
ドされ、CPU101は所定番地から自動スター
トする。以後の処理への命令はオペレータよりキ
ーボート103を経由して入力される。認識処理
を行わせるにはキーボードより認識プログラムを
フロツピーデイスクからロードする命令を入力す
ればよい。以後は、別の命令が入力されるまで認
識処理を実行する。
When the main power of the entire system is turned on, the state of each circuit is automatically reset to its initial state. Furthermore, the system in the floppy disk 602 is automatically
The program is loaded into the main microprocessor 100, and the CPU 101 automatically starts from a predetermined location. Commands for subsequent processing are input by the operator via the keyboard 103. To perform the recognition process, a command to load the recognition program from the floppy disk can be input from the keyboard. Thereafter, recognition processing is executed until another command is input.

認識プログラムはまずPPU200を経由して
PHU302に帳票給紙命令を送出し、SCU30
1に走査開始を命令する。これらの命令はマクロ
なものであり認識プログラムをCPU101が実
行すことによりPPU200に向けて発せられる。
PPUのマイクロプロセツサMPU201は同命令
を解読し、よりミクロな命令列に変換され、
PHU302又はSCU301へ伝達される。
The recognition program first passes through PPU200.
Sends a form feeding command to PHU302, and SCU30
1 to start scanning. These commands are macro commands and are issued to the PPU 200 when the CPU 101 executes a recognition program.
The microprocessor MPU201 of the PPU decodes the same instruction and converts it into a more micro-instruction sequence.
It is transmitted to PHU302 or SCU301.

SCU301により走査され、光電変換、前処
理、二値化を施した1行分の映像パターンはIOC
―B204およびSGU(切り出し補助回路)23
0を経由して、1行分の映像パターンの不必要な
一部分を捨てた後、メモリMU202へ格納され
る。MPU201は切り出し処理は201内のマ
イクロプログラムに従つて行う。SGU230を
用いた切り出し処理に関しては特願昭53―81871
号に詳述してあるので詳細は省略する。
The image pattern for one line scanned by SCU301 and subjected to photoelectric conversion, preprocessing, and binarization is IOC
-B204 and SGU (cutout auxiliary circuit) 23
0, and after discarding an unnecessary part of the video pattern for one line, it is stored in the memory MU202. The MPU 201 performs the extraction process according to the microprogram within the MPU 201 . Regarding the extraction process using SGU230, please refer to the patent application No. 53-81871.
The details are omitted as they are detailed in the issue.

一行分の映像パターンから切り出された二値化
パターンは1文字64×48(ビツト)の大きさを持
ち、MU202内に再格納される。
The binarized pattern cut out from the video pattern for one line has a size of 64×48 (bits) for one character, and is stored again in the MU 202.

次に位置と大きさの正規化を行う。位置の正規
化と大きさの正規化は回路SNU270により同
時に行われる。第10図に回路SNUのブロツク
図を示す。271および272はそれぞれGj,Gi
を保持するレジスタで、各々5ビツトから成つて
いる。Gi,Gjのとる値は0.25きざみで0〜4.00ま
でである。277、および278は、各々 J=JS+Gj・(j−1) ,I=IS+Gi・(i−1) の値を保持するためのレジスタで、各々8ビツト
から成つており、0.25きざみで0〜63.75までの
値をとる。281は64×48(ビツト)の切り出し
パターンf(i,j)を保持するためのメモリで
ある。メモリ281へのパターン書き込みは、ア
ドレス・レジスタ279と、並列直列変換用シフ
トレジスタ282を用いて行う。283,284
は大きさ正規化パターンg(i,j)の1列分を
保持するシフト・レジスタである。各々は16ビツ
トから成つている。これらの出力は、バス・ドラ
イバ285,286を経由して、データ・バス2
05に載せられて、メモリ202(第9図)に返
送される。以下、処理手順に沿つて説明する。
Next, normalize the position and size. Position normalization and size normalization are performed simultaneously by circuit SNU 270. Figure 10 shows a block diagram of the circuit SNU. 271 and 272 are G j and G i respectively
Each register consists of 5 bits. The values of G i and G j range from 0 to 4.00 in steps of 0.25. 277 and 278 are registers for holding the values J=JS+G j・(j−1) and I=IS+G i・(i−1), respectively, each consisting of 8 bits, and 0 in 0.25 increments. Takes values from ~63.75. 281 is a memory for holding a 64×48 (bit) cutout pattern f(i,j). Pattern writing to the memory 281 is performed using an address register 279 and a shift register 282 for parallel/serial conversion. 283,284
is a shift register that holds one column of the size normalized pattern g(i,j). Each consists of 16 bits. These outputs are routed to data bus 2 via bus drivers 285 and 286.
05 and is returned to the memory 202 (FIG. 9). The processing procedure will be explained below.

まずパターンf(i,j)をメモリ281へ書
き込む。書き込み動作時のタイムチヤートを第1
1図に示す。書き込みの期間中は、マルチプレク
サ280は信号S202によりアドレス・レジス
タ279を選択している。レジスタ279はまず
信号CL201により0にセツトされる。1個の
切り出しパターンは192語(1語は16ビツト)で
メモリ202にあるが、1語ずつ並列直列変換用
シフトレジスタ282へパルスLD204により
ロードされる。続いてメモリ281への書き込み
パルスW201を16回、クロツクCK201,CK
202と同時に出力してメモリ281へ書き込
む。以上の動作を192回繰返すことによりパター
ンf(i,j)がメモリ281に書き込まれる。
First, pattern f(i,j) is written into memory 281. The first time chart for writing operation
Shown in Figure 1. During a write, multiplexer 280 selects address register 279 by signal S202. Register 279 is first set to 0 by signal CL201. One cutout pattern has 192 words (one word is 16 bits) in the memory 202, and is loaded word by word into the parallel-to-serial conversion shift register 282 by the pulse LD 204. Next, the write pulse W201 to the memory 281 is applied 16 times, and the clocks CK201 and CK
202 and written into the memory 281. Pattern f(i,j) is written into memory 281 by repeating the above operation 192 times.

f(i,j)における文字部分の位置情報is
ie,js,jeは切り出し処理で求める。これらの量
からGi,Gj,IS,JSを(1)〜(4)式に従つてMPU2
01で計算する。データGi,Gj(10ビツト)をレ
ジスタ272,271へそれぞれセツトする。次
にレジスタ278、レジスタ277に初期値IS,
JSをそれぞれマルチプレクサ276,275を
経由してセツトする。この状態では、メモリ28
1の出力信号290は、f(IS,JS)の値を出力
している。ここでクロツクCK203を発するこ
とにより、値f(IS,JS)はg(1,1としてシ
フト・レジスタ283にセツトされる。つづい
て、パルスLD203を出力すると I=I+Gi が加算回路274により実行されて、信号290
はf(IS+Gi,JSとなる。上記動作を32回繰返す
とレジスタ283,284には{g(i,1)|i
=1,2,…,32}の32語がセツトされることに
なる。ここで、信号T202によりg(i,j)
の第1語をバス205に載せてメモリ202へ、
続いて信号T201により第2語をバス205に
載せてメモリ202へ転送する。
Position information i s of the character part in f (i, j),
i e , j s , and j e are determined by extraction processing. From these quantities, G i , G j , IS, and JS are calculated by MPU2 according to equations (1) to (4).
Calculate with 01. Data G i and G j (10 bits) are set in registers 272 and 271, respectively. Next, register 278 and register 277 have the initial value IS,
JS via multiplexers 276 and 275, respectively. In this state, the memory 28
The output signal 290 of No. 1 outputs the value of f(IS, JS). By issuing the clock CK203, the value f(IS, JS) is set as g(1,1) in the shift register 283.Next, when the pulse LD203 is output, I=I+G i is executed by the adder circuit 274. signal 290
becomes f(IS+G i , JS. When the above operation is repeated 32 times, the registers 283 and 284 have {g(i, 1)|i
= 1, 2, ..., 32}, 32 words will be set. Here, g(i,j) by signal T202
the first word of is placed on the bus 205 to the memory 202,
Subsequently, the second word is placed on the bus 205 and transferred to the memory 202 in response to the signal T201.

つぎに、レジスタI278を再度、値ISに初期
化する一方パルスLD202により J=J+Gj の演算を加算回路273により実行し、g(i,
j)の第2列目の処理に入る。
Next, while the register I278 is again initialized to the value IS, the addition circuit 273 executes the calculation J=J+G j using the pulse LD202, and g(i,
The process starts in the second column of j).

以下同様に第32列まで実行すれば、大きさの正
規化は終了する。上記過程の制御パルスのタイム
チヤートを第12図に示す。
If the process is repeated up to the 32nd column, the size normalization will be completed. A time chart of the control pulses in the above process is shown in FIG.

大きさの正規化を施したパターンg(i,j)
は一旦メモリ202へ蓄えられた後、まとめて主
メモリ102へデータ・バス105を経由して転
送される。同パターンはサブシステムFEU40
0のメモリ402へ転送され、方向性抽出、ぼか
し処理が施される。同結果はメモリ402に一旦
蓄えられた後、まとめて、主メモリ102へ特徴
パターンとして返送される。
Pattern g(i,j) with size normalization
are temporarily stored in the memory 202 and then transferred to the main memory 102 via the data bus 105. The same pattern is subsystem FEU40
0 memory 402, where directionality extraction and blurring processing are performed. After the results are temporarily stored in the memory 402, they are collectively sent back to the main memory 102 as a characteristic pattern.

ここで方向性抽出回路を説明する。同回路のブ
ロツク図を第13図に示す。同回路は大きさの正
規化を施した二値パターン(32×32ビツト)を一
時的に保持するメモリ422、同メモリ用のアド
レスレジスタ421、同メモリへデータを転送す
るための並列直列変換用シフトレジスタ423、
3×3の小領域のデータを取り出すための3本の
シフトレジスタ424,425,426、上記小
領域の部分二値パターンを受入れて方向信号44
2および濃度信号441を出力するROM(読出
し専用メモリ)427、方向別の特徴パターンを
保持するメモリ(8×8×4×8ビツト)43
2、方向別の特徴パターンに次々に各方向の濃度
を加え合わせる加算器434、同加算結果を一時
保持するラツチ435、方向別の特徴パターンの
最大値を検出する最大値検出回路436、同回路
で検出された最大値を入力し値の正規化係数に変
換するROM437、および同正規化係数を特徴
パターンのそれぞれの値に掛けて値の正規化を行
う掛算回路438から成つている。
Here, the directionality extraction circuit will be explained. A block diagram of the same circuit is shown in FIG. The circuit includes a memory 422 that temporarily stores a binary pattern (32 x 32 bits) whose size has been normalized, an address register 421 for the memory, and a parallel-to-serial converter for transferring data to the memory. shift register 423,
Three shift registers 424, 425, 426 for taking out the data of the 3×3 small area, and a direction signal 44 for receiving the partial binary pattern of the small area.
2, a ROM (read-only memory) 427 that outputs the density signal 441, and a memory (8 x 8 x 4 x 8 bits) 43 that holds characteristic patterns for each direction.
2. An adder 434 that adds the density of each direction to the feature pattern of each direction one after another, a latch 435 that temporarily holds the result of the addition, a maximum value detection circuit 436 that detects the maximum value of the feature pattern of each direction, and the same circuit. It consists of a ROM 437 which inputs the maximum value detected and converts it into a value normalization coefficient, and a multiplication circuit 438 which normalizes the value by multiplying each value of the characteristic pattern by the normalization coefficient.

次に方向性抽出回路の動作を説明する。 Next, the operation of the directionality extraction circuit will be explained.

まず大きさの正規化を施されたパターンg(i,
j)をメモリ402から並列直列変換用シフトレ
ジスタ423を経由してメモリ422に転送す
る。メモリ422のアドレスはアドレス・レジス
タ421で指定する。パターンg(i,j)を転
送した後、リセツト信号CL401によりメモリ
432のアドレス・レジスタ429,430を0
にリセツトし、更に信号CL404により最大値
検出回路436の内部状態をリセツトする。ま
た、アドレス・レジスタ421の内容も信号LD
401を入力して0にリセツトする。
First, the pattern g(i,
j) is transferred from the memory 402 to the memory 422 via the parallel-to-serial conversion shift register 423. The address of memory 422 is specified by address register 421. After transferring pattern g(i,j), address registers 429 and 430 of memory 432 are set to 0 by reset signal CL401.
Further, the internal state of the maximum value detection circuit 436 is reset by the signal CL404. In addition, the contents of address register 421 are also used as signal LD.
Enter 401 to reset to 0.

つぎに、以下のようにメモリ432の内容をす
べて0にリセツトする。すなわち、マルチプレク
サ431と433へと選択信号S401を“0”
にリセツトし、431に対してはアドレス・レジ
スタ428の出力を、433に対しては“LOW”
(値0)を選択するようにする。信号CL402を
出力してアドレス・レジスタ428を0にリセツ
トし、以後512回信号CK402とW401を同期
して出力メモリ430の512語を0にクリアする。
以上が終了したあと、信号S401を“1”にセ
ツトしてマルチプレクサ431と433のいずれ
かを選択できるようにする。
Next, all contents of the memory 432 are reset to 0 as follows. That is, the selection signal S401 is set to "0" to the multiplexers 431 and 433.
and reset the output of address register 428 to 431 and LOW to 433.
(value 0) is selected. The address register 428 is reset to 0 by outputting the signal CL402, and thereafter the 512 words in the output memory 430 are cleared to 0 by synchronizing the signals CK402 and W401 512 times.
After the above is completed, the signal S401 is set to "1" so that either multiplexer 431 or 433 can be selected.

以上の準備のもとに方向性抽出の動作を開始す
る。同動作の波形図を第14図に示す。まず、68
回信号CK404とCK405を同期して出力し、
シフト・レジスタ424(4ビツト)、425
(32ビツト)および426(32ビツト)に、メモ
リ422内のパターンの先頭の2行と3行目の4
ビツトを転送する。その後、1024回以下の動作を
繰返えすことにより、メモリ432内に方向性特
徴パターンを作成することができる。
Based on the above preparations, the directionality extraction operation is started. A waveform diagram of the same operation is shown in FIG. First, 68
Outputs time signals CK404 and CK405 synchronously,
Shift registers 424 (4 bits), 425
(32 bits) and 426 (32 bits), the first two lines and the third line 4 of the pattern in memory 422.
Transfer bits. Thereafter, by repeating the operation 1024 times or less, a directional feature pattern can be created in the memory 432.

すなわち、シフト・レジスタ424,425,
426にパターンのある一部が入つているとする
と、ROM427にはある注目点を中心としたそ
のまわりの8点が入力される。ROM427に
は、上記8点のすべてのビツト・パターンに対す
るθとvの値が、第5図,第6図で示したように
予め計算して書込んでありビツト・パターンが入
力されると、θとvを出力する。ただし、ここで
はθは第5図で示した値からそれぞれ1を引いた
値、すなわち0から7までの値をとり、信号44
2としてメモリ432のアドレスの最上位3ビツ
トを構成する。ROM427のもう一方の出力は
信号441で、第6図に示すvの値(0〜7)で
ある。すなわち、第6図におけるv=8を与える
a4′とa5′の組合せは実際には有り得ないので、v
の値は必ず0と7の間である。信号441の値
と、同注目点の過去の特徴パターンの値とが加算
回路434で加算され、ラツチ435に一時保持
される。保持された特徴パターンの注目点の新し
い値をつぎにメモリ432に書込む。それと同時
にラツチ435の出力は最大値検出回路436へ
も入力され、同回路で最大値が検出される。
That is, shift registers 424, 425,
If 426 contains a certain part of a pattern, eight points around a certain point of interest are input to ROM 427. In the ROM 427, the values of θ and v for all the above eight bit patterns are calculated and written in advance as shown in FIGS. 5 and 6, and when the bit patterns are input, Output θ and v. However, here, θ takes a value obtained by subtracting 1 from each value shown in FIG. 5, that is, a value from 0 to 7, and the signal 44
The most significant 3 bits of the address of memory 432 are set as 2. The other output of the ROM 427 is a signal 441, which is the value of v (0-7) shown in FIG. That is, give v=8 in Figure 6.
Since the combination of a 4 ′ and a 5 ′ is actually impossible, v
The value of is always between 0 and 7. The value of the signal 441 and the value of the past feature pattern of the same point of interest are added by an adding circuit 434 and temporarily held in a latch 435. The new value of the point of interest of the retained feature pattern is then written into the memory 432. At the same time, the output of latch 435 is also input to maximum value detection circuit 436, which detects the maximum value.

以上の処理で方向性特徴パターンをメモリ43
2内に作成する。作成された特徴パターンの各点
の値は0〜255をとり得るが、これを4ビツトで
表現できる範囲、0〜15に圧縮する。このデータ
値の圧縮(値の正規化)は掛算回路438によ
り、特徴パターンをメモリ402へ転送する際に
行う。圧縮のための係数は、表の形でROM43
7に予め計算して書込まれている。
Through the above processing, the directional feature pattern is stored in the memory 43.
Create within 2. The value of each point of the created feature pattern can take a value of 0 to 255, but this is compressed to a range of 0 to 15 that can be expressed with 4 bits. This data value compression (value normalization) is performed by the multiplication circuit 438 when the characteristic pattern is transferred to the memory 402. The coefficients for compression are stored in ROM43 in the form of a table.
7 is calculated and written in advance.

特徴パターンをメモリ432からメモリ402
へ転送するには、信号S401を再度“0”にセ
ツトし、アドレス・レジスタ428の内容を0か
ら511まで順次変化させて、メモリ432の内容
を読み出し、同時にバス・ドライバ439を開い
て行う。
The characteristic pattern is transferred from the memory 432 to the memory 402.
In order to transfer the data, the signal S401 is set to "0" again, the contents of the address register 428 are sequentially changed from 0 to 511, the contents of the memory 432 are read, and the bus driver 439 is opened at the same time.

以上の処理で方向性特徴パターンh〓(i,j)
θ=1,2,…,8が作成されたことになる。従
つて、次にぼかし処理を行う。
With the above processing, the directional feature pattern h〓(i,j)
This means that θ=1, 2, . . . , 8 has been created. Therefore, blurring processing is performed next.

第9図において450はh〓(i,j)(θ=1,
2,…,8)をぼかしてh〓〓(i,j)(θ=1,
2,…,8)を得るためのぼかし処理回路であ
る。同回路は多値パターン(深さ4ビツト)をぼ
かして、多値パターン(深さ4ビツト)を得るも
のである。同図において460は、パターンg
(i,j)(32×32メツシユ、バイナリ)をぼかし
てh〓0(i,j)(8×8メツシユ、多値)を得るた
めのぼかし処理回路である。ぼかし処理回路の構
成については、同一発明者による特願昭53―
81871号に述べてあるので詳細説明は省略する。
In Figure 9, 450 is h〓(i,j)(θ=1,
2,...,8) and h〓〓(i,j)(θ=1,
2, ..., 8). This circuit blurs a multi-value pattern (4 bits deep) to obtain a multi-value pattern (4 bits deep). In the figure, 460 is the pattern g
This is a blurring processing circuit for blurring (i, j) (32×32 mesh, binary) to obtain h〓 0 (i, j) (8×8 mesh, multi-value). Regarding the configuration of the blurring processing circuit, a patent application filed in 1983 by the same inventor is provided.
Since it is described in No. 81871, detailed explanation will be omitted.

ぼかし処理の結果得られる最終的な特徴パター
ン{h〓〓(i,j)|θ=0,1,…,8}は一旦メ
モリ402へ蓄えられた後、まとめて主メモリ1
02へ転送されれる。
The final feature pattern {h〓〓(i,j)|θ=0,1,...,8} obtained as a result of the blurring process is temporarily stored in the memory 402, and then collectively stored in the main memory 1.
Transferred to 02.

CPU101では特徴抽出部400から特徴パ
ターンが転送されたことを検知して、該特徴パタ
ーンをRPU500の入出力制御回路IOC―A5
03を経由してメモリ502へ転送し、さらに
RPUに対して認識処理実行の命令を発する。
The CPU 101 detects that the feature pattern has been transferred from the feature extraction unit 400, and transfers the feature pattern to the input/output control circuit IOC-A5 of the RPU 500.
03 to the memory 502, and further
Issues a command to the RPU to execute recognition processing.

メモリ502の大部分はROM(読み出し専用
メモリ)で構成されており、同ROMに標準パタ
ーンのすべてが予め書き込まれている。
Most of the memory 502 is composed of a ROM (read-only memory), and all standard patterns are written in the ROM in advance.

RPU500で行う認識処理の内容については
本明細書の発明の総括説明の項で詳しく述べたの
で第9図の各ブロツクの役目について説明する。
同図においてIPU530は、未知パターンの方向
性特徴パターンのぼかしパターンの1つh〓(i,
j)と、1つの方向における標準パターンH〓
(i,j,k,ω)との内積を高速に演算する高
速内積計算回路である。未知パターンh〓〓(i,j)
(θ=0,1,2,…,8)は高速メモリHMU
520に格納しておく。したがつて、あるθに対
してh〓〓とH〓の内積を計算するには、HMU520
におけるh〓〓の先頭番地と、MU502におけるH〓
の先頭番地とをそれぞれのメモリにセツトし、
IPU530に対してスタート命令を与えればよ
い。
Since the content of the recognition process performed by the RPU 500 has been described in detail in the general description of the invention section of this specification, the role of each block in FIG. 9 will be explained.
In the figure, the IPU 530 displays one of the blur patterns h〓(i,
j) and the standard pattern H in one direction
This is a high-speed inner product calculation circuit that quickly calculates the inner product of (i, j, k, ω). Unknown pattern h〓〓(i, j)
(θ = 0, 1, 2, ..., 8) is a high-speed memory HMU
520. Therefore, to calculate the inner product of h〓〓 and H〓 for a certain θ, use HMU520
The starting address of h〓〓 in MU502 and H〓 in MU502
and the starting address of
A start command may be given to the IPU 530.

第9図においてMPY510は、IPU530に
よつて計算した内積に(26)式又は(29)式にあるよ
うに係数α〓,β〓(θ=0,1,…,8)を掛ける
ための高速掛算回路である。
In FIG. 9, MPY510 is a high-speed multiplier for multiplying the inner product calculated by IPU530 by coefficients α〓, β〓(θ=0, 1,...,8) as in equation (26) or (29). It is a multiplication circuit.

総括説明の項で述べた認識処理のプログラムは
マイクロプロセツサ501内のマイクロ命令用
ROMに書き込まれていて、同プログラムに従つ
て、階層的パターン整合が行われる。
The recognition processing program described in the general explanation section is for microinstructions in the microprocessor 501.
Hierarchical pattern matching is performed according to the program written in the ROM.

本処理内容については特願昭53―68791号に述
べてあるので、詳細な説明は省略する。
The contents of this process are described in Japanese Patent Application No. 1987-68791, so a detailed explanation will be omitted.

以上の回路を用いた認識処理の結果、与えられ
た未知パターンの特徴パターンに対して、第1位
および第2位の文字カテゴリーコード、また認識
不能のときは第1種の認識不能を示すコード、ま
たは第2種の認識不能を示すコードを得て、主メ
モリ102へ転送する。
As a result of recognition processing using the above circuit, for the given unknown pattern characteristic pattern, the first and second character category codes, and if unrecognizable, a code indicating type 1 unrecognizable. , or a code indicating the second type of unrecognizability is obtained and transferred to the main memory 102.

CPU101ではRPU500からの認識結果の
転送を受けると、所定フオーマツトで認識結果を
フロツピーデイスク602へ書き込む。
When the CPU 101 receives the recognition result transferred from the RPU 500, it writes the recognition result to the floppy disk 602 in a predetermined format.

以上である1つの未知パターンに対するすべて
の処理が終了する。
All the processing for one unknown pattern is thus completed.

以上述べた実施例からも分るように、本発明に
よれば、パターン整合法の利点をそこなうことな
しに手書文字をも印刷文字と同一の手法で読むと
ころの文字認識装置を実現することができる。
As can be seen from the embodiments described above, according to the present invention, it is possible to realize a character recognition device that reads handwritten characters using the same method as printed characters without sacrificing the advantages of the pattern matching method. I can do it.

方向性を用いたパターン整合法のもつ利点をま
とめると次のようになる。
The advantages of the pattern matching method using directionality can be summarized as follows.

(1) 方向性の導入と大きなぼかしの導入とによ
り、同一カテゴリ内の手書の各種変形を大きな
ぼかしにより吸収すると同時に、パターンを方
向別に異なる面に分けることにより異種カテゴ
リの混同を少くし、全体として各カテゴリに対
して従来よりも少ない標準パターン精度高く認
識することが可能となる。
(1) By introducing directionality and large blurring, various deformations of handwriting within the same category can be absorbed by large blurring, and at the same time, by dividing the pattern into different planes according to direction, confusion between different categories can be reduced. Overall, it is possible to recognize fewer standard patterns for each category with higher accuracy than before.

(2) 方向性を抽出する際に、細線化を施すことな
く空間微分によつて方向性を抽出するので、従
来の方向性を導入したパターン整合法特願昭53
―100377号よりも高精度であり、かつ低品質の
文字(つぶれなどのあるパターン)までも読取
れる。
(2) When extracting the directionality, the directionality is extracted by spatial differentiation without line thinning, so the pattern matching method that introduces the conventional directionality, Patent Application No. 1983
-It is more accurate than No. 100377, and can even read low-quality characters (patterns that are blurred, etc.).

また、空間微分によつて方向性を抽出してい
るので、文字パターンは従来のように二値パタ
ーンである必要はなく、多値パターンのままで
認識する方式に容易に拡張することができる。
従来は光電変換した結果(多値パターン)を、
処理量削減のため二値化していたため、失なわ
れる情報量が多くなり、ボールペンで書いた文
字のように低品質な文字に対しては文字かす
れ、切れなどが発生し問題となつていた。した
がつて、二値化を施さず、そのまま方向性を抽
出する認識方式は有効なものである。
Furthermore, since the directionality is extracted by spatial differentiation, the character pattern does not need to be a binary pattern as in the past, and can be easily extended to a system that recognizes multivalued patterns as they are.
Conventionally, the result of photoelectric conversion (multi-value pattern) is
Because the process was converted into binary data to reduce the amount of processing, a large amount of information was lost, and low-quality characters, such as those written with a ballpoint pen, became blurred or cut off, which caused problems. Therefore, a recognition method that extracts directionality as is without performing binarization is effective.

(3) 活字パターンも手書文字パターンも同一の手
法で認識できるため、ハードウエア・コストが
従来に比して少なくなる。
(3) Since printed and handwritten character patterns can be recognized using the same method, hardware costs are lower than in the past.

(4) 標準パターンの作成が人手を要せず殆んど自
動的に行えるため、従来よりも開発費が少くて
すむ。
(4) Since standard pattern creation can be done almost automatically without requiring any human intervention, development costs are lower than in the past.

(5) 従来の構造解析的手法では、文字の切れ、接
触、かすれ、若干の3分岐点での端点突出など
のトポロジーの変化に対して弱く、それぞれの
変形に対して標準パターンを用意しなければな
らなず、予想できない“切れ”などの現象に対
して問題となつていた。しかし、本発明によれ
ば、これらのトポロジー的な変化があつても、
全体としてそのカテゴリの文字形状に似ていれ
ば正しく認識することができる。したがつて、
構造解析的手法と比較して、上記のような映像
的変形に強い認識方式であるといえる。
(5) Conventional structural analysis methods are vulnerable to changes in topology such as cut-off, contact, blurring of characters, and protrusion of end points at some three-junction points, and standard patterns must be prepared for each deformation. Naturally, unpredictable phenomena such as "cutting" have been a problem. However, according to the present invention, even with these topological changes,
If the character shape as a whole resembles the character shape of that category, it can be recognized correctly. Therefore,
Compared to structural analysis methods, it can be said that this recognition method is more resistant to visual deformation as described above.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明方式の概要を示す処理の流れ
図、第2図は位置と大きさの正規化の原理を示す
図、第3図は二次元パターンの空間微分により得
られた方向を量子化した8方向のラベルを示す
図、第4図は空間微分により得られた方向と、そ
の強さを得るための方式を説明する図、第5図お
よび第6図は、空間微分で得られるベクトル
(a4′,a5′)から方向と強さを求めるための表形式
を図示したもの、第7図はぼかし処理のための点
ひろがり関数の値を示したもの、第8図はぼかし
処理を施した特徴パターンh〓(θ=0,1,…,
8)の1例で、aは数字“0”、bは数字“1”、
cは数字“2”の例を示したもの、第9図は本発
明方式の一実施例のブロツク図、第10図は位置
大きさの正規化回路270の詳細なブロツク図、
第11図は大きさ正規回路のメモリ281へパタ
ーンを書き込む動作の制御信号の波形図、第12
図は、同じく大きさの正規化回路で大きさの正規
化を実行するときの制御信号の波形図、第13図
は方向性の特徴抽出を行う回路のブロツク図、第
14図は方向性抽出回路で方向性抽出を行うとき
の制御信号の波形図、第15図は入力パターンと
標準パターンの一例と、それらの各方向における
ノルムの一例を示す図である。
Figure 1 is a process flowchart outlining the method of the present invention, Figure 2 is a diagram showing the principle of normalization of position and size, and Figure 3 is quantization of the direction obtained by spatial differentiation of a two-dimensional pattern. Figure 4 shows the directions obtained by spatial differentiation and the method for obtaining their strengths. Figures 5 and 6 show the vectors obtained by spatial differentiation. Figure 7 shows the value of the point spreading function for the blurring process. Figure 8 shows the value of the point spread function for the blurring process. The feature pattern h〓(θ=0,1,...,
In an example of 8), a is the number “0”, b is the number “1”,
c shows an example of the number "2", FIG. 9 is a block diagram of an embodiment of the method of the present invention, FIG. 10 is a detailed block diagram of the position and size normalization circuit 270,
FIG. 11 is a waveform diagram of the control signal for the operation of writing a pattern into the memory 281 of the size regular circuit;
The figure is a waveform diagram of the control signal when normalizing the size using the same size normalization circuit, Figure 13 is a block diagram of the circuit that performs directional feature extraction, and Figure 14 is the directional extraction. FIG. 15 is a waveform diagram of a control signal when the circuit performs directionality extraction, and is a diagram showing an example of an input pattern and a standard pattern, and an example of the norm in each direction.

Claims (1)

【特許請求の範囲】 1 パターン整合法を用いるパターン認識方式に
おいて、光電変換により得られた二次元文字パタ
ーンから未知文字を1文字づつ切り出した後、各
未知文字の大きさおよび位置を正規化し、該正規
化文字パターンの輪郭部分の局所的な傾き方θ
(値θは1〜Nの整数)と該輪郭部の強度v(値v
は1〜Mの整数)を抽出し、次に該方向θと強度
vとからN個の二次元の方向性特徴パターンh
(θ),{θ=1,2,…,N}を作成し、更にN
個の該方向性特徴パターンの個々に対して二次元
点ひろがり関数を用いた畳込み処理を行うことに
よりN個のぼかし方向性パターン(θ)を作成
した後、該方向性パターンと同一の形式を持つ標
準パターンとして予め記憶している標準ぼかし方
向性パターンH(θ;k,ω),{θ=1,2,…,
N,k=1,2,…,K}(kは標準パターン番
号、ωは文字カテゴリを示すkの関数)と該ぼか
し方向性パターン(θ)との類似度を各々計算
して、文字認識を行うことを特徴とするパターン
認識方式。 2 特許請求の範囲第1項記載のパターン認識方
式において、未知文字に対する該ぼかし方向性パ
ターンと該標準ぼかし方向性パターンとのパター
ン整合は、対応する方向θ毎に方向性特徴パター
ン同志の類似度を求め、更に各類似度に所定の重
み量を掛けて加算したものを文字全体の類似度と
することを特徴とするパターン認識方式。 3 特許請求範囲第2項記載のパターン認識方式
において、前記所定の方向毎における重み量は所
定の方向における標準パターンの各点の値の2乗
和の平方根と、ぼかし処理のおこなわれた方向性
特徴パターンの各点の値の2乗和の平方根とのう
ち最大値に対応する値量とすることを特徴とする
パターン認識方式。 4 特許請求範囲第2項記載のパターン認識方式
において、前記所定の方向毎における重み量は所
定の方向における標準パターンの各点の値の2乗
和の平方根と、ぼかし処理のおこなわれた方向性
特徴パターンの各点の値の2乗和の平方根とのう
ち最小値に対応することを特徴とするパターン認
識方式。 5 特許請求範囲第2項記載のパターン認識方式
において、前記所定の方向毎における重み量は所
定の方向における標準パターンの各点の値の2乗
和の平方根と、ぼかし処理のおこなわれた方向性
特徴パターンの各点の値の2乗和の平方根とのう
ち最大値と最小値の差に対応する値とすることを
特徴とするパターン認識方式。
[Claims] 1. In a pattern recognition method using a pattern matching method, after cutting out unknown characters one by one from a two-dimensional character pattern obtained by photoelectric conversion, the size and position of each unknown character are normalized, Local inclination θ of the contour part of the normalized character pattern
(value θ is an integer from 1 to N) and the strength v of the contour (value v
is an integer from 1 to M), and then extracts N two-dimensional directional feature patterns h from the direction θ and intensity v.
(θ), {θ=1,2,...,N}, and further N
After creating N blurred directional patterns (θ) by performing convolution processing using a two-dimensional point spread function on each of the directional feature patterns, A standard blurring direction pattern H (θ; k, ω), which is stored in advance as a standard pattern with {θ=1, 2, ...,
N, k = 1, 2, ..., K} (k is a standard pattern number, ω is a function of k indicating a character category) and the blurring direction pattern (θ) is calculated, and character recognition is performed. A pattern recognition method that is characterized by performing the following. 2. In the pattern recognition method described in claim 1, pattern matching between the blurred directional pattern and the standard blurred directional pattern for unknown characters is determined by the similarity between the directional feature patterns in each corresponding direction θ. A pattern recognition method characterized in that each degree of similarity is multiplied by a predetermined weight and added to determine the degree of similarity of the entire character. 3 In the pattern recognition method described in claim 2, the weight amount in each predetermined direction is the square root of the sum of squares of the values of each point of the standard pattern in the predetermined direction, and the directionality in which the blurring process has been performed. A pattern recognition method characterized in that a value corresponding to the maximum value among the square roots of the sum of squares of the values of each point of a feature pattern is set. 4. In the pattern recognition method described in claim 2, the weight amount in each predetermined direction is the square root of the sum of squares of the values of each point of the standard pattern in the predetermined direction, and the directionality in which the blurring process has been performed. A pattern recognition method characterized in that the method corresponds to the minimum value among the square roots of the sum of squares of the values of each point of a feature pattern. 5. In the pattern recognition method described in claim 2, the weight amount for each predetermined direction is the square root of the sum of squares of the values of each point of the standard pattern in the predetermined direction, and the directionality in which the blurring process has been performed. A pattern recognition method characterized in that the value corresponds to the difference between the maximum value and the minimum value among the square roots of the sum of squares of the values of each point of a characteristic pattern.
JP14133679A 1979-11-02 1979-11-02 Pattern recognition system Granted JPS5665275A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP14133679A JPS5665275A (en) 1979-11-02 1979-11-02 Pattern recognition system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP14133679A JPS5665275A (en) 1979-11-02 1979-11-02 Pattern recognition system

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP63035222A Division JPS63233487A (en) 1988-02-19 1988-02-19 Optical character reader

Publications (2)

Publication Number Publication Date
JPS5665275A JPS5665275A (en) 1981-06-02
JPS6365991B2 true JPS6365991B2 (en) 1988-12-19

Family

ID=15289574

Family Applications (1)

Application Number Title Priority Date Filing Date
JP14133679A Granted JPS5665275A (en) 1979-11-02 1979-11-02 Pattern recognition system

Country Status (1)

Country Link
JP (1) JPS5665275A (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58200381A (en) * 1982-05-18 1983-11-21 Agency Of Ind Science & Technol Character reader
JPH0632075B2 (en) * 1986-06-11 1994-04-27 株式会社日立製作所 Pattern recognition device

Also Published As

Publication number Publication date
JPS5665275A (en) 1981-06-02

Similar Documents

Publication Publication Date Title
US6898315B2 (en) Feature extraction for real-time pattern recognition using single curve per pattern analysis
US5513277A (en) Measuring character and stroke sizes and spacings for an image
CN108399625B (en) SAR image orientation generation method based on depth convolution generation countermeasure network
JPH08180139A (en) Method and apparatus for on-line recognition of unrestrainedhandwritten alphanumeric character
JPH05282495A (en) Comparison method
Ma et al. Adaptive Hindi OCR using generalized Hausdorff image comparison
Huang et al. Isolated handwritten Pashto character recognition using a K-NN classification tool based on zoning and HOG feature extraction techniques
JP2010134957A (en) Pattern recognition method
Ko et al. Skelgan: A font image skeletonization method
Verma et al. Removal of obstacles in Devanagari script for efficient optical character recognition
Sushma et al. Kannada handwritten word conversion to electronic textual format using HMM model
JPS6365991B2 (en)
JPH0241794B2 (en)
Srinivas et al. An overview of OCR research in Indian scripts
Khorsheed Recognizing cursive typewritten text using segmentation-free system
Oladele et al. Offline yorùbá handwritten word recognition using geometric feature extraction and support vector machine classifier
Hanmandlu et al. Fuzzy logic based handwritten character recognition
JPH0333990A (en) Optical character recognition instrument and method using mask processing
JPH05225394A (en) Candidate-character classifying method for character recognizing system
JP5224156B2 (en) How to make up for the lack of learning character samples in character recognition systems
JPS5922179A (en) Character recognizing method
JP2000076464A (en) Graphic recognizing method and its device, graphic sorting method and its device, storage medium, and graphic feature extracting method
Baheti et al. Recognition of Gujarati numerals using hybrid approach and neural networks
Koundal et al. Punjabi optical character recognition: a survey
Rodrigues et al. Feature extraction using contour projection