JPS5971585A - Pattern recognizing system - Google Patents

Pattern recognizing system

Info

Publication number
JPS5971585A
JPS5971585A JP57182629A JP18262982A JPS5971585A JP S5971585 A JPS5971585 A JP S5971585A JP 57182629 A JP57182629 A JP 57182629A JP 18262982 A JP18262982 A JP 18262982A JP S5971585 A JPS5971585 A JP S5971585A
Authority
JP
Japan
Prior art keywords
pattern
distortion
definition
pixel
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP57182629A
Other languages
Japanese (ja)
Other versions
JPH0259505B2 (en
Inventor
Mitsuo Ishii
石井 光雄
Michiko Iwasaki
岩崎 美知子
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP57182629A priority Critical patent/JPS5971585A/en
Publication of JPS5971585A publication Critical patent/JPS5971585A/en
Publication of JPH0259505B2 publication Critical patent/JPH0259505B2/ja
Granted legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Character Discrimination (AREA)

Abstract

PURPOSE:To improve the accuracy of pattern recognition and the recognizing processing efficiency, by combining a phase structure method used for the length of stroke and direction information as recognizing information to the pattern matching method. CONSTITUTION:A length and 8-direction code producing section 85 calculates the length of stroke taking the corresponding picture element as a center at each element of an input pattern so as to generate the length and 8-direction code table T corresponding an 8-direction code. A distortion calculating section 87 executes the calculation of an evaluation function based on tables I , II in a memory 86, black picture element pattern corresponding table S and a table T. The picture element weighting the input pattern is obtained from the black element weighting definition pattern so as to calculate the stroke information distance and the distortion from the evaluating function. A minimum value selecting section 9 detects the definition pattern representing the minimum value from the distortion at each definition pattern and outputs it as the result of recognition.

Description

【発明の詳細な説明】 〔発明の技術分野〕 本発明は、パターンマツチング法による手書きの文字、
記号、あるいは図形等のパターンを認識するだめの方式
に関し、特に本発明者の先の発明で、本出願人により出
願された特願昭54−90272の発明「文字・記号認
識方式」(特開昭56−16271)の改良に関し、プ
レインパターンマッシを用いて計算された定義・やター
ンと入力/やターンとの間の歪み量に、パターン中のス
トロークの方向および長さの情報を組み合わせて、認識
精度の向上を図つたものである。
[Detailed Description of the Invention] [Technical Field of the Invention] The present invention relates to handwritten characters using a pattern matching method,
Regarding the system for recognizing patterns such as symbols or figures, in particular, the present inventor's previous invention, ``Character/Symbol Recognition System'' (Japanese Patent Application Laid-Open No. Regarding the improvement of 1982-16271), information on the direction and length of the stroke in the pattern is combined with the amount of distortion between the definition/ya turn and the input/ya turn calculated using plain pattern massi. This is intended to improve recognition accuracy.

〔技術の背景〕[Technology background]

手書き文字の認識手法を概念的に分類すると、文字の位
相構造(例えばストロークの組み合わさシ方)によるも
のと、定義パターン(辞書・ぐターン)とのマツチング
による方法とがあるが、前者はストロークの抽出が面倒
であシ、後者は文字の変形があったときの処理が難しい
という欠点がある。本発明の基礎となっている前記先行
発明は、後者に属するが、手書きによって生ずる変形も
線の太さ、細はも制約条−件とならない統一的な手法を
提供している。以下に、前記先行発明について、その概
要を説明する。
When handwritten character recognition methods are conceptually classified, there are two methods: one is based on the topological structure of the character (for example, how strokes are combined), and the other is based on matching with a definition pattern (dictionary, pattern). The disadvantage is that extraction is troublesome, and the latter is difficult to process when characters are deformed. The prior invention, which is the basis of the present invention, belongs to the latter category, but provides a unified method in which neither the deformation caused by handwriting nor the thickness and thinness of lines is a constraint. Below, the outline of the prior invention will be explained.

定義・ぞターンと入カバターンとのマツチングの度合い
を示す測度として、入力・ぐターンの歪量りを定義し、
これを定義・七ターン毎に計算して、入カバターンに対
する歪み量りが最小となる定義パターンを、認識パター
ンとするものである。これは、各定義パターンを歪ませ
て(変形させて)入カバターンに一致させたとき、必要
とした歪み量が最/」・のもの、すなわち変形量が最小
で済む定義パターンを選択することを意味する。
Definition: As a measure of the degree of matching between the input turn and the input cover turn, we define the distortion measure of the input turn.
This is calculated every seven definition turns, and the definition pattern with the minimum distortion amount for the input cover turn is taken as the recognition pattern. This means that when each definition pattern is distorted (deformed) to match the input cover pattern, the definition pattern that requires the least amount of distortion is selected, that is, the definition pattern that requires the least amount of distortion. means.

一般に、認識問題とは、「観測したパターンがあらかじ
め定められているいずれの定義パターンに最も似ている
かを決定する事である」と規定される。従来のこのよう
な認識系を例示すると、第1図のようになる。
In general, a recognition problem is defined as ``determining which predetermined pattern the observed pattern is most similar to.'' An example of such a conventional recognition system is shown in FIG.

第1図において、11 1 、11−2 、・・・11
−ルは基準となる定義文字・記号の・ぐターンであり、
例えば“A″、”B#、・・・“+”等について示しで
ある。これら定義文字・記号のパターンは例えば磁気デ
ィスク装置等からなる定義ライブラリに予め格納されて
いる。12は入力された被認識文字・記号のパターンで
あシ、し0えはスキャナなどの光学読取り手段で検出さ
れたものである。この被認識文−字・記号パターン12
は、類似判定部13−1 。
In FIG. 1, 11 1 , 11-2 , ... 11
−le is the standard definition character/symbol ・gutān,
For example, "A", "B#", ... "+", etc. are shown. These definition character/symbol patterns are stored in advance in a definition library consisting of, for example, a magnetic disk device. 12 is an input This pattern of characters and symbols to be recognized is detected by an optical reading means such as a scanner.This pattern of characters and symbols to be recognized 12
is the similarity determination unit 13-1.

13−2.・・・、 13− nにおいて、それぞれ対
応する定義パターン1.1−1 、11−2 、・・・
、 11−ルと比較されて類似度が算出され、類似量R
,,R2,・・・RrLが出力される。判定部14は、
これらの順イ以量の中の最大の類似量を判定し、この最
大類似量に対応する定義パターンをもって、被認識パタ
ーンを読取るものである。これは典型的なパターン・マ
ツチング方式であって、手書き文字・記号が有する歪み
に対処することが困難であり、結局高精度な文字・記号
認識ができないという問題をもっていたO このため、前記先行発明は、手書き文字・記号に現われ
る歪に起因して正確な読取りができないという従来方式
の問題を効果的に解決したものであシ、認識問題を次の
ように置きかえている。
13-2. ..., 13-n, the corresponding definition patterns 1.1-1, 11-2, ...
, 11-ru to calculate the similarity, and the similarity amount R
,,R2,...RrL are output. The determination unit 14
The maximum amount of similarity among these amounts in order of A or higher is determined, and the pattern to be recognized is read using the defined pattern corresponding to this maximum amount of similarity. This is a typical pattern matching method, and it is difficult to deal with the distortion of handwritten characters and symbols, resulting in the problem that highly accurate character and symbol recognition cannot be achieved. This method effectively solves the problem of the conventional method in which accurate reading cannot be performed due to the distortion that appears in handwritten characters and symbols, and the recognition problem is replaced as follows.

「パターンXを観測したとき、それが各定義パターンが
歪んだものとして歪みiDを求め、Dの最も小さい定義
・パターンに決定する。」これは、「どれだけ似ている
か」という事を「どれだけ歪んでいるか」という問題に
転換したものであるが、その本質的な違いは、後者では
、歪みによってどのようなパターンでも作る事ができる
という事実にもとすいて、「観測パターンは定義・々タ
ーンが歪んだものだ」という仮定を置いた事である。
``When pattern However, the essential difference between the two is that, in the latter case, although it is possible to create any pattern by distortion, in the latter case, the question is "Is the observed pattern defined or distorted?" This is based on the assumption that each turn is distorted.

具体的には、基準となる複数の定義文字・記号について
、そのパターンの各画素よシ遠ざかるのに比例して、重
みづけ値すなわち歪み度が増大するように、一定の規則
性に従って、予め定義文字・記号パターンの歪みパター
ン・マツダを生成する。
Specifically, for multiple defined characters/symbols that serve as standards, they are defined in advance according to a certain regularity so that the weighting value, that is, the degree of distortion, increases in proportion to each pixel of the pattern. Generate a distorted pattern Mazda of character/symbol patterns.

他方、入力された被認識文字・記号の79ターンについ
ても、同様に前記一定の規則性に従って歪みパターン・
マツプを生成する。そして前記定義・母ターンおよび前
記被認識パターンそれぞれの歪みパターンマツプの、相
互に対応する部分が有するそれぞれの前記重みづけ値の
差を変数として、F両関数の値を求め、該針師関数の値
が最小となZ)定義・やターンの文字・記号をもって、
認識を確定するようにしたものである。
On the other hand, for the 79 turns of the input characters/symbols to be recognized, distortion patterns/symbols are similarly created according to the above-mentioned regularity.
Generate a map. Then, using the difference between the weighting values of mutually corresponding parts of the distortion pattern map of the definition/mother turn and the recognized pattern as a variable, the value of both F functions is calculated, and the value of the F function is calculated. With the minimum value Z) definition/turn letter/symbol,
This is to confirm recognition.

第2図は前記先行発明に係る方式の概念図である。本図
において、21−1.21−2.・・・21−ルは基準
となる定義文字・記号のパターンである。これらのパタ
ーンは、定義文字・記号から生成された歪みパターンマ
ツプ形式のものであり、第1図のノやターン11−1 
、11−2 、・・・11−ルとは全く異なっている。
FIG. 2 is a conceptual diagram of the system according to the prior invention. In this figure, 21-1.21-2. ...21-le is a standard definition character/symbol pattern. These patterns are in the form of distortion pattern maps generated from defining characters and symbols, and are similar to No and Turn 11-1 in Figure 1.
, 11-2, ...11-ru.

他方、22け入力された被認p文字・記号のパターンで
あるが、これも歪みパターンマツノ形式のものであり、
第1図のパターン12とは全く異なっている。これらの
ノRターン21−1.・・・21− n 、 22が第
1図のパターン11−1、−11− yL。
On the other hand, the pattern of 22 inputted recognized p characters/symbols is also in the distortion pattern Matsuno format,
This is completely different from pattern 12 in FIG. These R turns 21-1. ...21-n and 22 are patterns 11-1 and -11-yL in FIG.

1.2と全く異なるのは、該先行発明方式には、認識の
パラメータとして“歪み量″の概念が導入されているこ
とにある。この被認識文字・記号パターン22Vi、歪
み量計算部23−1 、23−2 、 ・・−23−n
において、それぞれ対応するノソターン21−1.21
−2.・・・21− nの間で各歪み量が算出され、歪
み111T D+ 、D2 、・・・Dnが出力される
。そして判定部24において最小の歪み楡が決定され、
この最小歪みl:に対応する定義パターンをもって被認
識・やターンの読取りが行なわれる。
1.2 is that the prior invention method introduces the concept of "distortion amount" as a recognition parameter. This recognized character/symbol pattern 22Vi, distortion amount calculation units 23-1, 23-2, . . . -23-n
, the corresponding nosoturn 21-1.21
-2. . . 21-n are calculated, and distortions 111T D+ , D2, . . . Dn are output. Then, the determination unit 24 determines the minimum distortion,
The recognition pattern or turn is read using the defined pattern corresponding to this minimum distortion l:.

第3図は該先行発明の実施例のブロック構成図である。FIG. 3 is a block diagram of an embodiment of the prior invention.

本図において、31Viz?タ一ン入力部、32はパタ
ーン規格化部、33けプレインパターン生成部、34は
歪み量計算部、35は定義パターン記憶部、36は最小
値選択部を表わす。
In this figure, 31Viz? 32 is a pattern normalization section, 33 is a plain pattern generation section, 34 is a distortion amount calculation section, 35 is a definition pattern storage section, and 36 is a minimum value selection section.

パターン入力部31は、認識すべき文字・記号、図形等
のパターン、たとえば°A″をスキャナで光学的に読取
り、電気信号に変換して、メツシュ状の画素情報として
パターン規格化回路32に出力する。
The pattern input section 31 optically reads a pattern of characters, symbols, figures, etc. to be recognized, for example, °A'' with a scanner, converts it into an electrical signal, and outputs it as mesh-like pixel information to the pattern standardization circuit 32. do.

ノfターン規格化回路32け、入力されたパターンを、
認識処理のための一定のサイズに規格化してプレインパ
ターンマツプ生成部33に出力する。なおこの規格化処
理では、パターンの線幅は変更されない。
32 f-turn standardization circuits convert the input pattern into
The map is standardized to a certain size for recognition processing and output to the plane pattern map generation section 33. Note that the line width of the pattern is not changed in this standardization process.

プレインパターンマツプ生成部33は、任意の入カバタ
ーンについて、その各画素毎に画素から遠ざかるにつれ
て重み、すなわち歪み度が増大するブレーン(Bτai
n )パターンと呼ばれる歪みパターンのマツプを生成
する。
The plane pattern map generation unit 33 generates a plane (Bτai
n) Generate a map of distortion patterns called patterns.

プレインツクターンマツプは、たとえば第4図(α)。A plain cut turn map is shown in FIG. 4 (α), for example.

(b)に示すように1.各画素について、(α)の4方
向および(A)の8方向にある画素を順次交互に選択し
て順序数の重み付けを行なうことにより、同図(C)に
例示されるように生成される。なお、上記した数学的規
則は、−〇ctagonal f)iztance”と
呼ばれている。
As shown in (b) 1. For each pixel, pixels in the four directions of (α) and the eight directions of (A) are sequentially and alternately selected and ordinal numbers are weighted to generate the image as illustrated in (C) of the same figure. . Note that the above mathematical rule is called "-〇ctagonal f) iztance".

後述される第5図(α) 、 (A)は、文字“A′に
ついて生成されたプレインパターンマツプの例を示して
いる。(α)が定義パターン、(b)が入カバターンで
ある。
5 (α) and (A), which will be described later, show examples of plain pattern maps generated for the character "A'. (α) is the definition pattern, and (b) is the input pattern map.

このプレインパターンマツプでは、白地に黒文字のパタ
ーンの場合、白黒境界部の総ての黒画素に重み“1″が
設定され、該黒画素から遠ざかる方向に、2,3,4.
・・・のように増大する順序数の重みが設定される。な
お、第5図のプレインツクターンマツf例では、文字”
A”の線幅が1画素の琳位幅となっているが、複数の画
素幅をもつ太い線の場合には、線の内側へ向って、O,
−1゜−2,・・・、のように負方向の重み付けがなさ
れる0このようなブし・インパターンマツプを用いるこ
とによシ、任意の崩れた手書き文字について、定義文字
からの歪み距離を蘭学に求めることができる。
In this plain pattern map, in the case of a pattern of black characters on a white background, a weight of "1" is set for all black pixels at the black-and-white boundary, and weights of 2, 3, 4, etc. are set in the direction away from the black pixels.
The weight of the ordinal number is set to increase as follows. In addition, in the plain tsukturn pine f example in Figure 5, the letters "
The line width of "A" is one pixel width, but in the case of thick lines with multiple pixel widths, O,
-1゜-2,..., etc. 0 By using such a brush/in-pattern map, it is possible to eliminate the distortion from the defined character for any corrupted handwritten character. Distance can be found in Dutch studies.

たとえば重み”1″をもつ黒画素が、手書きによって歪
んで重み“5″の画素位置に書かれた場合には、その間
の歪み距離を’、5−1=4あるものと計算する。
For example, when a black pixel with a weight of "1" is distorted by handwriting and written at a pixel position with a weight of "5", the distortion distance between them is calculated as ',5-1=4.

第3図の歪み量計算部34は、定義・卆ターン記憶部3
5に記憶されている予め作成された複数の定義パターン
のプレインパターンマツf(以後定義プレインパターン
マツプと呼ぶ)と、プレインパターンマツプ生成部33
から出力された入力iRパターンプレインパターンマツ
f(以後入力ブレインツクターンマツプと呼ぶ)との間
で、上記したような歪み距離の計算を行ない、各定義パ
ターンを歪ませて入カバターンに一致させたとしたとき
の、各定義パターン毎の歪み量を求める。
The distortion amount calculation unit 34 in FIG.
A plane pattern map f (hereinafter referred to as a definition plane pattern map) of a plurality of definition patterns created in advance and stored in the plane pattern map generation unit 33
The distortion distance is calculated as described above between the input iR pattern plain pattern pine f (hereinafter referred to as input brain pattern map) output from Then, calculate the amount of distortion for each defined pattern.

次に第5図(cL) 、 (A)に示す双方のプレイン
パターンマツプを用いて、歪み量の計算処理方式を説明
する。歪み量を表わす評価関数は、両ブレ不ン・ぐター
ンマツプの対応する画素同士の間の重み値の差(dとす
る)の2乗和で与えられるが、その算出方法は、定義プ
レイソノ9ターンマツプの重み”1″の黒画素から入カ
ブレインパターンマップの対応画素へ、および入力ブレ
イン・七ターンマツダの重み“1″の黒画素から定義プ
レインパターンマツプの対応画素への2方向について行
なわれる。これは双方のパターンの相違点を、評価関数
に強く反映させるためである。たとえば前者の場合、第
5図の矢印Aで示すように、定義プレイン・ぞターンマ
ツ7″(α)の黒画素■け、入力ブレインパターンマツ
f(b)の■と比較され、同様に後者の場合、矢印Bで
示すように、マツプ(6)の黒画素■は、マツ7″(α
)の■と比較され、以下、双方のマツプにおいて、重み
“1″をもつ黒画素の総てが、相互に相手方マッグの対
応画素と比較される。
Next, a method for calculating the amount of distortion will be explained using both plane pattern maps shown in FIGS. 5(cL) and 5(A). The evaluation function representing the amount of distortion is given by the sum of the squares of the difference (d) in the weight values between corresponding pixels of both blurring and turn maps, but its calculation method is based on the definition play sonogram. This is carried out in two directions: from a black pixel with a weight of "1" in the input brain pattern map to a corresponding pixel in the input plane pattern map, and from a black pixel with a weight of "1" in the input brain seven-turn Mazda to a corresponding pixel in the defined plane pattern map. This is to strongly reflect the differences between both patterns in the evaluation function. For example, in the former case, as shown by arrow A in FIG. In this case, as shown by arrow B, the black pixel ■ of map (6) is
), and hereinafter, all black pixels with a weight of "1" in both maps are mutually compared with the corresponding pixels in the other map.

ここで、一般的に定義プレイン・やターンマツプの画素
の重みをd・とじ、入力ブレインパターンマツプの対応
画素の重みを1とし、更に定義・母ターンから入力/ぐ
ターンへ向って算出される歪み量を’1、そしてその逆
方向の入カバターンから定義パターンへ向って算出され
る歪み量をd、とする。
Here, in general, the weight of the pixel of the definition plane/turn map is set to d, the weight of the corresponding pixel of the input brain pattern map is set to 1, and then the distortion calculated from the definition/mother turn to the input/g turn is set as d. Let the amount be '1, and the amount of distortion calculated from the input pattern in the opposite direction toward the defined pattern be d.

d、およびd!は、それぞれパターン中の重み“1″の
総ての黒画素について算出される歪み距離(dj−d、
 )あるいil:(d、 −da )の2乗和として次
式で与えられる。
d, and d! are the distortion distances (dj-d,
) or il:(d, -da) is given by the following equation.

d、=Σ(dj−d、)2 翼部34は、この評価関数りにより、各定義パターン毎
に、入力・そターンに対する歪み量を計算する〇最小値
選択部36は、歪み量計算部34が計算した各定義・ぐ
ターン毎の歪み量の中の最小値を検出し、当該定義パタ
ーンを認識結果として出力する。
d,=Σ(dj-d,)2 The wing section 34 calculates the amount of distortion for each input/turn for each defined pattern using this evaluation function. The minimum value selection section 36 is a distortion amount calculation section. 34 detects the minimum value among the distortion amounts for each definition/gutern, and outputs the definition pattern as a recognition result.

以上述べた前記先行発明の方式は、手書き文字のような
歪みの大きいパターンの認識にきわめて有効なものであ
り、これまでに実施されたものは良好な成績を上げてい
る。しかし本方式は、歪み量の計算を、定義パターンと
入力・ぞターンとの間で双方向にマツチングをとって行
なっており、そのため両パターン間の差異が太きいもの
では、歪みの情報量が増大するので認識精度を高めるこ
とができるが、両パターン間の各画素における環境の情
報(ストロークの方向および長さの重みづけ情報)が考
慮されていないため歪み量の較差を縮めて曖昧さを助長
するように作用し、認識精度を低下させるという欠点を
もっていた。
The method of the prior invention described above is extremely effective in recognizing patterns with large distortions such as handwritten characters, and the methods implemented so far have achieved good results. However, this method calculates the amount of distortion by performing bidirectional matching between the definition pattern and the input turn, so if the difference between the two patterns is large, the information amount of distortion is However, since the environmental information (weighting information of stroke direction and length) at each pixel between both patterns is not considered, it is necessary to reduce the difference in distortion amount and reduce ambiguity. This has the disadvantage that it acts to promote the recognition and reduces recognition accuracy.

〔発明の目的および構成〕[Object and structure of the invention]

本発明の目的は、前記先行発明方式の欠点を改善するた
め、・々ターンの歪み量を与える評価関数を改良し、・
々ターン認識の精度および認識処理効率の向上を図るこ
とにある。
An object of the present invention is to improve the evaluation function that gives the amount of distortion of each turn, in order to improve the drawbacks of the prior invention method,
The purpose of this invention is to improve the accuracy of turn recognition and the recognition processing efficiency.

本発明は、そのため、前記先行発明方式におけるパター
ンマツチング法に、ストロークの長さおよび方向情報を
認識情報として用いる位相構造法を組み合わせることに
より、上記目的を達成するものである。そして本発明は
、/′eターンマツチング法により得られる定義パター
ンと入カバターンとの間の歪み距離を、ストロークの長
さおよび方向情報における距離で重み付けするものであ
って、それにより、発明の構成は、・ソターンマッチン
グ法により、文字、記号、図形等のパターンを認識する
システムであって、複数の定義パターンおよび入力・ぞ
ターンのそれぞれについて、画素毎の歪み分布を表わす
プレインパターンマツプを作成する手段と、該プレイン
パターンマツプを用いて各定義パターンと入カバターン
との間の画素毎の歪み距離を計算し、それに基づき入力
・やターンに対する各定義パターンの歪み惜を求める手
段と、入力・やターンに対して最小の歪み量を与える一
つの定義ノソターンを選択し入カバターンに対応づける
手段とをそなえたものにおいて、更に、上記複数の定義
パターンおよび入カノクターンのそれぞれについて、画
素毎に当該画素を含むストロークの長さおよび方向を示
すストローク情報テーブルを作成する手段と、該ストロ
ーク情報テーブルに基づいて、各定義・やターンと入カ
バターンとの1ljJの画素毎のストローク情報距離を
求める手段とを有し、該ストローク清報距離により、上
記入力パタ・−ンに対する各定義パターンの歪み量を求
める手段において計算される画素毎の歪み距離を重みづ
けすることを特徴とする。
Therefore, the present invention achieves the above object by combining the pattern matching method in the prior invention method with a phase structure method that uses stroke length and direction information as recognition information. The present invention weights the distortion distance between the definition pattern obtained by the /'e turn matching method and the input cover turn by the distance in the stroke length and direction information, thereby achieving the invention. The system uses the so-turn matching method to recognize patterns such as characters, symbols, figures, etc., and uses a plain pattern map that represents the distortion distribution for each pixel for each of multiple definition patterns and input turns. means for calculating the distortion distance for each pixel between each definition pattern and the input cover turn using the plane pattern map, and calculating the distortion distance of each definition pattern with respect to the input/turn based on the distortion distance; and a means for selecting one defined nosoturn that gives the minimum amount of distortion for the above-mentioned plurality of definition patterns and the input nosoturn and associating it with the input cover turn, and further, for each of the plurality of definition patterns and input nosoturns, for each pixel. means for creating a stroke information table indicating the length and direction of the stroke including the pixel; and means for determining the stroke information distance for each pixel of 1ljJ between each definition/ya turn and the input cover turn based on the stroke information table. The method is characterized in that the distortion distance for each pixel calculated by the means for determining the distortion amount of each defined pattern with respect to the input pattern is weighted by the stroke correction distance.

〔発明の実施例〕 以下に、本発明を実施例にしたがって説明する。[Embodiments of the invention] The present invention will be explained below based on examples.

第6図は、本実施例において、使用されるストローク情
報を規定するための8方向とそのコード(番号)を表わ
している。ストローク情報は、長さと、これらの8方向
コードとによシ表わされる0第7図は、第6図に示した
8方向コードを用いるストローク情報の説明図である。
FIG. 6 shows eight directions and their codes (numbers) for defining the stroke information used in this embodiment. Stroke information is represented by length and these 8-direction codes. FIG. 7 is an explanatory diagram of stroke information using the 8-direction codes shown in FIG. 6.

本図は、二つの手書き文字パターンrAJ、rBJ間の
マツチングにおいて、0点に着目した場合の、パターン
間のストローク情報距離を得る過程を、図式的に示した
ものである。(a)に示す0点を中心とするストローク
を8方向で規格化し、(b)でそれぞれの長さとともに
ベクトル形式表示とし、CC) 、 (cL)でマツチ
ング処理により両パターン間の差をと9、更にこれにつ
いて閾値処理等を行なってストローク情報距離を求める
ものである。
This figure schematically shows the process of obtaining the stroke information distance between two handwritten character patterns rAJ and rBJ when focusing on the 0 point in matching. The stroke centered at the 0 point shown in (a) is normalized in 8 directions, each length is displayed in vector format in (b), and the difference between the two patterns is calculated by matching processing in (CC) and (cL). 9. This is further subjected to threshold processing and the like to obtain the stroke information distance.

更に具体的に説明すると、上記の例におけるパターンr
AJ、rBJの0点のストローク情報距離は、次表のよ
うにして求められる。
To explain more specifically, the pattern r in the above example
The stroke information distance of the 0 point of AJ and rBJ is determined as shown in the following table.

上記表の(1)から(1■)までの過程は、第7図によ
シ説明したことに対応している。(V)の閾値処理は、
閾値α=4を設定して、各方向毎のストローク差を2値
化するものである。そして(■1)の処理は、(■)で
2値化された各方向毎の結果値について総和をとるもの
である。このようにして得られた総和値Cを(vii:
+で正規化した後(Kは正規化係数)、ストローク情報
距離Pとして、評価関数の重みづけのための変数として
使用する。
The processes from (1) to (1) in the above table correspond to those explained with reference to FIG. The threshold processing of (V) is
The threshold value α=4 is set to binarize the stroke difference in each direction. The process (■1) is to calculate the sum of the result values for each direction binarized in (■). The total value C obtained in this way is (vii:
After normalization with + (K is a normalization coefficient), the stroke information distance P is used as a variable for weighting the evaluation function.

本実施例で用いられる評価関数D′は、次式で与えられ
る。
The evaluation function D' used in this embodiment is given by the following equation.

D’ = d、’+c12’ =Σ(1+P1 ) (tit−d・)2+Σ(1+P
、)(d・−db)2 上式におけるd 、′および41は、前記した先行発明
方式の説明で述べた評価関数D ” ’+ + dtの
各項dI+’2に、それぞれストローク情報距離を含む
1与づけ項(1+PI)、 (1+Pt)を乗じたもの
である。
D' = d, '+c12' = Σ(1+P1) (tit-d・)2+Σ(1+P
, )(d・-db)2 d, ', and 41 in the above equation are the respective terms dI+'2 of the evaluation function D'''++dt described in the explanation of the prior invention method, and the stroke information distances. It is multiplied by 1 given term (1+PI) and (1+Pt).

なお、P、は定義パターンから入カバターンへマツテン
グケとったときのストローク情報距離、そしてP2ハ入
力z4ターンから定義パターンへマツチングをとったと
きのストローク情報距離を表わす。
Note that P represents the stroke information distance when matching is performed from the defined pattern to the input cover turn, and P2 represents the stroke information distance when matching is performed from the input z4 turn to the defined pattern.

第8図は本発明実施例システムの構成図であシ、第9図
はその処理フロー図である。
FIG. 8 is a configuration diagram of a system according to an embodiment of the present invention, and FIG. 9 is a processing flow diagram thereof.

第8図において、81はパターン入力部、82はノRタ
ーン規格化部、83はプレインパターンマツプ生成部、
84は黒画素対応ツクターン生成部、85は長さおよび
8方向コ一ド生成部、86はメモリ、87は歪み量計算
部、88は定義パターンライブラリ、89は最小値選択
部を表わす。これらの各要素からなる構成は、第3図の
先行発明の実施例システムをペースにして、本発明によ
る部分的な付加、変型を行なったものである。
In FIG. 8, 81 is a pattern input section, 82 is an R-turn standardization section, 83 is a plain pattern map generation section,
Reference numeral 84 represents a black pixel corresponding turn generation unit, 85 a length and eight direction code generation unit, 86 a memory, 87 a distortion amount calculation unit, 88 a definition pattern library, and 89 a minimum value selection unit. The configuration consisting of each of these elements is based on the system according to the embodiment of the prior invention shown in FIG. 3, with partial additions and modifications according to the present invention.

黒画素対応パターン生成部84は、プレインパターンマ
ツプに分布されている各画素の重みが、どの黒画素を基
点にしているかを表わす黒画素対応ノやターンを生成す
る。
The black pixel correspondence pattern generation unit 84 generates a black pixel correspondence number or turn indicating which black pixel is the base point of the weight of each pixel distributed in the plain pattern map.

長さおよび8方向コ一ド生成部85は、第7図および表
を用いて先に説明したス)ローフの長さおよび8方向コ
ードを生成する処理を行なう。
The length and 8-direction code generation unit 85 performs processing for generating the length and 8-direction code of the loaf as described above using FIG. 7 and the table.

メモリ86は、・クターン認識処理のだめの作業領域を
提供するとともに、各種の処理プログラム、すなわち規
格化プログラム、プレインプログラム、黒画素対応プロ
グラム、長さおよび8方向コードプログラム、歪み計算
プログラムなどを保持している。メモリ内に設置されて
いるテーブルIおよびテーブル■は、入力ブレインパタ
ーンマツダを生成するために使用される作業テーブルで
あり、またテーブルRH人カバターンの各黒画素を識別
するための番号付はテーブル、そしてテーブルS[黒画
i対9パターンを示すテーブル、チーフルTけ長さおよ
び8方向コードテーブルである。これらのテーブルを使
用する処理については、後述される。
The memory 86 provides a work area for pattern recognition processing, and also holds various processing programs, such as a standardization program, a plain program, a black pixel correspondence program, a length and eight-direction code program, and a distortion calculation program. ing. Table I and table ■ installed in the memory are working tables used to generate the input brain pattern Mazda, and the numbering table for identifying each black pixel of the table RH person covert is a table, And table S [table showing black pattern i vs. 9 pattern, chiffle T length and 8 direction code table. Processing using these tables will be described later.

定義プレインパターンライブラリ88には、各定義・母
ターン毎のプレイン・やターンマツプと黒画素対応パタ
ーンと長さおよび8方向コードテーブルとが格納されて
いる。
The definition plane pattern library 88 stores a plane/turn map for each definition/mother turn, a black pixel correspondence pattern, a length, and an 8-direction code table.

以下に第9図のフロー(a)乃至ω)にしたがって、第
8図の実施例システムの動作を説明する。
The operation of the embodiment system shown in FIG. 8 will be explained below according to the flowcharts (a) to ω) shown in FIG.

(α) パターン入夫部81は、スキャナ等で読春取っ
た被認識文字、記号、図形等を、−学位ずつ切り出し、
パターン規格化部82に供給する。
(α) The pattern input unit 81 cuts out the characters, symbols, figures, etc. to be recognized read by a scanner or the like into −degree units,
It is supplied to the pattern standardization section 82.

Cb)  パターン規格化部82は、切9出された各パ
ターンをN X IVIドツトの大きさに規格化し、プ
レインパターンマツプ生成部83に供給する。なお、こ
こで規格化されたパターンは、メモリ86中に蓄積され
ている。
Cb) The pattern normalization section 82 normalizes each of the cut out patterns to the size of N.times.IVI dots, and supplies it to the plain pattern map generation section 83. Note that the standardized patterns here are stored in the memory 86.

(C)  プレインパターンマツプ生成部83u、規格
化された入カバターンの線部分における白黒境界域にあ
る総ての黒画素の座標をテーブルIK設定し、その重み
値Jを”1”にする。次にこのテーブル■から1画素ず
っ取シ出して、その4方向距離にある白画素(“O″の
画素)の値を、重みJ+1 (J=1 )にし、その座
標をテーブルHに格納する。この動作を、テーブル■の
総ての画素について実行する。次に、テーブル■がら1
画素ずつ取シ出して、8方向にある白画素のみについて
その値をJ+1(J=2)にし、その画素の座標をテー
ブルIに入れる。これをテーブルHの画素がなくなるま
で繰シ返″t。
(C) The plane pattern map generation unit 83u sets the coordinates of all black pixels in the black and white boundary area in the line portion of the standardized input pattern in a table IK, and sets the weight value J to "1". Next, remove one pixel from this table ■, set the value of the white pixel (“O” pixel) located at that distance in four directions to weight J+1 (J=1), and store its coordinates in table H. . This operation is executed for all pixels in table (2). Next, table
Extract each pixel, set the value of only white pixels in eight directions to J+1 (J=2), and enter the coordinates of that pixel in Table I. This is repeated "t" until there are no more pixels in table H.

プレインパターンマツプ生成部83Vi、、以上のテー
ブルI、I[を使用した処理を、必要な回数だけ交互に
実行することにより、谷点画素を基点として、J=J+
1による順序数の重みづけを行ない入カバターンに対す
るブレインノ4ターンマッグを生成する。
By alternately performing the processing using the above tables I and I[ in the plane pattern map generation unit 83Vi, as many times as necessary, J=J+
The ordinal numbers are weighted by 1 to generate brain 4-turn mags for the input cover turns.

(d)  黒画素対応・やターン生成部84は、上記(
C)の処理と並行して、黒画素対応パターンの生成処理
を行なう。そのために、まず境界上の総ての黒画素、す
なわち重み値J=1をもつ画素の座標に、順番に番号A
(A=1.2,3.・・・)を振り、テーブルPに格納
する。そしてC)での白画素に対する順次的な重み値J
の付与(J=J+1 )に応じて、当該白画素の座標に
、その重みJの基点となってbる黒画素の番号kを振シ
、第10図(α)、ψ)に示すような黒画素対応パター
ンを生成して、テーブルSに格納する。
(d) The black pixel corresponding / turn generation unit 84 is configured as described above (
In parallel with the process of C), a process of generating a pattern corresponding to black pixels is performed. To do this, we first assign numbers A to the coordinates of all black pixels on the boundary, that is, pixels with weight value J=1.
(A=1.2, 3...) and store it in table P. and sequential weight values J for white pixels in C)
(J=J+1), the number k of the black pixel that is the base point of the weight J is assigned to the coordinates of the white pixel, as shown in Figure 10 (α, ψ). A pattern corresponding to black pixels is generated and stored in table S.

第10図は、第5図に示すプレインパターンマツプに対
応する黒画素対応パターンを表わし、(α)は定義パタ
ーンライブラリ88に予め格納されている定義パターン
rAJの黒画素対応パターンの1例を示し、(b)は黒
画素対応パターン生成部84で生成された入カバターン
rAJに対するものの1例を示す。前者では黒画素に1
から29までの番号が振られ、後者では黒画素に1から
27までの番号が振られ、それぞれ、第5図(α)、(
A)のプレインパターンマツプ上の対応画素について、
その基点となる黒画素の番号を表示しているO (リ 長さおよび8方向コ一ド生成部85ば、−人力パ
ターンの各画素毎に、当該画素を中心とするストローク
の長さを算出し、8方向コードを対応づけた長さおよび
8方向コードテーブルTを生成する0 なお、第11図((L)、(h)は長さおよび8万高コ
ードテーブルの具体例を示したものであり、第5図およ
び第10図に示されているパターン(α)、(b)にそ
れぞれ対応するものである。
FIG. 10 shows a black pixel corresponding pattern corresponding to the plane pattern map shown in FIG. , (b) show an example of the input cover pattern rAJ generated by the black pixel corresponding pattern generation unit 84. In the former, 1 is assigned to the black pixel.
In the latter case, black pixels are numbered from 1 to 27, respectively.
Regarding the corresponding pixels on the plane pattern map of A),
The length and 8-direction code generation unit 85 displays the number of the black pixel that is the base point. - For each pixel of the manual pattern, calculates the length of the stroke centered at the pixel. Then, a length and 8-direction code table T is generated in which the 8-direction code is associated with each other. and correspond to patterns (α) and (b) shown in FIGS. 5 and 10, respectively.

(イ) 歪み量計算部87は、メモリ86内の各テーブ
ルに入カバターンについて生成されているプレインパタ
ーンマツf(テーブル1.II)、黒画素番号付はテー
ブルR1黒画素パターン対応テーブルS1長さおよび8
方向コードテーブルTと、定義パターン規格化部IJ 
88内の各定義パターンに関する同様なデータとに基づ
いて、前記した評価関数D′の計算を実行する。
(a) The distortion amount calculation unit 87 calculates the plain pattern pine f (table 1.II) generated for each cover pattern in each table in the memory 86, table R1 with black pixel number, black pixel pattern correspondence table S1 length and 8
Direction code table T and definition pattern standardization unit IJ
Based on similar data regarding each definition pattern in 88, the above-mentioned evaluation function D' is calculated.

その際、たとえば定義パターンから入力・やターンへの
マツチング処理においては、第5図の矢印Aが示す例の
場合、1ず定義パターン(α)の重み■の黒画素(第1
0図(α)により、画素番号−”1″)に対応する入力
・平ターン(A)の重み■の画素を求めて、(dA−d
、)2= (3−1)2= 4を算出する。そのとき、
第10図Cb)の黒画素対応・やターンから、基点の黒
画素“1″を求め、第11図(cL)、(j5)双方の
画素番号”1”のエントリを読み出して、前記衣にした
がったストローク情報距離P、を算出する。たとえばに
=2の場合、P、=2が得られる。これらの値から、 (1+P+ ) (”  ’・)2= (1+2)(3
−1)2= 6 が得られる。以下、他の画素についても計算し、また逆
方向マツチング処理においても同様な計算を行なって、
評価関数D′から歪み量を求める。
At that time, for example, in the matching process from the definition pattern to the input/turn, in the case of the example shown by arrow A in FIG.
0 diagram (α), find the pixel with the weight ■ of the input flat turn (A) corresponding to the pixel number - "1"), and calculate (dA - d
, )2=(3-1)2=4. then,
From the black pixel correspondence/turn in Figure 10 Cb), find the black pixel "1" at the base point, read out the entry with pixel number "1" in both Figures 11 (cL) and (j5), and apply it to the cloth. Therefore, the stroke information distance P is calculated. For example, if P=2, we obtain P,=2. From these values, (1+P+) (” '・)2= (1+2)(3
-1) 2=6 is obtained. Below, calculations will be made for other pixels, and similar calculations will be performed for reverse matching processing.
The amount of distortion is determined from the evaluation function D'.

(、!7)  最小値選択部89は、上記(イ)で計算
された各定義パターン毎の歪み量から、最小値を示す定
義・母ターンを検出し、認識結果として出力する。
(,!7) The minimum value selection unit 89 detects the definition/mother turn that exhibits the minimum value from the distortion amount for each definition pattern calculated in (a) above, and outputs it as a recognition result.

〔発明の効果〕〔Effect of the invention〕

以上のように、本発明によれば、前記先行発明方式に較
べて、評価関数によるパターン弁別性能が向上して、エ
ラー率を数分の−にまで小さくすることができ、著しい
改善効果が得られた。
As described above, according to the present invention, compared to the prior invention method, the pattern discrimination performance by the evaluation function is improved, the error rate can be reduced to a few fractions of a second, and a significant improvement effect can be obtained. It was done.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は従来の一般的なパターン認識方式の概念図、第
2図は先行発明方式の概念図、第3図は先行発明方式の
実施例のブロック図、第4図(a)乃至(C)はプレイ
ンパターンマツプの説明図、第5区1(a)、(b)ハ
ブレイン・ぞターンマッグの例を示す図、第6図は8方
向コードの説明図、第7図(α)、(A)、(C)、(
d)はストローク情報の説明図、第8図は本発明実施例
システムの構成図、第9図はその処理フロー図、第1O
図(α)、Cb)は黒画素対応パターンの説明図、第1
1図(α)、(勾は長さお上び8方向コードテーブルの
説明図である。 図中、81は・ぐターン入力部、82は・母ターン規格
対Ui5 ハターン生成部、85ハ長はおよび8方向コ
一ド生成部、86はメモリ、87は歪み量計算部、88
は定義パターンライブラリ、89は最小値選択部を表わ
す。 特許出願人 富士通法式会社 代理人弁理士  長径用  文 廣 (外1名) 1−30 −3 −ン  −10中]   ◆2   争3才 5
1 (Q)      (b)        (c)  
   (d)18図 ニ ナ10図 (Q)              (b)才11 (C1) 88釦コーY (b) 8方銅コー「 863
Figure 1 is a conceptual diagram of a conventional general pattern recognition system, Figure 2 is a conceptual diagram of a prior invention system, Figure 3 is a block diagram of an embodiment of the prior invention system, and Figures 4 (a) to (C ) is an explanatory diagram of the plane pattern map, 5th section 1 (a), (b) is a diagram showing an example of the hub brain/zoo turn mag, FIG. 6 is an explanatory diagram of the 8-direction code, and FIG. 7 (α), (A ), (C), (
d) is an explanatory diagram of stroke information, FIG. 8 is a configuration diagram of the system according to the present invention, FIG. 9 is a processing flow diagram thereof, and
Figures (α) and Cb) are explanatory diagrams of black pixel correspondence patterns, the first
Figure 1 (α), (gradient is the length and is an explanatory diagram of the 8-direction code table. In the figure, 81 is the turn input section, 82 is the main turn standard vs. Ui5 turn generation section, and 85 is the length) and an 8-direction code generator, 86 a memory, 87 a distortion amount calculator, 88
89 represents a definition pattern library, and 89 represents a minimum value selection section. Patent Applicant Fujitsu Law Company Representative Patent Attorney For long diameter Hiroshi Fumi (1 other person) 1-30 -3 -n-10 ◆2 3 years old 5
1 (Q) (b) (c)
(d) 18 figure Nina 10 figure (Q) (b) Sai 11 (C1) 88 button cord Y (b) 8 way copper cord "863

Claims (1)

【特許請求の範囲】 ・ぐターンマツチング法により、文字、記号、図形等の
パターンを認識するシステムであって、複数の定義パタ
ーンおよび入カバターンのそれぞれにつめて、画素毎の
歪み分布を表わすプレインパターンマツプを作成する手
段と、該プレインパターンマツプを用いて各定義パター
ンと入カバターンとの間の画素毎の歪み距離を計算し、
それに基づき入力・千ターンに対する各定義パターンの
歪み量を求める手段と、入カッ+ターンに対して最小の
歪み量を与える一つの定義パターンを選択し入力・ぐタ
ーンに対応づける手段とをそなえたものにおいて、 更に、上記複数の定義パターンおよび入カバターンのそ
れぞれについて、画素毎に当該画素を含むストロークの
長さおよび方向を示すストローク情報テーブルを作成す
る手段と、該ストローク情報テーブルに基づいて、各定
義パターンと入カバターンとの間の画素毎のストローク
情報距離を求める手段とを有し、該ストローク情報距離
により、上記入カバターンに対する各定義・やターンの
歪み量を求める手段において計算される画素毎の歪み距
離を重みづけすることを特徴とするパターン認識方式。
[Claims] - A system for recognizing patterns such as characters, symbols, figures, etc. by the pattern matching method, which expresses the distortion distribution for each pixel for each of a plurality of definition patterns and input patterns. means for creating a plain pattern map; using the plain pattern map to calculate a pixel-by-pixel distortion distance between each defined pattern and the input cover pattern;
Based on this, the system is equipped with means for determining the amount of distortion of each definition pattern with respect to input turns of 1,000 turns, and means of selecting one definition pattern that gives the minimum amount of distortion for input cuts and turns and associating it with input turns. The invention further includes means for creating a stroke information table indicating the length and direction of a stroke including the pixel for each pixel for each of the plurality of definition patterns and input patterns, and means for creating each stroke information table based on the stroke information table. means for calculating the stroke information distance for each pixel between the definition pattern and the input cover turn, and the means for calculating the distortion amount of each definition/turn with respect to the input cover turn based on the stroke information distance for each pixel. A pattern recognition method characterized by weighting the distortion distance of.
JP57182629A 1982-10-18 1982-10-18 Pattern recognizing system Granted JPS5971585A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP57182629A JPS5971585A (en) 1982-10-18 1982-10-18 Pattern recognizing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP57182629A JPS5971585A (en) 1982-10-18 1982-10-18 Pattern recognizing system

Publications (2)

Publication Number Publication Date
JPS5971585A true JPS5971585A (en) 1984-04-23
JPH0259505B2 JPH0259505B2 (en) 1990-12-12

Family

ID=16121626

Family Applications (1)

Application Number Title Priority Date Filing Date
JP57182629A Granted JPS5971585A (en) 1982-10-18 1982-10-18 Pattern recognizing system

Country Status (1)

Country Link
JP (1) JPS5971585A (en)

Also Published As

Publication number Publication date
JPH0259505B2 (en) 1990-12-12

Similar Documents

Publication Publication Date Title
CN104463195B (en) Printing digit recognizing method based on template matches
JP3453134B2 (en) How to determine equivalence of multiple symbol strings
US9092697B2 (en) Image recognition system and method for identifying similarities in different images
JP2004139484A (en) Form processing device, program for implementing it, and program for creating form format
JPH06162198A (en) Pattern recognizing device
US8699794B2 (en) Variable glyph system and method
CN111401099B (en) Text recognition method, device and storage medium
CN115457565A (en) OCR character recognition method, electronic equipment and storage medium
CN110766708B (en) Image comparison method based on contour similarity
CN112597998A (en) Deep learning-based distorted image correction method and device and storage medium
CN112668580A (en) Text recognition method, text recognition device and terminal equipment
EP0446632A2 (en) Method and system for recognizing characters
JPH08287258A (en) Color image recognition device
JPS5971585A (en) Pattern recognizing system
CN111325194B (en) Character recognition method, device and equipment and storage medium
CN114120309A (en) Instrument reading identification method and device and computer equipment
JPH0143353B2 (en)
JP4575356B2 (en) Identity checking system, computer readable recording medium
JPS59157776A (en) Pattern recognizing system
JPH07302338A (en) Template matching method and pattern recognizing device using the same method
CN112183538B (en) Manchu recognition method and system
CN115205865A (en) Method and device for identifying image and electronic equipment
JP3948943B2 (en) Graphic recognition method and apparatus
JP4869364B2 (en) Image processing apparatus and image processing method
JP2891211B2 (en) Optical character reader and method