JPH0143353B2 - - Google Patents

Info

Publication number
JPH0143353B2
JPH0143353B2 JP57182628A JP18262882A JPH0143353B2 JP H0143353 B2 JPH0143353 B2 JP H0143353B2 JP 57182628 A JP57182628 A JP 57182628A JP 18262882 A JP18262882 A JP 18262882A JP H0143353 B2 JPH0143353 B2 JP H0143353B2
Authority
JP
Japan
Prior art keywords
pattern
distortion
input
definition
brain
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired
Application number
JP57182628A
Other languages
Japanese (ja)
Other versions
JPS5971584A (en
Inventor
Michiko Iwasaki
Mitsuo Ishii
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP57182628A priority Critical patent/JPS5971584A/en
Publication of JPS5971584A publication Critical patent/JPS5971584A/en
Publication of JPH0143353B2 publication Critical patent/JPH0143353B2/ja
Granted legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • G06V10/7515Shifting the patterns to accommodate for positional errors

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Character Discrimination (AREA)
  • Image Analysis (AREA)

Description

【発明の詳細な説明】 〔発明の技術分野〕 本発明は、パターンマツチング法による手書き
の文字、記号、あるいは図形等のパターンを認識
するための方式に関し、特に、本発明者が先に発
明し、本出願人により出願されている特願昭54−
90272の発明“文字・記号認識方式”(特開昭56−
16271、以後「先行発明」と呼ぶ)の改良に関す
るものであつて、ブレインパターンマツプを用い
て行なわれる定義パターンと入力パターンとの間
の歪み距離の計算方式を更に改善し、認識効率の
向上を図つたものである。
Detailed Description of the Invention [Technical Field of the Invention] The present invention relates to a method for recognizing patterns such as handwritten characters, symbols, or figures using a pattern matching method. However, the patent application filed by the applicant in 1972-
90272 invention “Character/symbol recognition system”
16271, hereinafter referred to as the "prior invention"), which further improves the calculation method of the distortion distance between the defined pattern and the input pattern using the brain pattern map, and improves the recognition efficiency. It's a diagram.

〔技術の背景〕[Technology background]

手書き文字の認識手法を概念的に分類すると、
文字の位相構造(例えばストロークの組み合わさ
り方)によるものと、定義パターン(辞書パター
ン)とのマツチングによる方法とがあるが、前者
はストロークの抽出が面倒であり、後者は文字の
変形があつたときの処理が難しいという欠点があ
る。本発明の基礎となつている前記先行発明は、
後者に属するが、手書きによつて生ずる変形も線
の太さ、細さも制約条件とならない統一的な手法
を提供している。以下に、前記先行発明につい
て、その概要を説明する。
The conceptual classification of handwritten character recognition methods is as follows:
There are methods based on the topological structure of characters (for example, how strokes are combined) and methods based on matching with definition patterns (dictionary patterns), but the former method is troublesome to extract strokes, and the latter method results in character deformation. The disadvantage is that it is difficult to process the time. The above-mentioned prior invention, which is the basis of the present invention, is
Although it belongs to the latter category, it provides a unified method in which neither the deformation caused by handwriting nor the thickness and thinness of lines is a constraint. Below, the outline of the prior invention will be explained.

定義パターンと入力パターンとのマツチングの
度合いを示す測度として、入力パターンの歪量D
を定義し、これを定義パターン毎に計算して、入
力パターンに対する歪み量Dが最小となる定義パ
ターンを、認識パターンとするものである。これ
は、各定義パターンを歪ませて(変形させて)入
力パターンに一致させたとき、必要とした歪み量
が最小のもの、すなわち変形量が最小で済む定義
パターンを選択することを意味する。
The amount of distortion D of the input pattern is used as a measure of the degree of matching between the definition pattern and the input pattern.
is defined, this is calculated for each definition pattern, and the definition pattern that minimizes the amount of distortion D with respect to the input pattern is set as the recognition pattern. This means that when each definition pattern is distorted (deformed) to match the input pattern, a definition pattern that requires the least amount of distortion, ie, a definition pattern that requires the least amount of deformation, is selected.

一般に、認識問題とは、「観測したパターンが
あらかじめ定められているいずれの定義パターン
に最も似ているかを決定することである」と規定
される。従来のこのような認識系を概念的に例示
すると、第1図のようになる。
In general, a recognition problem is defined as ``determining which predetermined pattern the observed pattern is most similar to.'' A conceptual example of such a conventional recognition system is shown in FIG.

第1図において、11−1,11−2,…,1
1−nは基準となる定義文字・記号のパターンで
あり、例えば“A”,“B”…“+”等について示
してある。これら定義文字・記号のパターンは例
えば磁気デイスク装置等からなる定義ライブラリ
に予め格納されている。12は入力された被認識
文字・記号のパターンであり、例えばスキヤナー
などの光学読取り手段で検出されたものである。
この被認識文字・記号パターン12は、類似判定
部13−1,13−2,…,13−nにおいて、
それぞれ対応する定義パターン11−1,11−
2,…,11−nと比較されて類似度が算出さ
れ、類似量R1、R2、…Rnが出力される。判定部
14は、これらの類似量の中の最大の類似量を判
定し、この最大類似量に対応する定義パターンを
もつて、被認識パターンを読取るものである。こ
れは典型的なパターン・マツチング方式であつ
て、手書き文字・記号が有する歪みに対処するこ
とが困難であり、結局高精度な文字・記号認識が
できないという問題をもつていた。
In Figure 1, 11-1, 11-2,...,1
1-n is a pattern of definition characters/symbols that serve as a reference, and is shown for example, "A", "B", . . . "+", etc. These definition character/symbol patterns are stored in advance in a definition library consisting of, for example, a magnetic disk device. Reference numeral 12 indicates a pattern of input characters/symbols to be recognized, which is detected by an optical reading means such as a scanner.
This character/symbol pattern 12 to be recognized is processed in similarity determination units 13-1, 13-2,..., 13-n.
Corresponding definition patterns 11-1 and 11-, respectively
2, . . . , 11-n, the degree of similarity is calculated, and the similarity amounts R 1 , R 2 , . . . Rn are output. The determination unit 14 determines the maximum similarity amount among these similarity amounts, and reads the recognized pattern with a definition pattern corresponding to this maximum similarity amount. This is a typical pattern matching method, but it is difficult to deal with the distortions of handwritten characters and symbols, resulting in the problem that highly accurate character and symbol recognition cannot be achieved.

このため、前記先行発明は、手書き文字・記号
に現われる歪みに起因して正確な読取りができな
いという従来方式の問題を効果的に解決したもの
であり、認識問題を次のように置きかえている。
Therefore, the prior invention effectively solves the problem of the conventional method that accurate reading cannot be performed due to the distortion that appears in handwritten characters and symbols, and replaces the recognition problem with the following.

「パターンXを観測したとき、それが各定義パ
ターンが歪んだものとして歪み量Dを求め、Dの
最も小さい定義パターンに決定する。」 これは、「どれだけ似ているか」という事を
「どれだけ歪んでいるか」という問題に転換した
ものであるが、その本質的な違いは、後者では、
歪みによつてどのようなパターンでも作る事がで
きるという事実にもとずいて、「観測パターンは
定義パターンが歪んだものだ」という仮定を置い
た事である。
``When pattern However, the essential difference is that in the latter case,
Based on the fact that any pattern can be created through distortion, we hypothesized that ``observed patterns are distortions of defined patterns.''

具体的には、基準となる複数の定義文字・記号
について、そのパターンの各画素より遠ざかるの
に比例して、重みづけ値すなわち歪み度が増大す
るように、一定の規則性に従つて、予め定義文
字・記号パターンの歪みパターン・マツプを生成
する。他方、入力された被認識文字・記号のパタ
ーンについても、同様に前記一定の規則性に従つ
て歪みパターン・マツプを生成する。そして前記
定義パターンおよび前記被認識パターンそれぞれ
の歪みパターンマツプの、相互に対応する部分が
有するそれぞれの前記重みづけ値の差を変数とし
て、評価関数の値を求め、すなわちマツチングを
とり、該評価関数の値が最小となる定義パターン
の文字・記号をもつて、認識を確定するようにし
たものである。
Specifically, for multiple defined characters/symbols that serve as a reference, the weighting value, that is, the degree of distortion, increases in proportion to the distance from each pixel of the pattern, so that it is set in advance according to a certain regularity. Generates a distortion pattern/map of defined character/symbol patterns. On the other hand, a distortion pattern map is similarly generated for the input recognition character/symbol pattern in accordance with the certain regularity. Then, the value of the evaluation function is determined using the difference between the respective weighting values of mutually corresponding parts of the distortion pattern maps of the definition pattern and the recognition pattern as variables, that is, matching is performed, and the evaluation function is Recognition is determined by the character/symbol of the defined pattern that has the minimum value.

第2図は先行発明に係る方式の概念図である。
本図において、21−1,21−2,…21−n
は、基準となる定義文字・記号のパターンであ
る。これらのパターンは、定義文字・記号から生
成された歪みパターンマツプ形式のものであり、
第1図のパターン11−1,11−2,…11−
nとは全く異なつている。他方、22は入力され
た被認識文字・記号のパターンであるが、これも
歪みパターンマツプ形式のものであり、第1図の
パターン12とは全く異なつている。これらのパ
ターン21−1,…,21−n,22が第1図の
パターン11−1,…,11−n,12と異なる
のは、該先行発明方式には、認識のパラメータと
して“歪み量”の概念が導入されていることにあ
る。この被認識文字・記号パターン22は、歪み
量計算部23−1,23−2,…,23−nにお
いて、それぞれ対応するパターン21−1,21
−2,…,21−nの間で各歪み量が算出され、
歪み量D1、D2、…Dnが出力される。そして判定
部24において最小の歪み量が決定され、この最
小歪み量に対する定義パターンをもつて被認識パ
ターンの読取りが行なわれる。
FIG. 2 is a conceptual diagram of the system according to the prior invention.
In this figure, 21-1, 21-2,...21-n
is a standard definition character/symbol pattern. These patterns are in the form of distortion pattern maps generated from defined characters and symbols,
Patterns 11-1, 11-2,...11- in Figure 1
It is completely different from n. On the other hand, 22 is a pattern of input characters/symbols to be recognized, which is also in the form of a distortion pattern map, and is completely different from pattern 12 in FIG. These patterns 21-1, ..., 21-n, 22 are different from the patterns 11-1, ..., 11-n, 12 in FIG. ” concept has been introduced. This character/symbol pattern 22 to be recognized is processed by the corresponding patterns 21-1, 21-n, respectively, in the distortion amount calculation units 23-1, 23-2, ..., 23-n.
Each distortion amount is calculated between -2,...,21-n,
The distortion amounts D 1 , D 2 ,...Dn are output. Then, the determination unit 24 determines the minimum amount of distortion, and reads the pattern to be recognized using the definition pattern for this minimum amount of distortion.

第3図は該先行発明の実施例のブロツク構成図
である。本図において、31はパターン入力部、
32はパターン規格化部、33はブレインパター
ンマツプ生成部、34は歪み量計算部、35は定
義パターン記憶部、36は最小値選択部を表わ
す。
FIG. 3 is a block diagram of an embodiment of the prior invention. In this figure, 31 is a pattern input section;
32 is a pattern standardization section, 33 is a brain pattern map generation section, 34 is a distortion amount calculation section, 35 is a definition pattern storage section, and 36 is a minimum value selection section.

パターン入力部31は、認識すべき文字、記
号、図形等のパターン、たとえば“A”をスキヤ
ナで光学的に読取り、電気信号に変換して、メツ
シユ状の画素情報としてパターン規格化回路32
に出力する。
The pattern input section 31 optically reads a pattern such as a character, symbol, figure, etc. to be recognized, such as "A", with a scanner, converts it into an electrical signal, and outputs it as mesh-like pixel information to the pattern standardization circuit 32.
Output to.

パターン規格化回路32は、入力されたパター
ンを、認識処理のための一定のサイズに規格化し
てブレインパターンマツプ生成部33に出力す
る。なおこの規格化処理では、パターンの線幅は
変更されない。
The pattern normalization circuit 32 normalizes the input pattern to a certain size for recognition processing and outputs it to the brain pattern map generation section 33. Note that the line width of the pattern is not changed in this standardization process.

ブレインパターンマツプ生成部33は、任意の
入力パターンについて、その各画素毎に画素から
遠ざかるにつれて重み、すなわち歪み度が増大す
るブレーン(Brain)パターンと呼ばれる歪みパ
ターンのマツプを生成する。
The brain pattern map generation unit 33 generates, for each pixel of an arbitrary input pattern, a distortion pattern map called a brain pattern in which the weight, that is, the degree of distortion increases as the distance from the pixel increases.

ブレインパターンマツプは、一定の数学的規
則、たとえば第4図a,bに示すように、各画素
について、aの4方向およびbの8方向にある画
素を順次交互に選択して順序数の重み付けを行な
う手法により、同図cに例示されるように生成さ
れる。なお、上記した数学的規則は、
“Octagonal Distance”と呼ばれている。
Brain pattern maps are created by following certain mathematical rules, for example, as shown in Figure 4 a and b, for each pixel, pixels in the four directions of a and the eight directions of b are sequentially and alternately selected and weighted using ordinal numbers. By the method of performing this, the image is generated as illustrated in c of the same figure. In addition, the above mathematical rule is
It is called “Octagonal Distance”.

後述される第5図a,bは、文字“A”につい
て生成されたブレインパターンマツプの例を示し
ている。aが定義パターン、bが入力パターンで
ある。
FIGS. 5a and 5b, which will be described later, show examples of brain pattern maps generated for the letter "A". a is a definition pattern, and b is an input pattern.

このブレインパターンマツプでは、白地に黒文
字のパターンの場合、白黒境界部の総ての黒画素
に重み“1”が設定され、該黒画素から遠ざかる
方向に、2、3、4、…のように増大する順序数
の重みが設定される。なお第5図のブレインパタ
ーンマツプ例では、文字“A”の線幅が1画素の
単位幅となつているが、複数の画素幅をもつ太い
線の場合には、線の内側へ向つて、0、−1、−
2、…、のように負方向の重み付けがなされる。
このようなブレインパターンマツプを用いること
により、任意の崩れた手書き文字について、定義
文字からの歪み距離を簡単に求めることができ
る。たとえば重み“1”をもつ黒画素が、手書き
によつて歪んで重み“5”の画素位置に書かれた
場合には、その間の歪み距離を、5−1=4ある
ものと計算する。
In this brain pattern map, in the case of a pattern with black letters on a white background, a weight of "1" is set for all black pixels at the black-and-white boundary, and the weight is set as 2, 3, 4, etc. in the direction away from the black pixel. An increasing ordinal weight is set. In the brain pattern map example shown in Figure 5, the line width of the letter "A" is a unit width of one pixel, but in the case of a thick line with multiple pixel widths, towards the inside of the line, 0, -1, -
2, . . . are weighted in the negative direction.
By using such a brain pattern map, the distortion distance from the defined character can be easily determined for any distorted handwritten character. For example, if a black pixel with a weight of "1" is distorted by handwriting and written at a pixel position with a weight of "5", the distortion distance between them is calculated as 5-1=4.

第3図の歪み量計算部34は、定義パターン記
憶部35に記憶されている予め作成された複数の
定義パターンのブレインパターンマツプ(以後定
義ブレインパターンマツプと呼ぶ)と、ブレイン
パターンマツプ生成部33から出力された入力パ
ターンのブレインパターンマツプ(以後入力ブレ
インパターンマツプと呼ぶ)との間で、上記した
ような歪み距離の計算を行ない、各定義パターン
を歪ませて入力パターンに一致させたとしたとき
の、各定義パターン毎の歪み量を求める。
The distortion amount calculation section 34 in FIG. When calculating the distortion distance as described above between the brain pattern map of the input pattern output from (hereinafter referred to as the input brain pattern map), each defined pattern is distorted to match the input pattern. The amount of distortion for each defined pattern is determined.

次に第5図a,bに示す双方のブレインパター
ンマツプを用いて、歪み量の計算処理方式を説明
する。歪み量を表わす評価関数は、両ブレインパ
ターンマツプの対応する画素同士の間の重み値の
差(dとする)の2乗和で与えられるが、その算
出方法は、定義ブレインパターンマツプの重み
“1”の黒画素から入力ブレインパターンマツプ
の対応画素へ、および入力ブレインパターンマツ
プの重み“1”の黒画素から定義ブレインパター
ンマツプの対応画素への2方向について行なわれ
る。これは双方のパターンの相違点を、評価関数
に強く反映させるためである。たとえば前者の場
合、第5図の矢印Aで示すように、定義ブレイン
パターンマツプaの黒画素は、入力ブレインパ
ターンマツプbのと比較され、同様に後者の場
合、矢印Bで示すように、マツプbの黒画素
は、マツプaのと比較され、以下、双方のマツ
プにおいて、重み“1”をもつ黒画素の総てが、
相互に相手方マツプの対応画素と比較される。
Next, a method for calculating the amount of distortion will be explained using both brain pattern maps shown in FIGS. 5a and 5b. The evaluation function representing the amount of distortion is given by the sum of the squares of the difference (d) in the weight values between corresponding pixels of both brain pattern maps, but its calculation method is based on the weight of the defined brain pattern map. This is performed in two directions: from a black pixel with a weight of "1" in the input brain pattern map to a corresponding pixel in the input brain pattern map, and from a black pixel with a weight of "1" in the input brain pattern map to a corresponding pixel in the defined brain pattern map. This is to strongly reflect the differences between both patterns in the evaluation function. For example, in the former case, the black pixels of the defined brain pattern map a are compared with those of the input brain pattern map b, as shown by arrow A in FIG. The black pixels in map b are compared with those in map a, and below, in both maps, all black pixels with a weight of "1" are
Each map is compared with the corresponding pixel in the other map.

ここで、一般的に定義ブレインパターンマツプ
の画素の重みをdaとし、入力ブレインパターンマ
ツプの対応画素の重みをdbとし、更に定義パター
ンから入力パターンへ向つて算出される歪み量を
d1、そしてその逆方向の入力パターンから定義パ
ターンへ向つて算出される歪み量をd2とする。d1
およびd2は、それぞれパターン中の重み“1”の
総ての黒画素について算出される歪み距離(db
da)あるいは(da−db)の2乗和として次式で与
えられる。
Here, generally, the weight of a pixel in the defined brain pattern map is d a , the weight of the corresponding pixel in the input brain pattern map is d b , and the amount of distortion calculated from the defined pattern to the input pattern is
d 1 , and the amount of distortion calculated from the input pattern in the opposite direction toward the defined pattern is d 2 . d 1
and d 2 are distortion distances (d b
It is given by the following equation as the sum of squares of d a ) or (d a −d b ).

d1=Σ(db−da)2 d2=Σ(da−db)2 この総計D=d1+d2が評価関数であり、歪み量
計算部34は、この評価関数Dにより、各定義パ
ターン毎に、入力パターンに対する歪み量を計算
する。
d 1 =Σ(d b −d a )2 d 2 =Σ(d a −d b )2 This total D=d 1 +d 2 is the evaluation function, and the distortion amount calculation unit 34 uses this evaluation function D. , the amount of distortion for the input pattern is calculated for each defined pattern.

最小値選択部36は、歪み量計算部34が計算
した各定義パターン毎の歪み量の中の最小値を検
出し、当該定義パターンを認識結果として出力す
る。
The minimum value selection unit 36 detects the minimum value among the distortion amounts for each definition pattern calculated by the distortion amount calculation unit 34, and outputs the definition pattern as a recognition result.

以上述べた先行発明方式は、手書き文字のよう
な歪みの大きいパターンの認識にきわめて有効な
ものであり、これまでに実施されたものは良好な
成績を上げている。しかし本方式は、歪み量の計
算を定義パターンと入力パターンとの間で双方向
にマツチングをとつて行なつており、そのため両
パターン間の差異が大きいものでは、歪みの情報
量が増大するので認識精度を高めることができる
が、両パターン間に一致部分が多いものでは、歪
みの情報が重複して計算されることになるため、
各定義パターン毎の歪み量の較差を縮めて曖昧さ
を助長するように作用し、認識精度を低下させる
という欠点をもつていた。
The prior invention method described above is extremely effective in recognizing patterns with large distortions such as handwritten characters, and those that have been implemented so far have achieved good results. However, in this method, the amount of distortion is calculated by performing bidirectional matching between the defined pattern and the input pattern, so if there is a large difference between the two patterns, the amount of distortion information increases. Although recognition accuracy can be improved, if there are many matching parts between both patterns, distortion information will be calculated redundantly.
This method has the disadvantage of reducing the difference in the amount of distortion for each definition pattern, increasing ambiguity, and reducing recognition accuracy.

〔発明の目的および構成〕[Object and structure of the invention]

本発明の目的は、上記先行発明方式の欠点を改
善するため、パターンの歪み量を与える評価関数
を改良し、パターン認識の精度および認識処理効
率の向上を図ることにある。
SUMMARY OF THE INVENTION An object of the present invention is to improve the evaluation function that provides the amount of distortion of a pattern, and to improve the precision of pattern recognition and recognition processing efficiency, in order to improve the drawbacks of the prior invention method.

本発明は、そのための構成としてパターンマツ
チング法により、文字、記号、図形等のパターン
を認識するシステムであつて、複数の定義パター
ンおよび入力パターンのそれぞれについて画素毎
の歪み分布を表わすブレインパターンマツプを作
成する手段と、該ブレインパターンマツプを用い
て各定義パターンと入力パターンとの間の画素毎
の歪み距離を計算し、それに基づき入力パターン
に対する各定義パターンの歪み量を求める手段
と、入力パターンに対して最小の歪み量を与える
一つの定義パターンを選択し、入力パターンに対
応づける手段とをそなえたものにおいて、上記入
力パターンに対する定義パターンの歪み量を各定
義パターン毎に求める手段は、定義パターンから
見た入力パターンの対応画素間の距離計算を双方
のブレインパターンマツプを用いて行なう第1段
階と、該第1段階で距離計算が行なわれた入力パ
ターンの画素を重複しないように排除した残りの
入力パターンの画素について、入力パターンから
見た定義パターンの対応画素間の距離計算を双方
のブレインパターンマツプを用いて行なう第2段
階との二つの実行段階を有することを特徴として
いる。
The present invention is a system for recognizing patterns such as characters, symbols, figures, etc. using a pattern matching method, which uses a brain pattern map that represents the distortion distribution for each pixel for each of a plurality of definition patterns and input patterns. means for calculating the distortion distance for each pixel between each definition pattern and the input pattern using the brain pattern map, and determining the amount of distortion of each definition pattern with respect to the input pattern based on the distortion distance for each pixel between each definition pattern and the input pattern; and a means for selecting one definition pattern that gives a minimum amount of distortion to the input pattern and associating it with the input pattern, the means for determining the amount of distortion of the definition pattern with respect to the input pattern for each definition pattern is The first step is to calculate the distance between corresponding pixels of the input pattern as seen from the pattern using both brain pattern maps, and the pixels of the input pattern for which the distance calculation was performed in the first step are eliminated so as not to overlap. The present invention is characterized by having two execution stages: a second stage in which distances between corresponding pixels of the definition pattern viewed from the input pattern are calculated using both brain pattern maps for the remaining pixels of the input pattern.

〔発明の実施例〕[Embodiments of the invention]

以下に、本発明を実施例にしたがつて説明す
る。
The present invention will be explained below using examples.

本発明は、前述した先行発明方式における定義
パターンと入力パターンとの間の双方マツチング
による歪み量計算において、定義パターンから入
力パターンへ向う方向のマツチングで計算の済ん
でいる入力パターンの対応黒画素を、入力パター
ンから定義パターンへのマツチングの際に計算対
象から外すことにより、パターン間の一致部分が
2重に計算されないようにする。そのため、たと
えば第5図の矢印Aで示すマツチングの場合のよ
うに、定義ブレインパターンマツプa上の重み
の黒画素が、入力ブレインパターンマツプb上の
重みの画素に対応づけられたとき、この重み
の画素が、その基点となる入力パターン中のどの
黒画素の重み、すなわち歪みを表わしているもの
であるかが識別できなければならない。この基点
となつている黒画素を識別することができてはじ
めて、次に逆方向にマツチングをとるときに当該
黒画素を計算から外すことが可能となるのであ
る。
In the distortion amount calculation by double matching between the definition pattern and the input pattern in the prior invention method described above, the present invention calculates the corresponding black pixel of the input pattern that has already been calculated by matching in the direction from the definition pattern to the input pattern. By excluding the input pattern from the calculation target when matching the input pattern to the definition pattern, matching portions between patterns are prevented from being calculated twice. Therefore, as in the case of matching shown by arrow A in FIG. 5, when a black pixel with a weight on the defined brain pattern map a is matched with a pixel with a weight on the input brain pattern map b, It must be possible to identify which black pixel in the input pattern that is the base point of the pixel represents the weight, that is, the distortion. Only when the black pixel serving as the base point can be identified can the black pixel in question be excluded from the calculation when matching is performed in the opposite direction next time.

本発明実施例では、上記したようなブレインパ
ターンマツプ中の各重みについて、その基点黒画
素を表示するため、第8図に例示される黒画素対
応パターンを使用する。なお、第8図については
後述される。
In the embodiment of the present invention, the black pixel correspondence pattern illustrated in FIG. 8 is used to display the base black pixel for each weight in the brain pattern map as described above. Note that FIG. 8 will be described later.

第6図は、本発明方式を実施したパターン認識
システムの概略構成図である。本図において、6
1はパターン入力部、62はパターン規格化部、
63はブレインパターンマツプ生成部、64は黒
画素対応パターン生成部、65はメモリ、66は
歪み量計算部、67は定義パターンライブラリ、
68は最小値選択部であり、これらの基本構成
は、上記した双方向マツチングにおける重複計算
を排除するために設けられた手段を除き、第3図
で説明した先行発明の実施例システムと同じであ
る。
FIG. 6 is a schematic diagram of a pattern recognition system implementing the method of the present invention. In this figure, 6
1 is a pattern input section, 62 is a pattern standardization section,
63 is a brain pattern map generation unit, 64 is a black pixel corresponding pattern generation unit, 65 is a memory, 66 is a distortion amount calculation unit, 67 is a definition pattern library,
68 is a minimum value selection unit, and its basic configuration is the same as the system according to the embodiment of the prior invention described in FIG. be.

黒画素対応パターン生成部64は、ブレインパ
ターンマツプに分布されている各画素の重みが、
どの黒画素を基点にしているかを表わす黒画素対
応パターンを生成する。
The black pixel corresponding pattern generation unit 64 calculates the weight of each pixel distributed in the brain pattern map as follows:
A black pixel correspondence pattern indicating which black pixel is the base point is generated.

メモリ65はパターン認識処理のための作業領
域を提供するとともに、各種の処理プログラム、
すなわち規格化プログラム、ブレインプログラ
ム、黒画素対応プログラム、歪み計算プログラム
などを保持している。メモリ内に設置されている
テーブルおよびテーブルは、入力ブレインパ
ターンマツプを生成するために使用される作業テ
ーブルであり、またテーブルPは入力パターンの
各黒画素を識別するための番号付けテーブル、そ
してテーブルQは黒画素対応パターンを示すテー
ブルである。これらのテーブルを使用する処理に
ついては、後述される。
The memory 65 provides a work area for pattern recognition processing, and also stores various processing programs,
That is, it holds a standardization program, a brain program, a black pixel correspondence program, a distortion calculation program, etc. The tables and tables located in memory are working tables used to generate the input brain pattern map, and table P is a numbering table for identifying each black pixel of the input pattern; Q is a table showing black pixel correspondence patterns. Processing using these tables will be described later.

定義パターンライブラリ67には、各定義パタ
ーン毎のブレインパターンマツプと黒画素対応パ
ターンとが格納されている。
The definition pattern library 67 stores a brain pattern map and a pattern corresponding to black pixels for each definition pattern.

第7図は、本実施例システムの概略的な処理フ
ローを示す。以下に第7図のフローa乃至gにし
たがつて、第6図の実施例システムの動作を説明
する。
FIG. 7 shows a schematic processing flow of the system of this embodiment. The operation of the embodiment system shown in FIG. 6 will be explained below according to flows a to g in FIG. 7.

(a) パターン入力部61は、スキヤナ等で読み取
つた被認識文字、記号、図形を、一単位ずつ切
り出し、パターン規格化部62に供給する。
(a) The pattern input unit 61 cuts out characters, symbols, and figures to be recognized read by a scanner or the like one unit at a time, and supplies the extracted characters to the pattern standardization unit 62.

(b) パターン規格化部62は、切り出された各パ
ターンをN×Mドツトの大きさに規格化し、ブ
レインパターンマツプ生成部63に供給する。
なお、ここで規格化されたパターンは、メモリ
65中に蓄積されている。
(b) The pattern normalization unit 62 normalizes each cut out pattern to a size of N×M dots and supplies it to the brain pattern map generation unit 63.
Note that the standardized patterns here are stored in the memory 65.

(c) ブレインパターンマツプ生成部63は、規格
化された入力パターンの線部分における白黒境
界域にある総ての黒画素の座標をテーブルに
設定し、その重み値Jを“1”にする。次にこ
のテーブルから1画素ずつ取り出して、その
4方向距離にある白画素(“0”の画素)の値
を、重みJ+1(J=1)にし、その座標をテ
ーブルに格納する。この動作を、テーブル
の総ての画素について実行する。次に、テーブ
ルから1画素ずつ取り出して、8方向にある
白画素のみについてその値をJ+1(J=2)
にし、その画素の座標をテーブルに入れる。
これをテーブルの画素がなくなるまで繰り返
す。
(c) The brain pattern map generation unit 63 sets the coordinates of all black pixels in the black and white boundary area in the line portion of the standardized input pattern in a table, and sets the weight value J to "1". Next, one pixel at a time is extracted from this table, the value of a white pixel (pixel of "0") located at the distance in the four directions is given a weight of J+1 (J=1), and its coordinates are stored in the table. This operation is executed for all pixels in the table. Next, take out each pixel from the table and set the value of only white pixels in 8 directions to J + 1 (J = 2)
and enter the coordinates of that pixel in the table.
Repeat this until there are no more pixels on the table.

ブレインパターンマツプ生成部63は、以上
のテーブル、を使用した処理を、必要な回
数だけ交互に実行することにより、各黒画素を
基点として、J=J+1による順序数の重みづ
けを行ない、入力パターンに対するブレインパ
ターンマツプを生成する。
The brain pattern map generation unit 63 alternately executes the process using the above table as many times as necessary, weights the ordinal number by J=J+1 with each black pixel as the base point, and generates the input pattern. Generate a brain pattern map for.

(d) 黒画素対応パターン生成部64は、上記(c)の
処理と平行して、黒画素対応パターンの生成処
理を行なう。そのために、まず境界上の総ての
黒画素、すなわち重み値J=1をもつ画素の座
標に、順番に番号k(k=1、2、3、…)を
振り、テーブルPに格納する。そして(c)での白
画素に対する順次的な重み値Jの付与(J=J
+1)に応じて、当該白画素の座標に、その重
みJの基点となつている黒画素の番号kを振
り、第8図a,bに示すような黒画素対応パタ
ーンを生成して、テーブルQに格納する。
(d) The black pixel corresponding pattern generating section 64 performs a process of generating a black pixel corresponding pattern in parallel with the process of (c) above. To do this, first, numbers k (k=1, 2, 3, . . . ) are sequentially assigned to the coordinates of all black pixels on the boundary, that is, pixels with weight value J=1, and stored in table P. Then, in (c), weight values J are sequentially assigned to white pixels (J=J
+1), assign the number k of the black pixel that is the base point of the weight J to the coordinates of the white pixel, generate the black pixel correspondence pattern as shown in Fig. 8a and b, and create a table. Store in Q.

第8図は第5図に示すブレインパターンマツ
プに対応する黒画素対応パターンを表わし、(a)
は定義パターンライブラリ67に予め格納され
ている定義パターン「A」の黒画素対応パター
ンの1例を示し、(b)は黒画素対応パターン生成
部64で生成された入力パターン「A」に対す
るものの1例を示す。前者では黒画素に1から
29までの番号が振られ、後者では黒画素に1か
ら27までの番号が振られ、それぞれ、第5図
a,bのブレインパターンマツプ上の対応画素
について、その基点となる黒画素の番号を示し
ている。
FIG. 8 shows the black pixel correspondence pattern corresponding to the brain pattern map shown in FIG. 5, and (a)
shows one example of the black pixel correspondence pattern of the definition pattern “A” stored in advance in the definition pattern library 67, and (b) shows one example of the black pixel correspondence pattern for the input pattern “A” generated by the black pixel correspondence pattern generation unit 64. Give an example. In the former, black pixels start from 1.
In the latter case, black pixels are numbered from 1 to 27, and for each corresponding pixel on the brain pattern map shown in Figures 5a and b, the number of the black pixel that is the base point is assigned. It shows.

(e) 歪み量計算部66は、まず第5図の矢印Aで
示されるような、定義パターンから入力パター
ンへのマツチング処理を行なう。その際、第8
図bに示すような入力パターンに対する黒画素
対応パターンを参照して基点黒画素番号を求
め、第9図に示すような計算が行なわれたかど
うかをチエツクするための表を作成する。計算
が行なわれた場合には、上記チエツク表の該当
黒画素番号のチエツクの有無欄に“1”がたて
られる。
(e) The distortion amount calculation unit 66 first performs matching processing from the definition pattern to the input pattern as shown by arrow A in FIG. At that time, the 8th
The base point black pixel number is determined by referring to the black pixel correspondence pattern for the input pattern as shown in FIG. 9, and a table is created to check whether the calculation as shown in FIG. When the calculation has been performed, "1" is set in the check column for the corresponding black pixel number in the check table.

(f) 歪み量計算部66は、次に第5図の矢印Bで
示されるような逆方向マツチング処理を行な
う。このとき、入力パターンの黒画素として、
第9図のチエツク表に“1”がたてられていな
い未チエツクの黒画素番号のもののみを選択し
て、歪み量の計算を行うようにする。この結
果、定義パターンと入力パターンとの間で一致
性の高い、換言すれば歪みの少い画素間では、
双方向マツチングにおいて重複計算がなされる
ことはほとんどなくなり、歪み量に含まれる冗
長な要素を減少させることができる。
(f) The distortion amount calculation section 66 then performs reverse matching processing as shown by arrow B in FIG. At this time, as a black pixel of the input pattern,
Only unchecked black pixel numbers for which "1" is not set in the check table of FIG. 9 are selected to calculate the amount of distortion. As a result, between pixels with a high degree of matching between the definition pattern and the input pattern, in other words, between pixels with little distortion,
Duplicate calculations are almost never performed in bidirectional matching, and redundant elements included in the amount of distortion can be reduced.

(g) 最小値選択部68は、上記(f)により冗長さが
改善された歪み量を各定義パターン間で比較
し、最小値を求めて認識結果とし、出力する。
(g) The minimum value selection unit 68 compares the distortion amount whose redundancy has been improved in the above (f) between each definition pattern, determines the minimum value, and outputs the result as a recognition result.

〔発明の効果〕〔Effect of the invention〕

以上のように、本発明によれば、前記先行発明
方式に較べて、評価関数によるパターン弁別性能
が向上して、エラー率を数分の一にまで小さくす
ることができ、著しい改善効果が得られた。
As described above, according to the present invention, compared to the prior invention method, the pattern discrimination performance by the evaluation function is improved, and the error rate can be reduced to a fraction of that, resulting in a significant improvement effect. It was done.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は従来の一般的なパターン認識方式の概
念図、第2図は先行発明方式の概念図、第3図は
先行発明方式の実施例のブロツク図、第4図a乃
至cはブレインパターンマツプの説明図、第5図
a,bはブレインパターンマツプの例を示す図、
第6図は本発明実施例の構成図、第7図はその処
理フロー図、第8図は黒画素対応パターンの例を
示す図、第9図は重複計算を避けるためのチエツ
ク表の説明図である。 図中、61はパターン入力部、62はパターン
規格化部、63はブレインパターンマツプ生成
部、64は黒画素対応パターン生成部、65はメ
モリ、66は歪み量計算部、67は定義パターン
ライブラリ、68は最小値選択部を表わす。
Figure 1 is a conceptual diagram of a conventional general pattern recognition method, Figure 2 is a conceptual diagram of a prior invention method, Figure 3 is a block diagram of an embodiment of the prior invention method, and Figures 4 a to c are brain patterns. An explanatory diagram of the map, Figures 5a and 5b are diagrams showing examples of brain pattern maps,
FIG. 6 is a configuration diagram of an embodiment of the present invention, FIG. 7 is a processing flow diagram thereof, FIG. 8 is a diagram showing an example of a black pixel correspondence pattern, and FIG. 9 is an explanatory diagram of a check table for avoiding duplicate calculations. It is. In the figure, 61 is a pattern input section, 62 is a pattern standardization section, 63 is a brain pattern map generation section, 64 is a black pixel corresponding pattern generation section, 65 is a memory, 66 is a distortion amount calculation section, 67 is a definition pattern library, 68 represents a minimum value selection section.

Claims (1)

【特許請求の範囲】 1 パターンマツチング法により、文字、記号、
図形等のパターンを認識するシステムであつて、 複数の定義パターンおよび入力パターンのそれ
ぞれについて画素毎の歪み分布を表わすブレイン
パターンマツプを作成する手段と、該ブレインパ
ターンマツプを用いて各定義パターンと入力パタ
ーンとの間の画素毎の歪み距離を計算し、それに
基づき入力パターンに対する各定義パターンの歪
み量を求める手段と、入力パターンに対して最小
の歪み量を与える一つの定義パターンを選択し、
入力パターンに対応づける手段とをそなえたもの
において、 上記入力パターンに対する定義パターンの歪み
量を各定義パターン毎に求める手段は、定義パタ
ーンから見た入力パターンの対応画素間の距離計
算を双方のブレインパターンマツプを用いて行な
う第1段階と、該第1段階で距離計算が行なわれ
た入力パターンの画素を重複しないように一度計
算された対応画素を排除した残りの入力パターン
の画素について、入力パターンから見た定義パタ
ーンの対応画素間の距離計算を双方のブレインパ
ターンマツプを用いて行なう第2段階との二つの
実行段階を有することを特徴とするパターン認識
方式。
[Claims] 1 Characters, symbols,
A system for recognizing patterns such as figures, which includes means for creating a brain pattern map representing the distortion distribution for each pixel for each of a plurality of definition patterns and input patterns, and each definition pattern and input using the brain pattern map. means for calculating the distortion distance for each pixel between the patterns and calculating the distortion amount of each definition pattern with respect to the input pattern based on the distortion distance; and selecting one definition pattern that gives the minimum distortion amount to the input pattern;
The means for determining the amount of distortion of the definition pattern with respect to the input pattern for each definition pattern calculates the distance between the corresponding pixels of the input pattern as seen from the definition pattern using both brains. In the first step, which is performed using a pattern map, the pixels of the input pattern whose distances have been calculated in the first step are removed by eliminating the corresponding pixels that have been calculated once so as not to overlap the pixels of the input pattern. 1. A pattern recognition method comprising two execution steps: a second step in which distances between corresponding pixels of a defined pattern as seen from each other are calculated using both brain pattern maps.
JP57182628A 1982-10-18 1982-10-18 Pattern recognizing system Granted JPS5971584A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP57182628A JPS5971584A (en) 1982-10-18 1982-10-18 Pattern recognizing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP57182628A JPS5971584A (en) 1982-10-18 1982-10-18 Pattern recognizing system

Publications (2)

Publication Number Publication Date
JPS5971584A JPS5971584A (en) 1984-04-23
JPH0143353B2 true JPH0143353B2 (en) 1989-09-20

Family

ID=16121608

Family Applications (1)

Application Number Title Priority Date Filing Date
JP57182628A Granted JPS5971584A (en) 1982-10-18 1982-10-18 Pattern recognizing system

Country Status (1)

Country Link
JP (1) JPS5971584A (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2540404B2 (en) * 1991-12-13 1996-10-02 富士見園芸資材株式会社 Slope greening method using convex net

Also Published As

Publication number Publication date
JPS5971584A (en) 1984-04-23

Similar Documents

Publication Publication Date Title
JP3453134B2 (en) How to determine equivalence of multiple symbol strings
US3959884A (en) Method of classifying fingerprints
US6249604B1 (en) Method for determining boundaries of words in text
CA2077970C (en) Optical word recognition by examination of word shape
EP0085545A2 (en) Pattern recognition apparatus and method for making same
US20120134576A1 (en) Automatic recognition of images
CN105930159A (en) Image-based interface code generation method and system
JPH0420226B2 (en)
Han et al. Off-line cursive handwriting segmentation
CN110688998A (en) Bill identification method and device
JPH0143353B2 (en)
RU2707320C1 (en) Method of recognizing a symbol on a banknote and a coprocessor for a computing system of a banknote processing device
JPS62111369A (en) Symbol recognition system
JP5712415B2 (en) Form processing system and form processing method
JPH0259505B2 (en)
JPS59157776A (en) Pattern recognizing system
JP2965165B2 (en) Pattern recognition method and recognition dictionary creation method
JPH0350692A (en) Character recognizing device
Khater et al. Chessboard recognition system using signature, principal component analysis and color information
JP2891211B2 (en) Optical character reader and method
CN112183538B (en) Manchu recognition method and system
JP3948943B2 (en) Graphic recognition method and apparatus
CN115205865A (en) Method and device for identifying image and electronic equipment
CA1195779A (en) Pattern recognition apparatus and method for making same
JPH0147835B2 (en)