JPH01136287A - Feature extracting system - Google Patents

Feature extracting system

Info

Publication number
JPH01136287A
JPH01136287A JP62294057A JP29405787A JPH01136287A JP H01136287 A JPH01136287 A JP H01136287A JP 62294057 A JP62294057 A JP 62294057A JP 29405787 A JP29405787 A JP 29405787A JP H01136287 A JPH01136287 A JP H01136287A
Authority
JP
Japan
Prior art keywords
character
coordinate
pattern
barycenter
series
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP62294057A
Other languages
Japanese (ja)
Other versions
JPH0646418B2 (en
Inventor
Takahiro Ogawa
小川 隆博
Koji Ito
伊東 晃治
Yoshiyuki Yamashita
山下 義征
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP62294057A priority Critical patent/JPH0646418B2/en
Publication of JPH01136287A publication Critical patent/JPH01136287A/en
Publication of JPH0646418B2 publication Critical patent/JPH0646418B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Character Discrimination (AREA)

Abstract

PURPOSE:To stably and effectively extract a feature by extracting a character frame split point coordinate system from the centroid coordinate of projection on two axes of a character graphic pattern, and extracting the information of a pole which satisfies a prescribed condition. CONSTITUTION:Character graphic pattern information from a photoelectric transfer part 2 is inputted to a character projection generating part 5 via a pattern register 3. The character projection generating part 5 finds the distribution of the number of black bits by projecting an input character graphic pattern to desired two axes, and a centroid detecting part 6 finds the centroid coordinate of the input character graphic pattern. A split coordinate system is decided by a character frame split point decision part 7 based on the centroid coordinate. A pole counter part 10 extracts the information of the pole which satisfies the prescribed condition from an external coordinate representing the outer shape of the character graphic pattern, and the existence of a reference pattern is decided at an identification part 12 by the information of the pole.

Description

【発明の詳細な説明】 (産業上の利用分野) 本発明は、文字認識装置等に適用される特徴抽出方式に
関し、特に微小な違いしか存在しないパタンの差を有効
かつ安定に抽出する特徴抽出方式従来の文字図形の認識
においては、文字図形パタンよりストロークを抽出し、
それら抽出されたストロークの位置、長さ、ストローク
間の相互関係等を用いて認識する方式が多く採用されて
いる。その手法は(1)文字図形の輪郭を追跡すること
により検出された輪郭点系列について曲率を計算し、そ
の曲率の大きな値の点を分割点として輪郭系列を分割し
、分割された系列を組合わせることによりストロークを
抽出するか、(2)文字図形パタンに細線化処理を行な
って骨格化し、その骨格パタンの連結性及び骨格パタン
を追跡し急激な角度の変化点等を検出してストロークを
抽出し、前記(1) (2)より抽出されたストローク
について幾何学的な特徴等を抽出して識別を行なってい
た。
DETAILED DESCRIPTION OF THE INVENTION (Industrial Application Field) The present invention relates to a feature extraction method applied to character recognition devices, etc., and in particular to feature extraction that effectively and stably extracts differences between patterns that have only minute differences. Method In conventional character and figure recognition, strokes are extracted from character and figure patterns,
Many recognition methods are employed that use the positions, lengths, and mutual relationships between strokes of these extracted strokes. The method is (1) Calculate the curvature of the contour point series detected by tracing the contour of the character figure, divide the contour series using points with large values of curvature as dividing points, and assemble the divided series. (2) Extract the strokes by combining them, or (2) perform thinning processing on the character/figure pattern to create a skeleton, trace the connectivity and skeleton pattern of the skeleton pattern, detect sudden angle changes, etc., and extract the strokes. The strokes extracted from (1) and (2) above are identified by extracting their geometric features.

又(3)文字図形パタンの文字矩形枠の夫々の辺から文
字図形パタンまでの距離を求め、前記距離を用いて前記
文字矩形枠の各辺に対応する文字図形パタンの突起部を
抽出し、抽出された突起部の突起部f9を用いて、文字
認識を行なう方式も特開昭60−230282号公報に
より提案されている。
and (3) determining the distance from each side of the character rectangular frame of the character figure pattern to the character figure pattern, and using the distance, extracting the protrusion of the character figure pattern corresponding to each side of the character rectangular frame, Japanese Patent Laid-Open No. 60-230282 proposes a method of character recognition using the extracted protrusion f9.

(発明が解決しようとする問題点) しかしながら(1)の方法は文字図形パタンか大きくな
り、又文字図形パタンか複雑化すると、その処理量が増
大し処理速度の低下を招いていた。
(Problems to be Solved by the Invention) However, in method (1), as the character/graphic pattern becomes larger or more complex, the amount of processing increases and the processing speed decreases.

(2)の方法は文字図形パタンを細線化する必要があり
、又その細線化によるパタンのひすみ、ヒゲ等の問題が
ありその後の処理を複雑なものとしていた。(3)の方
法は人力文字の字形が変形すると抽出される特徴が不安
定となり、特に「水」・「氷」及び「大」・「太」等の
類似文字間ではその影響が顕著である。
In the method (2), it is necessary to thin the character/figure pattern, and the thinning causes problems such as dark spots and whiskers in the pattern, which complicates subsequent processing. In method (3), the extracted features become unstable when the shape of the human characters changes, and this effect is especially noticeable between similar characters such as ``water'', ``ice'', and ``dai'' and ``thick''. .

本発明の目的は、従来の認識方式における輪郭追跡や細
線化等の非富に複雑な処理を行なうことなく、文字図形
パタンの周辺分布に基づいて分割した(MXN)個の夫
々の領域に対して、文字図形パタンの外形を表す外郭座
標系列から、所定の条件を満たす極点についての情報を
抽出することにより、文字の字形の変動に対しても安定
で、特に微小な違いしか存在しないパタンの差を有効に
抽出する特徴抽出方式を提供することにある。
An object of the present invention is to divide each of (MXN) regions based on the peripheral distribution of a character/figure pattern without performing unnecessarily complicated processing such as contour tracing or line thinning in conventional recognition methods. By extracting information about the extreme points that satisfy a predetermined condition from the contour coordinate series representing the contour of a character figure pattern, it is stable even when the character shape changes, especially for patterns with only minute differences. The object of the present invention is to provide a feature extraction method that effectively extracts differences.

(問題点を解決するための手段) 本発明は、媒体上の文字図形を読取って量子化して得ら
れるパタンを原パタンとして記憶するパタンレジスタを
備え、上記原パタンに基づいて文字図形の特徴を抽出す
る特徴抽出方式を対象とし、前記従来技術の問題点を解
決するため、(a)パタンレジスタに記憶された環パタ
ンの外接辺からなる文字矩形枠を検出する手段と、(b
)上記環パタンを所望の2つの軸上に夫々投影して夫々
の黒ビット数分布を求める手段と、(c)まず夫々の軸
上に対して、上記文字矩形枠で限定される範囲で黒ビッ
ト数分布の夫々の重心座標を決定し、次いでそれまでに
検出した夫々の重心座標で上記文字矩形枠で限定される
範囲を分割した夫々の範囲を対象として夫々の前記黒ビ
ット数分布の重心座標を決定する過程を複数回繰返して
人々の重心座標系列を求める手段と、(d)座標値の大
きさの順に付した夫々の重心座標系列における重心座標
番号と座標値の大きさの順に付した夫々の軸上の分割座
標系列における夫々の分割座標番号とをほぼ均等に対応
させて、重心座標系列における1つの重心座標を1つの
分割座標に対応づけて文字矩形枠内を(M×N)個の領
域に分割するための夫々の分割座標を決定する手段と、 (c)上記環パタンの上記文字矩形枠内部を文字矩形枠
の夫々の辺から垂直方向に走査し、背景部から文字部へ
の最初の変化点の座標系列を検出する手段と、 (r)上記変化点座標系列に基づいて、夫々の変化点の
変化量を算出する手段と、 (g)上記変化量に従って、増減の変化する極点を検出
する手段と、 (h)上記(M×N)個の夫々の領域に対して、所定の
条件を満たす上記極点の情報を抽出する丁段を設けたも
のである。
(Means for Solving the Problems) The present invention includes a pattern register that stores a pattern obtained by reading and quantizing character figures on a medium as an original pattern, and calculates the characteristics of the character figure based on the original pattern. In order to solve the problems of the prior art with regard to the feature extraction method, (a) a means for detecting a character rectangular frame consisting of a circumscribed side of a ring pattern stored in a pattern register;
(c) means for first projecting the ring pattern onto two desired axes to obtain each black bit number distribution; Determine the centroid coordinates of each bit number distribution, and then calculate the centroid of each of the black bit number distributions for each range obtained by dividing the range limited by the character rectangular frame using each barycenter coordinate detected so far. (d) Means for obtaining people's barycenter coordinate series by repeating the process of determining coordinates multiple times; The divided coordinate numbers in the divided coordinate series on each axis are made to correspond almost equally, one barycenter coordinate in the barycenter coordinate series is associated with one divided coordinate, and the inside of the character rectangle is (M×N (c) scanning the inside of the character rectangular frame of the ring pattern in the vertical direction from each side of the character rectangular frame, and determining the character rectangular frame from the background part; (r) means for calculating the amount of change of each change point based on the change point coordinate series; (g) increase/decrease according to the amount of change; and (h) means for extracting information on the extreme points that satisfy a predetermined condition for each of the (M×N) areas.

(作用) 本発明によれば、以上のように特徴抽出方式を構成した
ので各技術手段は次のように作用する。
(Operation) According to the present invention, since the feature extraction method is configured as described above, each technical means operates as follows.

(a)の手段は、パタンレジスタに格納された環パタン
を走査することによって、文字図形の外接枠である文字
矩形枠を検出し、(c)及び(e)の各手段に出力する
。(b)の手段は、環パタンから、所望の2つの軸の各
方向(例えばX軸、Y軸方向)の黒ビット数分布を作成
し、(c)の手段に出力する。(c)の手段は、(a)
の手段からの文字矩形枠及び(b)の手段からの各黒ビ
ット数分布を受け、上記所望の2軸に対して周辺分布に
基づいた環パタンの重心分割座標を検出し、(d)の手
段に出力する。(d)の手段は、環パタンの文字矩形枠
内部を(c)の手段からの重心分割座標によって(M×
N)個の領域に分割してその分割点座標を(h)の手段
に出力する。(e)の手段は環パタンの文字矩形枠の上
辺・下辺・左辺・右辺の4辺の夫々の辺から垂直方向に
走査したときの最初の変化点の座標を上記辺の全範囲に
わたって検出することにより変化点座標系列を作成し、
([)の手段に出力する。(f)の手段は、(e)の手
段からの変化点座標系列に基づいて夫々の変化点の変化
量を算出し、(g)の1段に出力する。(g)の手段は
、(f)の1段からの変化量を基に、増減が変化する極
点を検出し、(h)の手段に出力する。(h)の手段は
、(d)の手段からの分割点座標及び(g)の手段から
の極点情報を受け、上記(M×N)個の夫々の領域に対
して、所定の条件を満たす極点を抽出し、これを文字図
形認識のための特徴として供する。したがって、微小な
違いしか存在しないパタンの差を有効かつ安定に抽出で
きるようになり、萌記従来技術の問題点が解決される。
The means (a) detects a character rectangular frame which is a circumscribing frame of a character graphic by scanning the ring pattern stored in the pattern register, and outputs it to each means (c) and (e). The means (b) creates a black bit number distribution in each direction of two desired axes (for example, the X-axis and Y-axis directions) from the ring pattern, and outputs it to the means (c). (c) means (a)
Receiving the character rectangular frame from the means of (b) and each black bit number distribution from the means of (b), detect the barycenter division coordinates of the ring pattern based on the marginal distribution with respect to the desired two axes, and Output to means. The means (d) uses (M
The area is divided into N) areas and the coordinates of the dividing points are output to the means (h). The means (e) detects the coordinates of the first change point when scanning in the vertical direction from each of the four sides of the character rectangular frame of the ring pattern, the top, bottom, left, and right sides, over the entire range of the above sides. Create a change point coordinate series by
Output to means of ([). The means (f) calculates the amount of change of each change point based on the change point coordinate series from the means (e), and outputs it to the first stage of (g). The means (g) detects the extreme point at which the increase/decrease changes based on the amount of change from the first stage (f), and outputs it to the means (h). The means (h) receives the dividing point coordinates from the means (d) and the pole information from the means (g), and satisfies a predetermined condition for each of the (M×N) regions. The extreme points are extracted and used as features for character/figure recognition. Therefore, it becomes possible to effectively and stably extract differences between patterns in which there are only minute differences, and the problems of the Moeki prior art are solved.

(実施例) 以下本発明の実施例につき図面を参照して詳細に説明す
る。
(Example) Examples of the present invention will be described in detail below with reference to the drawings.

第1図は本発明の特徴抽出方式が適用される文字認識装
置の構成を示すブロック図である。
FIG. 1 is a block diagram showing the configuration of a character recognition device to which the feature extraction method of the present invention is applied.

第1図において、1は帳票からの光入力、14は本実施
例の文字認識装置の文字名出力である。
In FIG. 1, 1 is an optical input from a form, and 14 is a character name output of the character recognition device of this embodiment.

この文字認識装置は光電変換部2、パタンレジスタ3、
文字枠検出部4、文字投影作成部5、重心検出部6、文
字枠分割点決定部7、外郭座標系列検出部8、極点座標
系列検出部9、極点計数部10、極点計数領域テーブル
11.識別部12及び辞書メモリ13から構成される。
This character recognition device includes a photoelectric conversion section 2, a pattern register 3,
Character frame detection section 4, character projection creation section 5, center of gravity detection section 6, character frame division point determination section 7, outer coordinate series detection section 8, polar point coordinate series detection section 9, polar point counting section 10, polar point counting area table 11. It is composed of an identification section 12 and a dictionary memory 13.

光入力1は光電変換部2に入力される。光電変換部2は
1つの文字予定領域を128X12Bの画素へ分解し、
各画素を2値のディジタル信号(以下これを入力文字パ
タンと呼ぶ)へ変換するものであり、平均的大きさの1
文字は60x60ビット程度の入力文字パタンで表現さ
れる。パタンレジスタ3は文字予定領域における各画素
のX、Y座標を再現できる形式で入力文字パタンを記憶
するものであり、文字予定領域に対応して128X12
Bビットの容量を有するものである。
Optical input 1 is input to photoelectric conversion section 2 . The photoelectric conversion unit 2 decomposes one character planned area into 128×12B pixels,
It converts each pixel into a binary digital signal (hereinafter referred to as an input character pattern), and the average size of 1
Characters are expressed by an input character pattern of about 60x60 bits. The pattern register 3 stores input character patterns in a format that can reproduce the X and Y coordinates of each pixel in the character expected area.
It has a capacity of B bits.

文字枠検出部4は本実施例では文字の外接枠をそのパタ
ンレジスタ3における左端座標XI、右端座標xr、上
端座標Yt、下端座標Ybで表現して検出するものであ
る。
In this embodiment, the character frame detection section 4 detects the circumscribed frame of a character by expressing it in the left end coordinate XI, right end coordinate xr, upper end coordinate Yt, and lower end coordinate Yb in the pattern register 3.

文字投影作成部5はパタンレジスタ3の人力文字パタン
を所望の2つの軸、本実施例ではX軸、Yll’dl(
夫々パタンレジスタ3の2次元座標における水γ方向、
重置方向)へ投影して黒ビット数の分布を求め、黒ビッ
ト数分布S X (x) 、 S Y (y)を作成す
る。この黒ビット数分布5X(x)、5Y(y)は次式
で表される。
The character projection creation unit 5 converts the human character pattern in the pattern register 3 into two desired axes, in this embodiment, the X axis and Yll'dl (
the water γ direction in the two-dimensional coordinates of the pattern register 3, respectively;
The distribution of the number of black bits is obtained by projecting it in the superimposition direction), and the distribution of the number of black bits S X (x) and S Y (y) is created. The black bit number distributions 5X(x) and 5Y(y) are expressed by the following equations.

但し、x、yはパタンレジスタ3における夫々θ〜12
7なる2次元座標であり、Yt、Ybは文字枠のY軸方
向の上端座標、下端座標、xl。
However, x and y are respectively θ~12 in the pattern register 3.
7, where Yt and Yb are the upper and lower coordinates of the character frame in the Y-axis direction, and xl.

X、はX軸方向の左端座標、右端座標であり、P(x、
y)は黒ビット又は白ビットを意味し、黒ビット(有意
色)の場合P(x、y)=1、自ビット(背景色)の場
合P (x、y)=0をとる。
X is the leftmost coordinate and rightmost coordinate in the X-axis direction, and P(x,
y) means a black bit or a white bit; in the case of a black bit (significant color), P (x, y) = 1, and in the case of the own bit (background color), P (x, y) = 0.

第2図は(b) 、 (c)に漢字「水」と「氷」夫々
の人力文字パタン(第2図(a))に対する黒ビット数
分布5X(x)、5Y(y)を示す。
In FIG. 2, (b) and (c) show the black bit number distributions 5X(x) and 5Y(y) for the human character patterns (FIG. 2(a)) for the kanji characters "water" and "ice", respectively.

重心検出部6は、文字枠のX、Y各軸方向の全範囲X、
〜X、、Yt−Yb及び前の過程で検出した重心座標で
その範囲x1〜X、、Yt〜Yゎを分割した各範囲を対
象として、人力文字パタンの夫々の黒ビット数分布S 
X (x) 、 S Y (y)の重心座標系列X (
MP)、 Y (M9)を求めるものであり、各範囲の
1次モーメントの和をその範囲の黒ビット和で除算する
ことによって求めるものである。但し、Mp、Mqは座
標値の大きさの順に付した重心座標番号であり、Mp=
1〜MX(MXはX軸方向の重心の個数)、Mq=1〜
MY (MYはY軸方向の重心の個数)である。X軸方
向の重心座標の個数MXとしては、15個程度の比較的
多い数(分割数に比べて)を採用することが望ましいが
、ここでは説明の簡略化のために7個の重心座標X(M
P)を検出する場合について述べる。まず、文字枠のX
軸方向の範囲x1〜Xrを対象として、(3)式に示す
ように人力文字パタンの黒ビット数分布S X (x)
の1次モーメント和をその範囲の黒ビット和で除算する
ことによって、中央の重心座標番号が4の重心座標x(
4)を求める。
The center of gravity detection unit 6 detects the entire range X of the character frame in the X and Y axis directions,
For each range obtained by dividing the range x1 to X,,Yt to Yゎ by ~X,,Yt-Yb and the center of gravity coordinates detected in the previous process, the black bit number distribution S of each human character pattern is calculated.
The barycentric coordinate series X (
MP), Y (M9) is calculated by dividing the sum of the first moments of each range by the sum of black bits of that range. However, Mp and Mq are the barycenter coordinate numbers assigned in order of the size of the coordinate values, and Mp=
1~MX (MX is the number of centers of gravity in the X-axis direction), Mq=1~
MY (MY is the number of centers of gravity in the Y-axis direction). It is desirable to adopt a relatively large number (compared to the number of divisions) of about 15 as the number of barycenter coordinates MX in the (M
The case of detecting P) will be described. First, the X in the text frame
Targeting the range x1 to Xr in the axial direction, the distribution of the number of black bits in the human character pattern S
By dividing the sum of the first moments of by the sum of black bits in that range, the center of gravity coordinate x (
Find 4).

次いで、その重心座標x(4)で分割された夫々の範囲
、xI〜x(4)、x(4)〜X、、を対象として2つ
の重心座標X (2) 、 X (6)を(4)式によ
り求める。
Next, the two barycenter coordinates X (2) and 4) Calculate using the formula.

次いで、これまで検出された重心座標X(2)、X(4
) 、 X(6) テ分割された範囲X、 −X(2)
 、 X(2) 〜X(4) 、 X(4) 〜X(6
) 、 X(6) 〜X、 f、を対象として4個の重
心座標X(1) 、 X(3) 、 X(5) 、 X
 (7)を(5)式により求める。
Next, the centroid coordinates X(2), X(4) detected so far are
), X(6) Te divided range X, -X(2)
, X(2) ~X(4) , X(4) ~X(6
), X(6) ~X, f, and the four centroid coordinates X(1), X(3), X(5), X
(7) is obtained using equation (5).

Y軸方向の重心座標Y (M9)の検出も、検出する重
心座標個数MYを7個とした場合、まず、文字枠の範囲
Yt−Ybを対象として入力文字パタンの黒ビット分布
S Y (y)の重心座標Y(4)を検出し、次いで文
字枠を重心座標で2分した範囲Yt−Y (4) 、 
Y (4)〜Y、それぞれを対象として黒ビット分布S
 Y (y)の重心座標Y (2) 、 Y(4)を検
出し、更にこれまでに検出された重心座標Y(2) 、
 Y(4) 、 Y(6)でY軸方向の文字枠を分割し
た夫々の範囲Yt〜Y (2) 、 Y (2)NY(
4) 、 Y (4)NY (6) 、 Y (6)N
Ybを対象として黒ビット分布S Y (y)の重心座
標Y(1)、Y(3) 、 Y (5) 、 Y (7
)を検出することによって、計7個の重心座標Y (1
)NY(7)を検出する。
To detect the barycenter coordinate Y (M9) in the Y-axis direction, if the number of barycenter coordinates MY to be detected is 7, first, the black bit distribution S Y (y ) is detected, and then the character frame is divided into two by the barycenter coordinates Yt-Y (4),
Black bit distribution S for each of Y (4) to Y
Detect the center of gravity coordinates Y (2) and Y (4) of Y (y), and further detect the center of gravity coordinates Y (2) and Y (4) detected so far.
The respective ranges Yt~Y(2), Y(2)NY(
4), Y (4)NY (6), Y (6)N
The barycenter coordinates Y(1), Y(3), Y(5), Y(7) of the black bit distribution S Y(y) for Yb are
), a total of seven barycentric coordinates Y (1
)NY(7) is detected.

第2図(b) 、 (c)に漢字「水」と「氷」夫々の
人力文字パタン(第2図(a))に対する重心座標X(
1) 〜X (7) 、 Y (1) NY (7)が
黒ビット数分布ともに例示されている。
Figure 2 (b) and (c) show the centroid coordinates X (
1) ~X (7) and Y (1) NY (7) are both illustrated as black bit number distributions.

文字枠分割点決定部7は、重心検出部6よりうけたX、
Y軸外方向の重心座標系列X(MP)。
The character frame division point determining unit 7 receives the X,
Center of gravity coordinate series X (MP) in the direction outside the Y-axis.

Y(Mq)を分割座標系列として、重心座標番号Mp9
Mqを人力文字パタンの文字枠をNX、NYなる個数の
分割単位領域に分割する分割座標番号に、、kJにほぼ
均等に対応づけて分割座標系列DX (k、) 、 D
Y (k、)を決定するものである。
With Y(Mq) as the divided coordinate series, barycenter coordinate number Mp9
The division coordinate series DX (k,), D is created by associating Mq almost equally with the division coordinate numbers for dividing the character frame of the human character pattern into NX, NY division unit areas, , kJ.
Y (k,) is determined.

この実施例における分割単位領域の分割形式は、X軸方
向に関する分割数としてNX=4゜5.6.8なる4形
式を取ることができ、Y軸方向に関する分割数NYとし
てNY=4.5,6゜8なる4形式を取ることができ、
X軸方向の分割座標番号をに、(k、=1〜NX−1,
NX=4゜5.6.8)とし且つY軸方向の分割座標番
号をkJ(kJ=1〜NY−1,NY=4.5,6゜8
)として、文字枠をNX、NYなる個数の分割単位領域
に分割する分割座標系列DX(k、)、DY(kj)を
決定する。X、Y軸各方向の重心座標番号MP、Mqと
X、Y軸方向の分割座標番号に、、k。
In this embodiment, the division unit area can be divided into four formats, NX=4°5.6.8 as the number of divisions in the X-axis direction, and NY=4.5 as the number of divisions in the Y-axis direction. ,6゜8 can be taken,
The division coordinate number in the X-axis direction is (k, = 1 ~ NX-1,
NX = 4゜5.6.8), and the division coordinate number in the Y-axis direction is kJ (kJ = 1 to NY-1, NY = 4.5, 6゜8).
), the division coordinate series DX (k, ), DY (kj) for dividing the character frame into NX, NY division unit areas are determined. The center of gravity coordinate numbers MP and Mq in each direction of the X and Y axes and the divided coordinate numbers in the X and Y axes directions are, k.

をほぼ均等に対応づけて分割座標系列D X (k、)
The divided coordinate series D
.

D Y (k、)を決定するために、表1に示す如きテ
ーブルが用意されていて、X、Y軸各方向の分割数NN
、NYに対応してこのテーブルから重心座標番号MP、
Mqを読み出し、その重心座標番号MP9Mqに対応し
た重心座標X (M、)、 Y(Mq)を分割座標D 
X (ki)、 D Y (kJ)として決定する。
In order to determine D Y (k,), a table as shown in Table 1 is prepared, and the number of divisions NN in each direction of the X and Y axes is
, NY from this table, the barycenter coordinate number MP,
Read Mq and divide the center of gravity coordinates X (M,), Y (Mq) corresponding to the center of gravity coordinate number MP9Mq into the coordinates D
Determine as X (ki) and D Y (kJ).

表   1 このテーブルは、重心検出部6で検出する重心座標の個
数MX、MYが7個の場合であるが、−数的な場合にお
いても、X、Y軸各方向の分割数の重心座標が含まれる
ように対応させ、且つその際余分の重心座標が残った場
合は両端の領域から順に1個多い重心座標が含まれるよ
うに対応させることによって作ることができる。
Table 1 This table is for the case where the number of barycenter coordinates MX and MY detected by the barycenter detection unit 6 is 7, but even in the negative case, the barycenter coordinates of the number of divisions in each direction of the X and Y axes are If extra barycenter coordinates remain at that time, it can be created by making correspondence so that one more barycenter coordinate is included starting from both end regions.

第3図には、X、Y軸各方向の分割数NX、NYとして
NX=NY=5なる分割数が指定された場合ニツイテ、
分割座標系列D X (k、)、 D Y (k、)と
4[心座標系列X(Mp)、Y(Mq)との対応関係を
示し、また、それらの分割座標系列DX(ki)、 D
 Y (kJ) テ設定すレル分割tB位領域(kl。
Figure 3 shows that when the number of divisions NX and NY in each direction of the X and Y axes is specified as NX=NY=5,
The following shows the correspondence between the divided coordinate series D X (k,), D Y (k,) and the 4[heart coordinate series X (Mp), Y (Mq), and also shows the correspondence between the divided coordinate series DX (ki), D
Y (kJ) TE setting area of tB area (kl.

kJ)を示している。kJ).

なお、分割数NX、NYは人力文字の複雑度に応じて決
定する。又、−旦リジエクトされた場合には分割数NX
、NYを変更して再度文字認識を行なわせる。
Note that the numbers of divisions NX and NY are determined depending on the complexity of the human characters. Also, if -1 is rejected, the number of divisions is NX.
, NY and perform character recognition again.

以上の様に文字枠分割点決定部7において、分割単位領
域の分割形式は、X軸方向に関する分割数としてNX=
4.5,6.8なる4形式、Y軸方向に関する分割数と
してNY=4.5,6.’8なる4形式をとることがで
きる。本実施例では説明の簡略化のため、分割数をNX
=NY=8として以下説明する。この場合、X軸方向に
おいては、重心座標X(1) 、 X(2) 、 X(
3) 、 X(4) 。
As described above, in the character frame division point determining section 7, the division format of the division unit area is NX=
4 formats, 4.5, 6.8, and the number of divisions in the Y-axis direction: NY=4.5, 6. '8 can take four forms. In this example, to simplify the explanation, the number of divisions is NX
The following description will be made assuming that =NY=8. In this case, in the X-axis direction, the center of gravity coordinates X(1), X(2), X(
3), X(4).

X(5) 、 X(6) 、 X(7) !、:対応す
る分割座標DX(1)、DX(2)、DX(3)、DX
(4)、DX(5)。
X(5), X(6), X(7)! ,: Corresponding division coordinates DX(1), DX(2), DX(3), DX
(4), DX (5).

DX(6)、DX(7) 、Y軸方向におイテは、重心
座標Y(1) 、 Y(2) 、 Y(3) 、 Y(
4) 、 Y(5) 。
In the DX(6), DX(7), and Y-axis directions, the center of gravity coordinates are Y(1), Y(2), Y(3), Y(
4), Y(5).

Y (6) 、 Y (7)に対応する分割座標DY(
1)、DY(2)、DY(:l)、DY(4)、DY(
5)、DY(6) 、 D Y (7)を決定する。
The division coordinates DY (
1), DY(2), DY(:l), DY(4), DY(
5), DY(6), and DY(7) are determined.

なお、本実施例においてはテーブルを採用することによ
って重心座標と分割座標とを対応づけたが、第4図に示
すフローチャートの演算処理を実行させることによって
も両者を対応づけることができる。なお、第4図におけ
る除算の結果はすべて小数点以下切り捨てである。
In this embodiment, the center of gravity coordinates and the divided coordinates are associated with each other by employing a table, but they can also be associated with each other by executing the arithmetic processing shown in the flowchart shown in FIG. Note that all division results in FIG. 4 are rounded down to the decimal point.

第4図において、ステップS1で重心個数MXを分割数
NXで割った数Mctを求め、ステップS2.S3でM
 X/N Xの剰余R,とそのR1を2で割ったR2を
求める。又、ステップS4で分割数の中央値に、を求め
、ステップ35.S6で分割番号に、と重心番号MPを
0にセットする。又、ステップS7.S8.S9で、分
割番号に1を1つ増加する毎に、前に設定されている商
R2を1つ乗じ、1n心番号MPをMCtずつ増加させ
る。ステップSIOで商R2が負でないことを調べ、商
R2が負でない限りステップSllで重心番号の数を1
つ増し、ステップ12でその重心番号MPを分割番号に
、に対応づけ、分割座標DX(Mp)を決定する。商R
2が負の場合、ステップS13で現在の分割番号に1が
中央値に、より大きいか否かを判定し、大きい場合は重
心番号を1つ増し、小さい場合はステップS9で設定さ
れた重心番号により、分割座標DX(Mp)を決定し、
ステップS14で分割番号に、が(NX−1)に一致し
たことを検出して終了する。
In FIG. 4, in step S1, the number Mct is obtained by dividing the number of centroids MX by the number of divisions NX, and in step S2. M in S3
Find the remainder R of X/N X and R2 by dividing R1 by 2. Also, in step S4, the median value of the number of divisions is determined, and in step 35. In S6, the division number and center of gravity number MP are set to 0. Also, step S7. S8. In S9, each time the division number is incremented by 1, the previously set quotient R2 is multiplied by 1, and the 1n core number MP is increased by MCt. It is checked in step SIO that the quotient R2 is not negative, and unless the quotient R2 is negative, the number of centroid numbers is set to 1 in step Sll.
Then, in step 12, the center of gravity number MP is associated with the division number, and division coordinates DX(Mp) are determined. quotient R
If 2 is negative, in step S13 it is determined whether the current division number is larger than the median value, and if it is larger, the centroid number is increased by one, and if it is smaller, the centroid number set in step S9 is determined. Determine the division coordinate DX (Mp) by
In step S14, it is detected that the division number matches (NX-1), and the process ends.

外郭座標系列検出部8は、上記文字枠の内部を対象とし
、文字枠の上辺・下辺・左辺・右辺の4辺夫々の全範囲
に対して、辺に垂直な方向に走査して最初の黒点の座標
を検出し、外郭座標系列GT(X)、GB(X)、at
、(y)、GR(y)を作成する。但し、x、yはパタ
ンレジスタ3における夫々θ〜127なる2次元座標で
あり、GTは上辺に対して上記処理により求めたX座標
を格納し、GBは下辺に対して上記処理により求めたX
座標を格納し、GLは左辺に対して上記処理により求め
たX座標を格納し、GRは右辺に対して上記処理により
求めたX座標を格納する。
The outer coordinate series detection unit 8 targets the inside of the character frame, and scans the entire range of each of the four sides of the character frame, the top, bottom, left, and right sides, in a direction perpendicular to the sides, and detects the first black point. Detect the coordinates of the outer coordinate series GT(X), GB(X), at
, (y), and GR(y) are created. However, x and y are two-dimensional coordinates of θ to 127 in the pattern register 3, GT stores the X coordinate obtained by the above processing for the upper side, and GB stores the X coordinate obtained by the above processing for the lower side.
GL stores the X coordinate obtained by the above processing for the left side, and GR stores the X coordinate obtained by the above processing for the right side.

第5図に漢字「水」の人力文字パタンに対する上辺から
の外郭座標系列、第8図に漢字「氷」の人力文字パタン
に対する上辺からの外郭座標系列の値を夫々示す。
FIG. 5 shows the outer coordinate series from the top side for the human-powered character pattern for the kanji "water," and FIG. 8 shows the values of the outer coordinate series from the top side for the human-powered character pattern for the kanji "ice."

極点座標系列検出部9は、外郭座標系列検出部8で検出
した外郭座標系列において範囲X、〜X、、Yt−Y、
を対象とし、夫、々の外郭座標系列に対する増減を(6
)弐〜(9)式を用いて調べ、式の値が零となる点は無
視して、増減の変化する極点の座標の系列 (TX(r++)、TY(n+) ) 、(BX(n2
)、BY(n2) ) 。
The polar point coordinate sequence detection section 9 detects the range X, ~X, , Yt-Y, in the outer coordinate series detected by the outer coordinate series detection section 8.
, and the increase/decrease to the outer coordinate series of each husband is (6
)2~(9), ignore the points where the value of the formula is zero, and find the series of coordinates of the poles that change in increase or decrease (TX(r++), TY(n+)), (BX(n2)
), BY(n2) ).

(LX (na) 、l、Y(n3) ) 、  (R
X(nJjlY(n4) )を検出する。
(LX (na), l, Y(n3)), (R
Detect X(nJjlY(n4)).

dGT(x)−GT(xtI)−GT(x)  XI≦
 x< x、  ・・・(6)dGl)(x)−GII
(xt1)−GII(x)  XI≦ x<xr・・・
(7)dcL(y)=GL(y+1)−GL(y)  
yt≦ V< yb  ・・・(8)dGR(y)=C
H(y+1)−GR(V)  yt≦ y< yb  
”・(9)但し、始点(xt、GT(xt)) 、(x
t、GB(xt)) 、 (GL(yt) 。
dGT(x)-GT(xtI)-GT(x) XI≦
x< x, ...(6)dGl)(x)-GII
(xt1)-GII(x) XI≦ x<xr...
(7) dcL(y)=GL(y+1)−GL(y)
yt≦V<yb...(8) dGR(y)=C
H(y+1)-GR(V) yt≦y<yb
”・(9) However, starting point (xt, GT(xt)), (x
t, GB(xt)), (GL(yt).

yt)、(Gll(yt)、yJ &び終点(xr、 
G’r (xr) ) 、・(Xr、GB(xr))、
(GL(yb) 、yb)、(Gll(yb)、yb)
は、無条件に極点とする。ここでn + +  2 +
  n、、 l  n4は夫々の外郭座標系列に対する
極点の座標番号で、 1≦n1≦Tn、  1 ≦02
≦Iln、 1 ≦n3≦Ln、  l ≦n4≦Rn
であり、Tnは上辺に対する外郭座標系列GTにおける
極点の総数であり、Bnは下辺に対する外郭座標系列G
Bにおける極点の総数であり、Lnは左辺に対する外郭
座標系列GLにおける極点の総数であり、Rnは右辺に
対する外郭座標系列GRにおける極点の総数である。ま
た(TX(n+)。
yt), (Gll(yt), yJ & end point (xr,
G'r (xr) ) , (Xr, GB(xr)),
(GL(yb), yb), (Gll(yb), yb)
is unconditionally the extreme point. Here n + + 2 +
n,, l n4 is the coordinate number of the pole for each outer coordinate series, 1≦n1≦Tn, 1≦02
≦Iln, 1≦n3≦Ln, l≦n4≦Rn
, Tn is the total number of poles in the outer coordinate series GT for the upper side, and Bn is the outer coordinate series G for the lower side.
Ln is the total number of poles in the contour coordinate series GL for the left side, and Rn is the total number of poles in the contour coordinate series GR for the right side. Also (TX(n+).

vv(n+))は上辺に対する外郭座標系列GTにおけ
る極点座標系列であり、(ax(n2) 、BY(n2
))は下辺に対する外郭座標系列GBにおける極点座標
系列であり、(Lx (n3) 、LY (n3))は
左辺に対する外郭座標系列GLにおける極点座標系列で
あり、(RX (n4)、 RY (n4))は右辺に
対する外郭座標系列GRにおける極点座標系列である。
vv(n+)) is the pole coordinate series in the outer coordinate series GT for the upper side, (ax(n2), BY(n2
)) is the polar point coordinate series in the outer coordinate series GB for the lower side, (Lx (n3), LY (n3)) is the polar point coordinate series in the outer coordinate series GL for the left side, (RX (n4), RY (n4) )) is a pole coordinate series in the outer coordinate series GR for the right side.

第6図に漢字「水」の人力文字パタンに対する上辺から
の極点座標系列、第9図に漢字「氷」の人力文字パタン
に対する上辺からの極点座標系列の例を夫々示す。
FIG. 6 shows an example of the polar point coordinate series from the top side for the human-powered character pattern for the kanji character "water," and FIG. 9 shows an example of the polar point coordinate series from the top side for the human-powered character pattern for the kanji character "ice."

極点計数部10は、対象極点座標系列(PTX(pn+
) 、PTY(pn+)) 、(PBX(pn2) 、
PBY(pn2)) 、 (PLX(pna) ) 、
 FLY (pn3)) 、 (PRX (pn4) 
、 PRY (pn4) )の種別SEと、前記極点座
標系列を抽出する際の基準辺における対象領域の始点分
割点番号Sと終点分割点番号Eと、前記基準辺と垂直な
方向における対象領域の領域端分割点番号りとを極点計
数領域テーブル11から参照し、前記種別SEによって
定まる極点座標系列に対して、前記基準辺の始点分割点
番号Sに対する分割点及び首記基準辺の終点分割点番号
Eに対する分割点と前記基準辺及び前記領域端分割点番
号りに対する分割点によって囲まれる領域を対象として
、前記基準辺に向かう方向を正とした時に極大点及び極
小点となる極点を夫々極大点個数n5aax(j)及び
極小点個数n、、、。(i)として計数する。
The polar point counting unit 10 calculates the target polar point coordinate series (PTX(pn+
), PTY(pn+)), (PBX(pn2),
PBY(pn2)), (PLX(pna)),
FLY (pn3)), (PRX (pn4)
. Referring to the area end dividing point number from the pole counting area table 11, the dividing point for the starting point dividing point number S of the reference side and the ending dividing point of the first reference side are determined for the polar point coordinate series determined by the type SE. Targeting the area surrounded by the division point for number E, the reference side, and the division point for the area end division point number, maximize the local maximum and minimum points, respectively, when the direction toward the reference side is positive. The number of points n5aax(j) and the number of minimum points n, . Count as (i).

但し、本実施例において種別SEは、5E=1で上辺を
基準辺とする極点座標系列を示し、5E=2で下辺を基
準辺とする極点座標系列を示し、5E=3で左辺を基準
辺とする極点座標系列を示し、5E=4で右辺を基準辺
とする極点座標系列を示すこととした。またiは極点計
数領域テーブル11における種別SE・始点分割点番号
S・終点分割点番号E−領域端分割点番号りを1組とし
たときの夫々の組の番号を表し、 l≦i≦ルaxとし
、i□8は、極点計数領域テーブル11における総組数
である。S、E、Dは、零でxlもしくはYLを示し、
NX+1もしくはNY+1でxrもしくはYbを示す。
However, in this example, the type SE is 5E=1 indicating a polar point coordinate series with the upper side as the reference edge, 5E=2 indicating a polar point coordinate series with the lower edge as the reference edge, and 5E=3 indicating the left side as the reference edge. We have decided to show the polar point coordinate series where 5E=4 and the right side is the reference side. In addition, i represents the number of each set when type SE, starting point dividing point number S, ending point dividing point number E - area end dividing point number are set as one set in the pole counting area table 11, and l≦i≦ru. ax, and i□8 is the total number of pairs in the pole counting area table 11. S, E, D are zero and indicate xl or YL,
NX+1 or NY+1 indicates xr or Yb.

第7図に第6図に対応した漢字「水」の上辺からの極大
点及び極小点とS、E、Dに対する極点計数領域、第1
0図に第9図に対応した漢字「氷」の上辺からの極大点
及び極小点とS、E。
Figure 7 shows the maximum and minimum points from the upper side of the kanji character "water" corresponding to Figure 6, and the maximum point counting area for S, E, and D, and the first
Figure 0 shows the maximum and minimum points S and E from the upper side of the kanji character "ice" corresponding to Figure 9.

Dに対する極点計数領域を夫々示す。The pole counting regions for D are shown respectively.

識別部12は、極点計数部10で計数した夫々の対象領
域に対する極大点個数と極小点個数が、辞書メモリ13
に格納されているあらかじめ用意された標準パタンの夫
々の領域に対する極大点個数範囲及び極小点個数範囲の
夫々の範囲内に存在するかどうかの判定を下し、すべて
の判定において範囲内に存在すると判定された標準パタ
ンの文字名を文字名出力14に出力する。
The identification unit 12 stores the number of local maximum points and the number of local minimum points for each target area counted by the local point counting unit 10 in a dictionary memory 13.
It is determined whether the standard pattern exists within the maximum point number range and the minimum point number range for each area of the standard pattern prepared in advance stored in , and if it exists within the range in all judgments. The character name of the determined standard pattern is output to the character name output 14.

ここで、本発明の特徴抽出方式の特徴情報の1種である
極大点の個数及び極小点の個数に関する有効性を以下に
示す。
Here, the effectiveness of the feature extraction method of the present invention regarding the number of maximum points and the number of minimum points, which are one type of feature information, will be shown below.

例えば、漢字「水」と漢字「氷」において、左上の点の
存在有無を上辺より検出する場合に、右の2木のストロ
ークの変動が特徴値に悪影響を与える。そこで、極点計
数領域の横、方向の右側範囲を周辺分布に基づいた分割
点により制限して、上記悪影響を取り除くことができる
。また上下方向に対しても極点計数領域を制限すること
により極点計数領域外の、切れ、かすれ等の影習も除く
ことができ、より安定な特徴値を得ることができる。
For example, when detecting the presence or absence of the upper left point of the kanji ``water'' and the kanji ``ice'' from the upper side, fluctuations in the strokes of the two trees on the right adversely affect the feature value. Therefore, by limiting the horizontal and directional right side range of the pole counting region by dividing points based on the peripheral distribution, the above-mentioned adverse effects can be removed. In addition, by limiting the polar point counting area in the vertical direction as well, it is possible to remove artifacts such as cuts and blurs outside the polar point counting area, and more stable feature values can be obtained.

(発明の効果) 以上詳細に説明したように、本発明によれば、従来の認
識方式の特徴情報抽出における輪郭追跡や細線化等の非
常に複雑なパタン処理を行なうことなく、文字図形パタ
ンの2つの軸への投影の重心座標より、文字矩形枠内部
を(MXN)個の領域に分割するための文字枠分割点座
標系列を抽出し、文字図形パタンの外形を表す外郭座標
系列から、面記夫々の領域に対して所定の条件を満たす
極点の情報を抽出し、もって特徴とすることで、安定性
良く、微小な違いしか存在しないパターンの差を有効に
抽出する特徴抽出方式を提供できる。
(Effects of the Invention) As described above in detail, according to the present invention, character/figure patterns can be easily processed without performing very complicated pattern processing such as contour tracing or thinning in feature information extraction in conventional recognition methods. A character frame division point coordinate series for dividing the inside of a character rectangular frame into (MXN) areas is extracted from the center of gravity coordinates of the projection onto the two axes, and a surface By extracting the information of the extreme points that satisfy a predetermined condition for each region and using this as a feature, it is possible to provide a feature extraction method that is stable and effectively extracts differences between patterns where only minute differences exist. .

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明が適用される文字認識装置の一実施例を
示す機能ブロック図、第2図は人力文字パタン例と、重
心座標系列、分割座標系列との関係を示す図、第3図は
重心座標系列と分割座標系列との対応関係を示す図、第
4図は分割座標系列の他の決定方法におけるフローチャ
ート、第5図は人力文字パタンの漢字「水」に対する上
辺からの外郭座標系列検出方法の説明図、第6図は第5
図の外郭座標系列に対する極大点及び極小点検出方法の
説明図、第7図は極点計数領域S=1゜E=6・、D=
3に対する第6図の極大点・極小点計数方法の説明図、
第8図は人力文字パタンの漢字「氷」に対する上辺から
の外郭座標系列検出方法の説明図、第9図は第8図の外
郭座標系列に対する極大点及び極小点検出方法の説明図
、第10図は極点計数領域S=1.E=6.D=3に対
する第9図の極大点・極小点計数方法の説明図である。 1・・・光入力     2・−光電変換部3・・・パ
タンレジスタ 4・−文字枠検出部5・・・文字投影作
成部 6・−重心検出部7・・・文字枠分割点決定部 8・・・外部座標系列検出部 9・・・極点座標系列検出部 10・・・極点計数部 11−・・極点計数領域テーブル 12・−識別部    13・−辞書メモリ14−・・
文字名出力 特許出願人  沖電気工業株式会社 特許出願代理人 弁理士 山本恵− ×
Fig. 1 is a functional block diagram showing an embodiment of a character recognition device to which the present invention is applied, Fig. 2 is a diagram showing the relationship between an example of a human character pattern, a barycenter coordinate series, and a divided coordinate series, Fig. 3 is a diagram showing the correspondence between the barycentric coordinate series and the divided coordinate series, Figure 4 is a flowchart of another method for determining the divided coordinate series, and Figure 5 is the outer coordinate series from the top side for the kanji character "water" in the human character pattern. An explanatory diagram of the detection method, Figure 6 is the 5th
An explanatory diagram of the maximum point and minimum point detection method for the outer coordinate series shown in the figure, FIG.
An explanatory diagram of the maximum point/minimum point counting method in FIG. 6 for 3,
Fig. 8 is an explanatory diagram of a method for detecting an outer coordinate series from the upper side for the kanji character "ice" in the human character pattern, Fig. 9 is an explanatory diagram of a method for detecting maximum and minimum points for the outer coordinate series of Fig. 8, and Fig. 10 The figure shows the pole counting area S=1. E=6. FIG. 9 is an explanatory diagram of the maximum point/minimum point counting method shown in FIG. 9 for D=3; 1... Optical input 2.-Photoelectric conversion unit 3...Pattern register 4.-Character frame detection unit 5...Character projection creation unit 6.-Gravity center detection unit 7...Character frame division point determination unit 8 . . . External coordinate series detection section 9 . . . Pole coordinate series detection section 10 . . . Pole counting section 11 - .
Character name output patent applicant Oki Electric Industry Co., Ltd. Patent application agent Patent attorney Megumi Yamamoto ×

Claims (1)

【特許請求の範囲】 媒体上の文字図形を読取って量子化して得られるパタン
を原パタンとして記憶するパタンレジスタを備え、上記
原パタンに基づいて文字図形の特徴を抽出する特徴抽出
方式において、 (a)パタンレジスタに記憶された原パタンの外接辺か
らなる文字矩形枠を検出する手段と、(b)上記原パタ
ンを所望の2つの軸上に夫々投影して夫々の黒ビット数
分布を求める手段と、(c)まず夫々の軸上に対して、
上記文字矩形枠で限定される範囲で黒ビット数分布の夫
々の重心座標を決定し、次いでそれまでに検出した夫々
の重心座標で上記文字矩形枠で限定される範囲を分割し
た夫々の範囲を対象として夫々の前記黒ビット数分布の
重心座標を決定する過程を複数回繰返して夫々の重心座
標系列を求める手段と、 (d)座標値の大きさの順に付した夫々の重心座標系列
における重心座標番号と座標値の大きさの順に付した夫
々の軸上の分割座標系列における夫々の分割座標番号と
をほぼ均等に対応させて、重心座標系列における1つの
重心座標を1つの分割座標に対応づけて文字矩形枠内を
(M×N)個の領域に分割するための夫々の分割座標を
決定する手段と、 (e)上記原パタンの上記文字矩形枠内部を文字矩形枠
の夫々の辺から垂直方向に走査し、背景部から文字部へ
の最初の変化点の座標系列を検出する手段と、 (f)上記変化点座標系列に基づいて、夫々の変化点の
変化量を算出する手段と、 (g)上記変化量に従って、増減の変化する極点を検出
する手段と、 (h)上記(M×N)個の夫々の領域に対して、所定の
条件を満たす上記極点の情報を抽出する手段とを 具備したことを特徴とする特徴抽出方式。
[Claims] In a feature extraction method that includes a pattern register that stores a pattern obtained by reading and quantizing a character figure on a medium as an original pattern, and extracts the feature of the character figure based on the original pattern, a) means for detecting a character rectangular frame consisting of the circumscribed sides of the original pattern stored in a pattern register; and (b) means for projecting the original pattern onto two desired axes to determine the respective black bit number distributions. (c) first on each axis;
Determine each barycenter coordinate of the black bit number distribution in the range limited by the character rectangle frame, and then divide the range limited by the character rectangle frame using each barycenter coordinate detected so far. (d) means for determining barycenter coordinates of each of the black bit number distributions as objects by repeating the process a plurality of times to obtain each barycenter coordinate series; The coordinate numbers and the divided coordinate numbers in the divided coordinate series on each axis, which are assigned in the order of the size of the coordinate values, correspond almost equally, and one barycenter coordinate in the barycenter coordinate series corresponds to one divided coordinate. (e) means for determining division coordinates for dividing the inside of the character rectangular frame into (M×N) areas by dividing the inside of the character rectangular frame into (M×N) areas; (f) means for calculating the amount of change at each change point based on the change point coordinate series; (g) means for detecting the extreme points that increase or decrease according to the amount of change; and (h) extracting information on the extreme points that satisfy a predetermined condition for each of the (M×N) regions. A feature extraction method characterized by comprising means for.
JP62294057A 1987-11-24 1987-11-24 Feature extraction method Expired - Fee Related JPH0646418B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP62294057A JPH0646418B2 (en) 1987-11-24 1987-11-24 Feature extraction method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP62294057A JPH0646418B2 (en) 1987-11-24 1987-11-24 Feature extraction method

Publications (2)

Publication Number Publication Date
JPH01136287A true JPH01136287A (en) 1989-05-29
JPH0646418B2 JPH0646418B2 (en) 1994-06-15

Family

ID=17802724

Family Applications (1)

Application Number Title Priority Date Filing Date
JP62294057A Expired - Fee Related JPH0646418B2 (en) 1987-11-24 1987-11-24 Feature extraction method

Country Status (1)

Country Link
JP (1) JPH0646418B2 (en)

Also Published As

Publication number Publication date
JPH0646418B2 (en) 1994-06-15

Similar Documents

Publication Publication Date Title
CN105447529B (en) Method and system for detecting clothes and identifying attribute value thereof
JPH0877334A (en) Automatic feature point extracting method for face image
CN107071234A (en) A kind of camera lens shadow correction method and device
CN109523551B (en) Method and system for acquiring walking posture of robot
WO2018082389A1 (en) Skin colour detection method and apparatus, and terminal
CN101389261B (en) Medical image processing apparatus and medical image processing method
CN112396050A (en) Image processing method, device and storage medium
CN108711160A (en) A kind of Target Segmentation method based on HSI enhancement models
CN112802113B (en) Method for determining grabbing points of object in any shape
JPH01136287A (en) Feature extracting system
JPS63238686A (en) Feature extracting system
CN110348286B (en) Face fitting and matching method based on least square method
JPH07146937A (en) Pattern matching method
JPH0147829B2 (en)
CN108681998A (en) A kind of fine motion object detection method, electronic equipment, storage medium and system
JPS63234372A (en) Feature extracting system
JPH1173503A (en) Picture processor
JPH0147835B2 (en)
JPS63228390A (en) Recognition system for character pattern
JPS63238685A (en) Character pattern recognizing system
JP2002269561A (en) Image processing device and marker
JPS63234374A (en) Character graphic recognizing system
JPS63233486A (en) Feature extracting system
CN111462234A (en) Position determination method and device
CN114693954A (en) Method and system for extracting features of light spots in coal mine

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees