JP3449392B2 - Discriminant function learning method - Google Patents

Discriminant function learning method

Info

Publication number
JP3449392B2
JP3449392B2 JP22556896A JP22556896A JP3449392B2 JP 3449392 B2 JP3449392 B2 JP 3449392B2 JP 22556896 A JP22556896 A JP 22556896A JP 22556896 A JP22556896 A JP 22556896A JP 3449392 B2 JP3449392 B2 JP 3449392B2
Authority
JP
Japan
Prior art keywords
pattern
area
learning
noise
ground
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP22556896A
Other languages
Japanese (ja)
Other versions
JPH1063789A (en
Inventor
美奈子 澤木
紀博 萩田
健一郎 石井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP22556896A priority Critical patent/JP3449392B2/en
Publication of JPH1063789A publication Critical patent/JPH1063789A/en
Application granted granted Critical
Publication of JP3449392B2 publication Critical patent/JP3449392B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Character Discrimination (AREA)

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、パタンの認識に用
いる識別関数を、学習パタンから学習して求める方法に
関する。詳しくは、パタンの代表例である印刷漢字、手
書き漢字、英数字、記号、数式、図形など多くの文字・
図形カテゴリを対象とする場合には、かすれ、つぶれな
どの雑音が加わった画像などを認識する識別関数を学習
する方法に適用できる。また、災害、医療などで用いる
多項目の診断結果をもとに、システムでおきる複数の障
害や病気などのカテゴリを認識する方法にも適用でき
る。なお、ここでカテゴリとは、認識したい単位であ
り、通常、文字認識では「字種」がこれに該当し、たと
えば、数字に限れば0から9までの10カテゴリがあ
り、漢字では第1水準漢字の場合で約3300カテゴリ
がある。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for learning and determining a discriminant function used for pattern recognition from a learning pattern. For details, refer to many characters such as printed kanji, handwritten kanji, alphanumeric characters, symbols, mathematical expressions, and figures, which are typical examples of patterns.
In the case of targeting a figure category, it can be applied to a method of learning a discriminant function for recognizing an image or the like in which noise such as blurring or crushing is added. Also, it can be applied to a method of recognizing a plurality of categories such as obstacles and illnesses that occur in the system based on the diagnostic results of many items used in disasters, medical care, and the like. It should be noted that the category is a unit to be recognized, and in character recognition, "character type" usually corresponds to this. For example, there are 10 categories from 0 to 9 for numbers, and the first level for Kanji. There are about 3300 categories for kanji.

【0002】[0002]

【従来の技術】従来、漢字OCR(Optical Characte
r Reader)などの文字認識処理装置や図面認識装置で
は、2値あるいは多値パタンとして表現された文字や図
形パタンから認識のための特徴をベクトルの形で抽出
し、予め作成してある標準辞書内の各々カテゴリの標準
パタンベクトルとの間で類似度または相違度などの識別
関数を求めて、最も類似した文字または図形カテゴリを
認識結果とする方法が知られている。
2. Description of the Related Art Traditionally, Kanji OCR (Optical Character)
A character recognition processing device such as r Reader) or a drawing recognition device extracts a feature for recognition in the form of a vector from a character or figure pattern expressed as a binary or multivalued pattern, and creates a standard dictionary created in advance. There is known a method in which a discriminant function such as a similarity or a dissimilarity is obtained from the standard pattern vector of each category in the above, and the most similar character or figure category is used as the recognition result.

【0003】これらの方法では、認識のための特徴およ
び識別関数は、経験的に適切なものを推測し設計するこ
とが一般的であるが、OCRなどの利用者が入力するデ
ータとのカテゴリ数、カテゴリごとの出現頻度、カテゴ
リ別に起きる変形の程度などは、必ずしも一致しないた
め、利用者によっては予想した認識性能が得られないと
いう問題があった。
[0003] In these methods, it is general to empirically design and design appropriate recognition features and discriminant functions, but the number of categories with the data input by the user such as OCR. Since the appearance frequency of each category and the degree of deformation occurring in each category do not necessarily match, there is a problem that the expected recognition performance cannot be obtained depending on the user.

【0004】さらに、従来の文字認識などの特徴ベクト
ルの要素には、文字線の方向や接続関数、位置関数など
の文字線構造を反映した特徴量が広く用いられている
が、かすれ、つぶれ、文字背景雑音などが激しい画像に
対して、これらの特徴量が大きく変動してしまい、十分
な認識精度を得ることがほとんど不可能であった。認識
処理に入る前に、このような雑音を画像処理によって取
り除く方法も試みられているが、文字線そのものを雑音
の一部と判断して除去してしまったり、雑音の一部が文
字線だと判断してよごれのついた文字パタンが結果とし
て出力されるため、やはり特徴量が変動してしまい十分
に認識できない。
Further, the feature amount reflecting the character line structure such as the direction of the character line, the connection function, and the position function is widely used as the element of the feature vector in the conventional character recognition, etc. It has been almost impossible to obtain sufficient recognition accuracy because these feature values greatly change in an image with severe background noise. Before the recognition process, it has been attempted to remove such noise by image processing, but the character line itself is considered to be part of the noise and removed, or part of the noise is the character line. As a result, a contaminated character pattern is output, and the feature amount also varies and cannot be recognized sufficiently.

【0005】[0005]

【発明が解決しようとする課題】上述のように、従来の
OCRをはじめとする認識技術は、かすれ、つぶれ、文
字背景雑音などによって誤認識となる文字などを正しく
認識できる識別関数を学習して求める方法が十分に確立
していないという問題があった。
As described above, the conventional recognition techniques such as OCR have learned the discriminant function capable of correctly recognizing a character or the like which is erroneously recognized due to faintness, crushing, character background noise or the like. There was a problem that the method of asking was not fully established.

【0006】本発明の目的は、文字認識の上記問題を解
決するだけでなく、種々のパタン認識を対象として、学
習データ(学習パタン)から雑音にもロバストな識別関
数を帰納的に学習する方法を提供することにある。
An object of the present invention is not only to solve the above problem of character recognition, but also to recursively learn a discrimination function that is robust against noise from learning data (learning patterns) for various pattern recognition. To provide.

【0007】[0007]

【課題を解決するための手段】上記目的を達成するため
に、本発明では、パタンの「図」の値をとる部分または
「地」の値をとる部分の情報を元にした、学習パタンと
参照パタンとの照合の際に得られる値を特徴量とし、同
じカテゴリ同士の2つのパタンから得られる特徴量と異
なるカテゴリの2つのパタンから得られる特徴量を判別
する関数を、識別関数として用いることを主たる特徴と
する。具体的には、「図」領域と「図」領域、「図」領
域と「地」領域、「地」領域と「図」領域、「地」領域
と「地」領域のそれぞれの組み合わせで画素毎に照合を
行い、一致した画素数をそれぞれa,c,b,eとし、
前記a,c,b,eの1次の項と前記a,c,b,eの
値の全ての組み合わせのN次(N≧2)までの項により
特徴量を構成し、同じカテゴリ同士のパタンから得られ
る特徴量と異なるカテゴリのパタンから得られる特徴量
を判別する関数を識別関数とする。
In order to achieve the above object, according to the present invention, there is provided a learning pattern based on information of a portion having a "figure" value or a portion having a "ground" value. A value obtained when matching with a reference pattern is used as a feature amount, and a function that determines a feature amount obtained from two patterns of different categories and a feature amount obtained from two patterns of different categories is used as a discriminant function. The main feature is that. Specifically, the "Figure" area, "Figure" area, and "Figure" area
Area and "ground" area, "ground" area and "figure" area, "ground" area
Match each pixel with each combination of
And the number of matched pixels is a, c, b, and e, respectively,
The first-order terms of a, c, b, e and the a, c, b, e of
By terms up to the Nth order (N ≧ 2) of all combinations of values
The features are constructed and obtained from the patterns of the same category.
Features obtained from patterns in different categories from the features
The function that discriminates is the discrimination function.

【0008】また、本発明では、人工的に雑音を重畳し
たパタンを学習パタンに追加して学習を行うことにより
得られる識別関数を、求める識別関数とすることを特徴
とする。
Further, the present invention is characterized in that a discriminant function obtained by learning by adding a pattern in which noise is artificially added to a learning pattern is used as a discriminant function to be obtained.

【0009】[0009]

【発明の実施の形態】以下、本発明の一実施例として、
文字パタンについて図面により説明する。なお、他のパ
タンについても同様に実現できる。
BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, as one embodiment of the present invention,
The character pattern will be described with reference to the drawings. Note that other patterns can be similarly realized.

【0010】図1は本発明の方法を適用する装置構成の
一実施例を示すブロック図であり、パタン記憶部1、雑
音付加部2、図地パタン作成部3、特徴量計数部4、及
び、識別関数学習部5から構成される。
FIG. 1 is a block diagram showing an embodiment of an apparatus configuration to which the method of the present invention is applied. A pattern storage unit 1, a noise adding unit 2, a figure background pattern creating unit 3, a feature quantity counting unit 4, and , The discriminant function learning unit 5.

【0011】パタン記憶部1は、識別関数の学習に用い
る画像パタン(学習パタン)を記憶してある。該画像パ
タンはn画素からなり、例えば、2値画像パタンの場合
には、各画素は「0」または「1」で示されている。ま
た、例えば、多値パタンの場合には、各画素は0から1
の間の実数値で示されている。
The pattern storage unit 1 stores image patterns (learning patterns) used for learning the discrimination function. The image pattern consists of n pixels. For example, in the case of a binary image pattern, each pixel is indicated by "0" or "1". Further, for example, in the case of a multi-valued pattern, each pixel has 0 to 1
It is shown by the real value between.

【0012】雑音付加部2は、画像パタンに人工的に雑
音を付加する。例えば、2値画像の場合、よごれ雑音の
場合は画素値「0」を「1」に、かすれ雑音の場合は画
素値「1」を「0」に変換する。また、例えば、多値パ
タンの場合には、よごれ雑音の場合には画素値を増加
し、かすれ雑音の場合には画素値を減少する。この変換
された画素の数で付加された雑音量を示す。なお、多値
パタンの場合には、画素値の変化分を用いて雑音量を求
めてもよい。
The noise adding section 2 artificially adds noise to the image pattern. For example, in the case of a binary image, the pixel value “0” is converted to “1” in the case of dirt noise, and the pixel value “1” is converted to “0” in the case of blur noise. Further, for example, in the case of multi-valued pattern, the pixel value is increased in the case of dirt noise, and the pixel value is decreased in the case of blur noise. The amount of noise added is indicated by the number of converted pixels. In the case of a multi-valued pattern, the amount of noise may be calculated using the amount of change in pixel value.

【0013】図地パタン作成部3は、画像パタンの各画
素を「図」領域と「地」領域にわける。例えば、2値画
像パタンの場合には、画素値が「1」の領域を「図」領
域とし、「0」の領域を「地」領域とする。また、例え
ば、多値画像パタンの場合には、しきい値処理により
「図」領域と「地」領域をわける。なお、図地の判定は
人手で行ってもよい。このようにしてわけられた領域か
ら図パタンと地パタンを作成する。この図パタンと地パ
タンは、雑音が付加された画像パタン(学習パタン)
と、雑音が付加されない画像パタン(参照パタン)のそ
れぞれについて作成される。
The figure background pattern creating section 3 divides each pixel of the image pattern into a "picture" area and a "ground" area. For example, in the case of a binary image pattern, a region having a pixel value of "1" is a "figure" region and a region having a pixel value of "0" is a "ground" region. Further, for example, in the case of a multi-valued image pattern, the “figure” region and the “ground” region are divided by threshold processing. Note that the figure / ground may be determined manually. A figure pattern and a ground pattern are created from the areas thus divided. This figure pattern and ground pattern are image patterns with noise added (learning patterns).
And each of the image patterns (reference patterns) to which noise is not added.

【0014】特徴量計数部4は、図地パタン作成部3か
ら、雑音が付加されたn画素の画像パタン(学習パタ
ン)の図パタンと地パタン、及び、参照パタンの図パタ
ンと地パタンを入力して、これらのパタンを照合し、該
照合した際に求められる値を組み合わせることにより、
複数個の特徴量を求める。
The feature quantity counting unit 4 outputs the figure pattern and the ground pattern of the image pattern (learning pattern) of the noise-added n pixel and the figure pattern and the ground pattern of the reference pattern from the figure background pattern creating unit 3. By inputting, collating these patterns and combining the values obtained at the time of collation,
Obtain a plurality of feature quantities.

【0015】識別関数学習部5は、特徴量計数部4から
入力された特徴量をもとに、公知の判別分析や計算機に
よる法則発見学習の手法を用いて識別関数を生成する。
The discriminant function learning unit 5 generates a discriminant function based on the feature amount input from the feature amount counting unit 4 by using a known discriminant analysis method or a rule finding learning method by a computer.

【0016】次に、図1の実施例において、本発明によ
る識別関数の学習方法について説明する。図2は、その
処理フローチャートの一例である。
Next, the learning method of the discriminant function according to the present invention in the embodiment shown in FIG. 1 will be described. FIG. 2 is an example of the processing flowchart.

【0017】パタン記憶部1には、各カテゴリのn画素
の画像パタンが記憶されている。画像パタンの画素値
は、例えば、2値画像パタンの場合は「0」または
「1」であり、多値パタンの場合は0から1の間の実数
値である。本実施例では、該パタン記憶部1に記憶され
ている画像パタンを学習パタンと参照パタンの両方に利
用する。
The pattern storage unit 1 stores image patterns of n pixels in each category. The pixel value of the image pattern is, for example, “0” or “1” in the case of a binary image pattern, and a real value between 0 and 1 in the case of a multivalued pattern. In the present embodiment, the image patterns stored in the pattern storage unit 1 are used as both learning patterns and reference patterns.

【0018】まず、パタン記憶部1から各カテゴリの画
像パタン(学習パタン)が読み出され、雑音付加部2に
入力される(ステップ201)。雑音付加部2では、こ
の画像パタンに対し、作業者によって指定された量の雑
音を付加する(ステップ202)。例えば、2値画像パ
タンの場合、よごれ雑音の場合は「0」を「1」に、か
すれ雑音の場合は「1」を「0」に変換する。変換する
画素の位置は、例えばランダムに設定する。雑音の量
は、例えば変化された画素の数で定量化できる。多値パ
タンの場合は、例えば、よごれ雑音の場合には画素値を
増加させ、かすれ雑音の場合には画素値を減少させる。
この雑音が付加された画像パタン(学習パタン)をXno
ise=(x1,x2,…,xi,…,xn)とする。
First, an image pattern (learning pattern) of each category is read from the pattern storage unit 1 and input to the noise adding unit 2 (step 201). The noise adding unit 2 adds the amount of noise designated by the operator to this image pattern (step 202). For example, in the case of a binary image pattern, "0" is converted into "1" in the case of dirt noise, and "1" is converted into "0" in the case of blur noise. The position of the pixel to be converted is set at random, for example. The amount of noise can be quantified, for example, by the number of changed pixels. In the case of multi-valued pattern, for example, the pixel value is increased in the case of dirt noise and the pixel value is decreased in the case of blur noise.
The image pattern (learning pattern) with this noise added is Xno.
Let ise = (x 1 , x 2 , ..., X i , ..., X n ).

【0019】上記雑音が付加された画像パタンXnoise
=(x1,x2,…,xi,…,xn)は図地パタン作成部
3へ入力される。図地パタン作成部3では、該画像パタ
ンXnoiseに対し、「図」「地」判定を行い、図パタン
Xnoise_fig=(xf1,xf2,…,xfi,…x
n)、および地パタンXnoise_back=(xb1,x
2,…,xbi,…xbn)を作成する(ステップ20
3)。例えば、2値画像パタンの場合には、該画像パタ
ンの画素値が「1」の領域を「図」と判定し、画素値が
「0」の領域を「地」と判定する。図パタンXnoise_fi
gは、該画像パタンの図領域を「1」とし、地領域を
「0」として作成する。地パタンXnoise_backは、該画
像パタンの地領域を「1」とし、図領域を「0」として
作成する。また、多値パタンの場合には、一定のしきい
値を用いて「図」「地」の判定を行い、図パタンと地パ
タンを作成する。その場合は、図パタンの図領域は元の
多値パタンの多値レベルはそのまま用いるかまたは多値
レベルを正規化し、背景領域は、たとえば「0」にす
る。また、地パタンの地領域は元の多値パタンの多値レ
ベルはそのまま用いるかまたは多値レベルを正規化し、
図領域は、たとえば「0」にする。なお、「図」「地」
の判定は、人手で行ってもよい。
Image pattern Xnoise added with the noise
= (X 1 , x 2 , ..., X i , ..., X n ) is input to the figure-ground pattern creating unit 3. In figure-ground pattern creation section 3, with respect to the image pattern Xnoise, it makes a determination "Figure", "land", FIG pattern Xnoise_fig = (xf 1, xf 2 , ..., xf i, ... x
f n ), and the ground pattern Xnoise_back = (xb 1 , x
b 2 , ..., Xb i , ... Xb n ) are created (step 20)
3). For example, in the case of a binary image pattern, an area having a pixel value of "1" is determined as "figure", and an area having a pixel value of "0" is determined as "ground". Figure pattern Xnoise_fi
For g, the drawing area of the image pattern is set to "1" and the ground area is set to "0". The ground pattern Xnoise_back is created with the ground area of the image pattern set to “1” and the drawing area set to “0”. Further, in the case of a multi-valued pattern, the "figure" and "ground" are determined using a certain threshold value, and a figure pattern and a ground pattern are created. In that case, the multivalued level of the original multivalued pattern is used as it is for the drawing area of the drawing pattern, or the multivalued level is normalized, and the background area is set to, for example, "0". Also, for the ground area of the ground pattern, the multi-valued level of the original multi-valued pattern is used as it is, or the multi-valued level is normalized,
The drawing area is set to "0", for example. In addition, "figure""ground"
The determination of may be performed manually.

【0020】次に、パタン記憶部1から各カテゴリの参
照パタンを読み出し、図地パタン作成部3へ入力する
(ステップ204)。ここで、参照パタンをT=
(t1,t2,…,ti,…,tn)とする。該参照パタン
Tは雑音量が0の画像パタンである。図地パタン作成部
3では、該参照パタンTに対し、「図」「地」判定を行
い、図パタンT_fig=(tf1,tf2,…,tfi,…
tfn)および地パタンT_back=(tb1,tb2,…,
tbi,…,tbn)を作成する(ステップ205)。
Next, the reference pattern of each category is read from the pattern storage unit 1 and input to the figure-ground pattern creating unit 3 (step 204). Here, the reference pattern is T =
(T 1 , t 2 , ..., T i , ..., T n ). The reference pattern T is an image pattern with zero noise amount. In figure-ground pattern creation section 3, with respect to the reference pattern T, it makes a determination "Figure", "land", FIG pattern T_fig = (tf 1, tf 2 , ..., tf i, ...
tf n ) and the ground pattern T_back = (tb 1 , tb 2 , ...,
tb i, ..., to create a tb n) (step 205).

【0021】図地パタン作成部3で作成された各カテゴ
リの、雑音が付加された画像パタン(学習パタン)Xno
iseの図パタンXnoise_figおよび地パタンXnoise_bac
k、雑音量0の参照パタンTの図パタンT_figおよび地
パタンT_backは、特徴量計数部4へ入力される。特徴
量計数部4では、これら雑音が付加された画像パタンX
noiseの図パタンXnoise_fig=(xf1,xf2,…,x
i,…xfn)および地パタンXnoise_back=(x
1,xb2,…,xbi,…xbn)と参照パタンTの図
パタンTのT_fig=(tf1,tf2,…,tfi,…t
n)および地パタンT_back=(tb1,tb2,…,t
i,…,tbn)を照合する(ステップ206)。ここ
で、iを画素位置(i=1,…,n)とした場合、2値
画像パタンの場合、xfi=1かつtfi=1の画素の総
数をa、xfi=1かつtbi=1の画素の総数をc、x
i=1かつtfi=1の画素の総数をb、xbi=1か
つtbi=1の画素の総数をeとする。すなわち、各画
素位置でXnoiseとTの両方パタンが黒点となる総数
(a)、Xnoiseが白点でTが黒点となる総数(b)、
Xnoiseが黒点でTが白点となる総数(c)、Xnoiseと
tの両方が白点となる総数(e)、の4種類の変数が得
られる。多値パタンの場合は、たとえば、画像パタン
(学習パタン)Xnoiseの図パタンXnoise_figと参照パ
タンTの図パタンT_figとの内積値をa、画像パタンX
noiseの図パタンXnoise_figと参照パタンTの地パタン
T1との内積値をc、画像パタンXnoiseの地パタンXno
ise_backと参照パタンTの図パタンT_figとの内積値を
b、画像パタンXnoiseの地パタンXnoise_backと参照
パタンTの地パタンT_figとの内積値をeとして、これ
らの値を求める。
A noise-added image pattern (learning pattern) Xno of each category created by the figure background pattern creating section 3
ise figure pattern Xnoise_fig and ground pattern Xnoise_bac
The figure pattern T_fig and the ground pattern T_back of the reference pattern T with k and the noise amount of 0 are input to the feature amount counting unit 4. In the feature quantity counting unit 4, the image pattern X to which these noises are added is added.
noise pattern Xnoise_fig = (xf 1 , xf 2 , ..., x
f i , ... Xf n ) and the ground pattern Xnoise_back = (x
b 1, xb 2, ..., xb i, ... xb n) and in FIG pattern T of the reference pattern T T_fig = (tf 1, tf 2, ..., tf i, ... t
f n ) and the ground pattern T_back = (tb 1 , tb 2 , ..., T)
b i , ..., Tb n ) are collated (step 206). Here, when i is a pixel position (i = 1, ..., N), in the case of a binary image pattern, the total number of pixels of xf i = 1 and tf i = 1 is a, xf i = 1 and tb i. = 1, the total number of pixels is c, x
Let b be the total number of pixels with b i = 1 and tf i = 1 and e be the total number of pixels with xb i = 1 and tb i = 1. That is, the total number (a) in which both Xnoise and T patterns are black points at each pixel position, the total number (b) in which Xnoise is a white point and T is a black point,
Four types of variables are obtained: a total number (c) in which Xnoise is a black point and T is a white point, and a total number (e) in which both Xnoise and t are white points. In the case of a multivalued pattern, for example, the inner product value of the figure pattern Xnoise_fig of the image pattern (learning pattern) Xnoise and the figure pattern T_fig of the reference pattern T is a, and the image pattern X is
The inner product value of the noise figure pattern Xnoise_fig and the ground pattern T1 of the reference pattern T is c, and the ground pattern Xno of the image pattern Xnoise.
These values are determined with the inner product value of ise_back and the figure pattern T_fig of the reference pattern T being b, and the inner product value of the ground pattern Xnoise_back of the image pattern Xnoise and the ground pattern T_fig of the reference pattern T being e.

【0022】次に、特徴量計算部4では、上記計数され
たa,e,b,cの値の組み合わせにより特徴量を求め
る(ステップ207)。ここでは例えば、1次と2次の
項である以下の14種類を特徴量F=(f1,f2,…,
j,…,f14)として算出する。 F=(a,e,b,c,a*a,e*e,b*b,c*
c,a*e,a*b,a*c,e*b,e*c,b*
c) 特徴量としては、3次以降の高次の項や、それらを非線
形変換した値、たとえば対数値などを用いることも可能
である。
Next, the characteristic amount calculation section 4 obtains a characteristic amount from the combination of the counted values of a, e, b, and c (step 207). Here, for example, the following 14 types, which are first-order and second-order terms, are characterized by feature amounts F = (f 1 , f 2 , ...,
f j , ..., F 14 ). F = (a, e, b, c, a * a, e * e, b * b, c *
c, a * e, a * b, a * c, e * b, e * c, b *
c) As the feature quantity, it is also possible to use a higher-order term of the third order or higher and a value obtained by nonlinearly converting them, for example, a logarithmic value.

【0023】画像パタン(学習パタン)Xnoiseと参照
パタンTが同じカテゴリの場合と異なるカテゴリの場合
とで、複数のパタン対(Xnoise,T)について、十分
な数の特徴量Fをもとめ(ステップ208)、識別関数
学習部5に入力する。
When the image pattern (learning pattern) Xnoise and the reference pattern T are in the same category or different categories
Then, a sufficient number of feature quantities F are obtained for a plurality of pattern pairs (Xnoise, T) (step 208) and input to the discriminant function learning unit 5.

【0024】識別関数学習部5では、入力された特徴量
Fを用いて識別関数を学習する(ステップ209)。識
別関数は、XnoiseとTが同じカテゴリ場合のFと、異
なるカテゴリの場合のFの、2クラスを判別する関数を
求めることにより得られる。
The discriminant function learning section 5 learns a discriminant function using the input feature amount F (step 209). The discriminant function is obtained by obtaining a function that discriminates between two classes, F when Xnoise and T are in the same category and F when Xnoise and T are in different categories.

【0025】ここでは、一例として、Fisherの線形判
別分析(例えば、奥野、他著「多変量解析法<改訂版
>」(株式会社日科技連出版社)などに詳しく述べられ
ている)により、識別関数を学習する式を以下に示す。 先の特徴量F=(f1,f2,…,fj,…,f14) =(a,e,b,c,a*a,e*e,b*b,c*c, a*e,a*b,a*c,e*b,e*c,b*c) を用いて、識別関数
Here, as an example, by Fisher's linear discriminant analysis (for example, it is described in detail in "Multivariate analysis method <revised edition>" by Okuno et al. (Nikka Giren Publishing Co., Ltd.), etc.) The formula for learning the discriminant function is shown below. Previous feature amount F = (f 1 , f 2 , ..., F j , ..., F 14 ) = (a, e, b, c, a * a, e * e, b * b, c * c, a * E, a * b, a * c, e * b, e * c, b * c)

【0026】[0026]

【数1】 [Equation 1]

【0027】を定義する。ここで、重み係数wiの学習
を、雑音が付加された画像パタン(学習パタン)Xnois
eと雑音量0の参照パタンTについて、XnoiseとTが同
一カテゴリの場合、相異なるカテゴリの場合の2クラス
に分けてFisherの判別分析を行うことにより決定す
る。
Define Here, the learning of the weighting factor w i is performed by the noise-added image pattern (learning pattern) Xnois.
Regarding the reference pattern T of e and noise amount 0, when Xnoise and T are in the same category, they are determined by performing Fisher's discriminant analysis by classifying them into two classes in the case of different categories.

【0028】なお、この2クラスを判別するための関数
の学習には、ニューラルネットワークによる手法などを
用いる計算機による法則発見学習の方法を用いることも
可能である。
For learning the function for discriminating between the two classes, it is possible to use a method of learning for finding rules by a computer using a method by a neural network.

【0029】次に、図3により、図1の特徴量計数部4
の具体的動作例を説明する。図3は、n=16(画素)
として、雑音が付加された2値画像パタンXnoiseと参
照パタンTの例およびそれらの図パタンと地パタンを示
したものである。図3において、11が雑音の付加され
た2値画像パタンXnoiseの例、12が2値参照パタン
Tの例、13が2値画像パタンXnoise11の図パタン
Xnoise_fig、14が2値参照パタンT12の図パタン
T_fig、15が2値画像パタンXnoise11の地パタン
Xnoise_back、16が2値参照パタンT12の地パタン
T_backである。ここで、画素位置i(i=1,…1
6)は、左上隅をi=1とし、左から右へ、上から下
へ、という順で示すこととする。
Next, referring to FIG. 3, the feature quantity counting unit 4 of FIG.
A specific operation example of is described. In FIG. 3, n = 16 (pixels)
As an example, a binary image pattern Xnoise to which noise is added and a reference pattern T, and their figure pattern and ground pattern are shown. In FIG. 3, 11 is an example of a binary image pattern Xnoise to which noise is added, 12 is an example of a binary reference pattern T, 13 is a diagram of a binary image pattern Xnoise 11, pattern Xnoise_fig, 14 is a diagram of a binary reference pattern T12. A pattern T_fig, 15 is a ground pattern Xnoise_back of the binary image pattern Xnoise11, and 16 is a ground pattern T_back of the binary reference pattern T12. Here, the pixel position i (i = 1, ... 1
In 6), the upper left corner is i = 1, and the order is from left to right and from top to bottom.

【0030】図3のXnoise_fig13、T_fig14、Xn
oise_back15、T_back16のパタンを照合し、それぞ
れの画素の値からa,e,b,cの値を求める。aはx
i=1かつtfi=1の画素数であり、図3のパタン1
3と14の例では、i=2,3,7,11,15,16
の6画素であり、a=6となる。eはxbi=1かつt
i=1の画素数であり、図3のパタン15と16の例
では、i=1,4,5,6,10,12,13の7画素
であり、e=7となる。bはxbi=1かつtfi=1の
画素数であり、図3のパタン15と14の例では、i=
14の1画素であり、b=1となる。cはxfi=1か
つtbi=1の画素数であり、図3のパタン13と16
の例では、i=8,9の2画素であり、c=2となる。
Xnoise_fig13, T_fig14, and Xn in FIG.
The patterns of oise_back15 and T_back16 are collated, and the values of a, e, b, and c are obtained from the respective pixel values. a is x
f i = 1 and a number of pixels of tf i = 1, patterns of FIG 1
In the examples of 3 and 14, i = 2, 3, 7, 11, 15, 16
6 pixels, and a = 6. e is xb i = 1 and t
The number of pixels is b i = 1 and, in the example of patterns 15 and 16 in FIG. 3, there are 7 pixels of i = 1, 4, 5, 6, 10, 12, 13 and e = 7. b is the number of pixels of xb i = 1 and tf i = 1. In the example of patterns 15 and 14 of FIG.
There are 14 pixels, and b = 1. c is the number of pixels xf i = 1 and tb i = 1, pattern 13 of FIG 3 and 16
In the example, there are two pixels of i = 8 and 9, and c = 2.

【0031】上記計数されたa,e,b,cの値の組み
合わせにより特徴量Fを求める。ここでは例えば、1次
と2次の項である先の14種類を特徴量Fとすると、次
のような値が特徴量として求められる。
The feature amount F is obtained from the combination of the counted values of a, e, b, and c. Here, for example, assuming that the above-mentioned 14 types of first-order and second-order terms are the feature amount F, the following values are obtained as the feature amount.

【0032】 F=(a,e,b,c,a*a,e*e,b*b,c*c,a*e,a*b, a*c,e*b,e*c,b*c) =(6,7,1,2,36,49、1,4,42,6,12,7,14,2) 以上、本発明の一実施例について説明した。該実施例の
説明では、図1のパタン記憶部1に記憶されている画像
パタンを学習パタンと参照パタンの両方に使用し、学習
パタンは雑音付加部2で雑音が付加された画像パタンX
noiseとし、参照パタンTは該Xnoiseの雑音付加前の画
像パタンとしたが、参照パタンは他から入力されるパタ
ン(標準パタン)を使用してもよい。この場合、例えば
パタン記憶部1に記憶される画像パタン(学習パタン)
にあらかじめ雑音が付加されていれば、雑音付加部2を
省略することも可能である。
F = (a, e, b, c, a * a, e * e, b * b, c * c, a * e, a * b, a * c, e * b, e * c, b * c) = (6,7,1,2,36,49,1,4,42,6,12,7,14,2) The embodiment of the present invention has been described above. In the description of the embodiment, the image pattern stored in the pattern storage unit 1 of FIG. 1 is used for both the learning pattern and the reference pattern, and the learning pattern is the image pattern X to which noise is added by the noise adding unit 2.
The reference pattern T is noise, and the reference pattern T is the image pattern before the noise of the Xnoise is added, but the reference pattern may be a pattern (standard pattern) input from another. In this case, for example, an image pattern (learning pattern) stored in the pattern storage unit 1
If noise is added in advance, the noise adding unit 2 can be omitted.

【0033】[0033]

【発明の効果】請求項1の発明によれば、学習パタンセ
ットから識別関数を帰納的に学習することができ、従来
の経験的な方法より簡易に適切な識別関数を求めること
ができる。
According to the first aspect of the present invention, the discriminant function can be inductively learned from the learning pattern set, and an appropriate discriminant function can be obtained more easily than the conventional empirical method.

【0034】請求項2の発明によれば、雑音を付加した
パタンを強制的に学習パタンセットに追加することによ
り、従来認識が困難とされていた、かすれやよごれなど
の重畳した雑音パタンをも識別可能な識別関数を簡易に
求めることができる。
According to the invention of claim 2, by forcibly adding the noise-added pattern to the learning pattern set, a noise pattern in which superimposition such as fading or dirt, which has been difficult to recognize in the past, is also generated. A discriminant discriminant function can be easily obtained.

【0035】項求項3の発明によれば、請求項1又は2
で求められる識別関数より、さらに高精度な識別関数を
求めることが可能である。
According to the invention of claim 3, claim 1 or 2
It is possible to obtain a more accurate discriminant function than the discriminant function obtained in.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明による識別関数学習方法を適用する装置
構成例を示すブロック図である。
FIG. 1 is a block diagram showing an example of a device configuration to which a discriminant function learning method according to the present invention is applied.

【図2】本発明による識別関数学習処理のフローチャー
トの一例である。
FIG. 2 is an example of a flowchart of a discriminant function learning process according to the present invention.

【図3】図1の特徴量計数部での具体的動作例を説明す
るためのパタン例を示す図である。
FIG. 3 is a diagram showing a pattern example for explaining a specific operation example in the feature amount counting section of FIG. 1.

【符号の説明】[Explanation of symbols]

1 パタン記録部 2 雑音付加部 3 図地パタン作成部 4 特徴量計数部 5 識別関数学習部 1 pattern recording section 2 Noise addition section 3 Figure ground pattern creation department 4 Feature counter 5 Discriminant function learning section

───────────────────────────────────────────────────── フロントページの続き (56)参考文献 特開 平7−282199(JP,A) 特開 平5−54195(JP,A) 特開 平5−242252(JP,A) (58)調査した分野(Int.Cl.7,DB名) G06K 9/00 - 9/76 ─────────────────────────────────────────────────── --- Continuation of the front page (56) References JP-A-7-282199 (JP, A) JP-A-5-54195 (JP, A) JP-A-5-242252 (JP, A) (58) Field (Int.Cl. 7 , DB name) G06K 9/00-9/76

Claims (3)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 パタンの認識に用いる識別関数を、学習
パタンから学習して求める識別関数学習方法において、
学習パタンの各要素を「図」領域(認識カテゴリ領域)
と「地」領域(認識カテゴリ領域以外の領域)にわけ、
学習パタンと参照パタンの間で「図」領域と「図」領
域、「図」領域と「地」領域、「地」領域と「図」領
域、「地」領域と「地」領域のそれぞれの組み合わせで
画素毎に照合を行い、一致した画素数をそれぞれa,
c,b,eとし、前記a,c,b,eの1次の項と前記
a,c,b,eの値の全ての組み合わせのN次(N≧
2)までの項により特徴量を構成し、同じカテゴリ同士
のパタンから得られる特徴量と異なるカテゴリのパタン
から得られる特徴量を判別する関数を識別関数とするこ
とを特徴とする識別関数学習方法。
1. A discriminant function learning method for obtaining a discriminant function used for pattern recognition by learning from a learning pattern,
Each element of the learning pattern is a "Figure" area (recognition category area)
And "ground" area (area other than recognition category area),
Between the learning pattern and the reference pattern, the "Figure" area and the "Figure" area
Area, "figure" area and "ground" area, "ground" area and "figure" area
Area, in each combination of "ground" area and "ground" area
Matching is performed for each pixel, and the number of matching pixels is a,
c, b, e, and the first-order terms of the a, c, b, e and the
N-th order (N ≥ N of all combinations of values of a, c, b, and e)
A discriminant function learning method characterized in that the discriminant function is a function for discriminating a feature amount obtained from a pattern of the same category and a feature amount obtained from a pattern of a different category by constructing the feature amount from the terms up to 2). .
【請求項2】 請求項1記載の識別関数学習方法におい
て、雑音を重畳したパタンを学習パタンに追加して学習
を行うことにより得られる識別関数を、求める識別関数
とすることを特徴とする識別関数学習方法。
2. The discriminant function learning method according to claim 1, wherein a discriminant function obtained by performing learning by adding a pattern on which noise is superimposed to a learning pattern is a discriminant function to be obtained. Function learning method.
【請求項3】 請求項1又は2記載の識別関数学習方法
において、カテゴリごとに識別関数を求めることを特徴
とする識別関数学習方法。
3. The discriminant function learning method according to claim 1, wherein a discriminant function is obtained for each category.
JP22556896A 1996-08-27 1996-08-27 Discriminant function learning method Expired - Fee Related JP3449392B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP22556896A JP3449392B2 (en) 1996-08-27 1996-08-27 Discriminant function learning method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP22556896A JP3449392B2 (en) 1996-08-27 1996-08-27 Discriminant function learning method

Publications (2)

Publication Number Publication Date
JPH1063789A JPH1063789A (en) 1998-03-06
JP3449392B2 true JP3449392B2 (en) 2003-09-22

Family

ID=16831353

Family Applications (1)

Application Number Title Priority Date Filing Date
JP22556896A Expired - Fee Related JP3449392B2 (en) 1996-08-27 1996-08-27 Discriminant function learning method

Country Status (1)

Country Link
JP (1) JP3449392B2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001078030A (en) * 1999-07-02 2001-03-23 Omron Corp Image recognition device, image forming device, and recording medium
TW578028B (en) 1999-12-16 2004-03-01 Sharp Kk Liquid crystal display and manufacturing method thereof
JP2004354251A (en) * 2003-05-29 2004-12-16 Nidek Co Ltd Defect inspection device
JP5222776B2 (en) * 2009-04-09 2013-06-26 日立オムロンターミナルソリューションズ株式会社 Image processing apparatus and method
JP6693082B2 (en) * 2015-10-23 2020-05-13 富士ゼロックス株式会社 Information processing device and program
JP6578858B2 (en) * 2015-09-30 2019-09-25 富士ゼロックス株式会社 Information processing apparatus and program
JP6731370B2 (en) 2017-03-27 2020-07-29 株式会社日立ハイテク Image processing system and computer program for performing image processing
WO2021054200A1 (en) * 2019-09-18 2021-03-25 富士フイルム株式会社 Printed matter inspecting device, printed matter inspecting method, program, and printing apparatus

Also Published As

Publication number Publication date
JPH1063789A (en) 1998-03-06

Similar Documents

Publication Publication Date Title
Chaira et al. Fuzzy image processing and applications with MATLAB
EP0596412B1 (en) Image clustering apparatus
US8750619B2 (en) Character recognition
US20200285959A1 (en) Training method for generative adversarial network, image processing method, device and storage medium
Zhang et al. A domain-independent window approach to multiclass object detection using genetic programming
Rosin Edges: saliency measures and automatic thresholding
US7171042B2 (en) System and method for classification of images and videos
Simard et al. Using character recognition and segmentation to tell computer from humans
US20020031268A1 (en) Picture/graphics classification system and method
US20040017944A1 (en) Method for character recognition based on gabor filters
JPH05174183A (en) Detection of document image tilt
CN103098074A (en) Document page segmentation in optical character recognition
JP3449392B2 (en) Discriminant function learning method
US5105470A (en) Method and system for recognizing characters
EP0486680A1 (en) Self-centering character stroke thickening for optical character recognition
JP3083562B2 (en) Character recognition mechanism
Mansoori et al. Heuristic edge detection using fuzzy rule-based classifier
Krupiński et al. Improved two-step binarization of degraded document images based on Gaussian mixture model
Henry et al. Near set index in an objective image segmentation evaluation framework
JP3248965B2 (en) Binary threshold value determination device
JP2965165B2 (en) Pattern recognition method and recognition dictionary creation method
Premananada et al. Design and Implementation of Automated Image Handwriting Sentences Recognition using Hybrid Techniques on FPGA
Rodrigues et al. Character feature extraction using polygonal projection sweep (contour detection)
CN115588219A (en) Face black background recognition method and device, electronic equipment and storage medium
Gonzalez et al. Some practical assignments in computer vision

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080711

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080711

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090711

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees