JPH07225836A - Method for generating pattern recognition dictionary - Google Patents

Method for generating pattern recognition dictionary

Info

Publication number
JPH07225836A
JPH07225836A JP6016858A JP1685894A JPH07225836A JP H07225836 A JPH07225836 A JP H07225836A JP 6016858 A JP6016858 A JP 6016858A JP 1685894 A JP1685894 A JP 1685894A JP H07225836 A JPH07225836 A JP H07225836A
Authority
JP
Japan
Prior art keywords
vector
learning
reference pattern
dictionary
pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP6016858A
Other languages
Japanese (ja)
Other versions
JP3249676B2 (en
Inventor
Ei Sakano
鋭 坂野
Hiroshi Idemoto
浩 出本
Hiromi Kida
博己 木田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
N T T DATA TSUSHIN KK
NTT Data Corp
Original Assignee
N T T DATA TSUSHIN KK
NTT Data Communications Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by N T T DATA TSUSHIN KK, NTT Data Communications Systems Corp filed Critical N T T DATA TSUSHIN KK
Priority to JP01685894A priority Critical patent/JP3249676B2/en
Publication of JPH07225836A publication Critical patent/JPH07225836A/en
Application granted granted Critical
Publication of JP3249676B2 publication Critical patent/JP3249676B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PURPOSE:To provide the method which efficiently generates a pattern recognition dictionary which reflects the distribution condition or reference vectors and has a high recognition precision. CONSTITUTION:A set of plural reference vectors corresponding to categories is prepared as an initial dictionary (S21), and this initial dictionary is used to perform the recognition processing of learning vectors whose categories are known (S23 and S24), and reference vectors are moved in the vector space based on results, and this dictionary optimization processing is repeated a finite number of times. In this case, the distance having a scale factor which reflects the distribution condition of reference vectors is used, and this scale factor is changed at the time of moving each reference vector.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、文字や音声等のパター
ン認識に用いるパターン認識辞書の作成方法に関し、特
に、学習ベクトル量子化法を用いて辞書内のベクトル位
置の最適化を行う方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for creating a pattern recognition dictionary used for pattern recognition of characters, voices, etc., and more particularly to a method for optimizing vector positions in the dictionary using a learning vector quantization method. .

【0002】[0002]

【従来の技術】一般に、文字認識や音声認識等において
は、パターン認識対象となる文字や音声を複数のカテゴ
リに分割して各々のパターンベクトルを生成し、このパ
ターンベクトルと、パターン認識辞書内に用意した各カ
テゴリの特徴を代表する参照パターンベクトル(以下、
参照ベクトルと称する)との類似性を何らかの評価関
数、例えばユークリッド二乗距離を用いて判定し、最も
類似性の高い(つまり両ベクトルの距離が短い)カテゴ
リを認識結果として出力する。この場合、文字に対して
は、例えば"あ"、"い"、"う"等のような1文字単位を1
つのカテゴリとし、音声に対しては、音声を構成する音
素や音韻等を1つのカテゴリとする。
2. Description of the Related Art Generally, in character recognition, voice recognition, etc., a character or voice as a pattern recognition target is divided into a plurality of categories to generate respective pattern vectors, and this pattern vector and a pattern recognition dictionary are stored. A reference pattern vector (hereinafter,
The similarity with the reference vector) is determined by using some evaluation function, for example, Euclidean square distance, and the category with the highest similarity (that is, the distance between the two vectors is short) is output as the recognition result. In this case, for a character, for example, 1 character unit such as "A", "I", "U", etc.
There are one category, and for speech, the phonemes and phonemes that make up the speech are one category.

【0003】通常、参照ベクトルは、カテゴリ毎に存在
する複数のサンプルベクトルの平均値として与えられ
る。しかし、数字や平仮名等の文字は、筆記者によって
様々な字体となり易く、また音声認識においても発声に
は個人差があるので、これらに対応するためには、カテ
ゴリ毎に複数の参照ベクトルを集合させたパターン認識
辞書を作成しておく必要がある。
Usually, the reference vector is given as an average value of a plurality of sample vectors existing for each category. However, characters such as numbers and hiragana are likely to have various fonts depending on the writer, and there are individual differences in utterance even in voice recognition.Therefore, in order to deal with these, multiple reference vectors are set for each category. It is necessary to create a pattern recognition dictionary for this.

【0004】学習ベクトル量子化法(LVQ、T.Kohone
n,G.Barna,and R.Chirisley,"Statistical pattern wit
h neural networks:Benchmarking studies.",Proceedin
gs of the IEEE International Conference on Neural
Networks,pp.Iー61-68,1988)は、複数の参照ベクトルを
生成するとともに、誤りを訂正しながら学習を行うこと
でベクトル空間の最適化を図る手法であり、以下のアル
ゴリズムから成る。
Learning vector quantization method (LVQ, T. Kohone
n, G.Barna, and R.Chirisley, "Statistical pattern wit
h neural networks: Benchmarking studies. ", Proceedin
gs of the IEEE International Conference on Neural
Networks, pp. I-61-68, 1988) is a technique for optimizing the vector space by generating multiple reference vectors and performing learning while correcting errors, and consists of the following algorithms.

【0005】(1) まず、学習に用いる全てのパター
ンベクトル(学習ベクトル)についてカテゴリ内クラス
タリング処理等を行って複数の参照ベクトルを生成し、
これら参照ベクトルの集合を初期辞書とする。 (2) カテゴリが既知の1つの学習ベクトルに最も距
離の近い参照ベクトルを検出する。 (3) 検出した参照ベクトルが上記学習ベクトルと異
なるカテゴリに属するものであった場合、つまり誤認識
であった場合には、その参照ベクトルを学習ベクトルか
ら遠ざける。他方、検出した参照ベクトルが上記学習ベ
クトルと同一カテゴリに属するものの場合は、これを該
学習ベクトルにより近付ける。上記処理を、誤認識が無
くなるか、あるいは所定の繰り返し回数に到達するまで
繰り返すことにより、初期辞書におけるベクトル空間の
最適化を図る。
(1) First, a plurality of reference vectors are generated by performing intra-category clustering processing on all pattern vectors (learning vectors) used for learning.
The set of these reference vectors is used as the initial dictionary. (2) The reference vector closest to one learning vector whose category is known is detected. (3) If the detected reference vector belongs to a category different from the learning vector, that is, if the recognition vector is erroneous, the reference vector is moved away from the learning vector. On the other hand, when the detected reference vector belongs to the same category as the learning vector, it is brought closer to the learning vector. The above process is repeated until erroneous recognition is eliminated or a predetermined number of repetitions is reached, thereby optimizing the vector space in the initial dictionary.

【0006】このように、LVQは、アルゴリズムが簡
単であるうえ、多くの場合に効果が期待できるので、こ
の種のパターン認識辞書の作成に良く使用されている。
As described above, the LVQ has a simple algorithm and can be expected to be effective in many cases. Therefore, the LVQ is often used for creating a pattern recognition dictionary of this kind.

【0007】[0007]

【発明が解決しようとする課題】しかしながら、従来の
LVQは、上述のように、ベクトル位置の最適化を図る
際に単純に参照ベクトルを移動させているだけなので、
認識精度の高いパターン認識辞書を作成する観点からは
課題が残るものであった。
However, the conventional LVQ simply moves the reference vector when optimizing the vector position, as described above.
The problem remains from the viewpoint of creating a pattern recognition dictionary with high recognition accuracy.

【0008】即ち、認識精度を高めるには、カテゴリ毎
に参照ベクトルがある程度まとまるように、全体の分布
状況を反映したうえで最適化処理を行うことが好ましい
が、従来のLVQではこのように参照ベクトルの分布状
況を反映させることは困難であった。
[0008] That is, in order to improve the recognition accuracy, it is preferable to perform the optimization process after reflecting the entire distribution state so that the reference vectors are grouped to some extent for each category. It was difficult to reflect the distribution of vectors.

【0009】特に、通常のパターン認識に用いられてい
る距離関数を学習する方法としてみた場合には、単にユ
ークリッド距離についての学習を行うのみで、重み付き
ユークリッド距離の重み、マハラノビス距離における共
分散行列の逆行列等の分布の形状を反映するスケールフ
ァクタ(変数)については学習することが出来なかっ
た。
Particularly, when considering a method for learning a distance function used in ordinary pattern recognition, the Euclidean distance is simply learned, and the weighted Euclidean distance weight and the covariance matrix in the Mahalanobis distance are used. It was not possible to learn about scale factors (variables) that reflect the shape of the distribution such as the inverse matrix of.

【0010】本発明は、かかる課題を解決し、参照ベク
トルの分布状況を反映した認識精度の高いパターン認識
辞書を効率良く作成する方法を提供することを目的とす
る。
An object of the present invention is to solve the above problems and provide a method for efficiently creating a pattern recognition dictionary with high recognition accuracy that reflects the distribution of reference vectors.

【0011】[0011]

【課題を解決するための手段】上記目的を達成する本発
明の方法は、学習ベクトル量子化法を用いてパターン認
識辞書におけるベクトル位置の最適化を行う方法であっ
て、学習に用いる全てのパターンについてその所属カテ
ゴリをそれぞれ代表する複数の参照ベクトルを作成する
第一の段階と、所属カテゴリが既知の1つの学習ベクト
ルを選択する第二の段階と、選択した学習ベクトルから
の距離が最小となる前記参照ベクトルを検出する第三の
段階と、検出した参照ベクトルが前記学習ベクトルと異
なるカテゴリに属する場合に、これを前記学習ベクトル
から離れる方向に移動させ、他方、前記学習ベクトルと
同一カテゴリに属する場合に、該参照ベクトルを前記学
習ベクトルにより近付く方向に移動させる第四の段階と
を有し、前記距離を表す距離関数に複数の参照ベクトル
の分布状況を反映するスケールファクタを付随させ、各
参照ベクトルの移動時に該スケールファクタを変更する
とともに、前記第二乃至第四の段階を所定の評価基準に
達するまで有限回繰り返すことを特徴とする。
A method of the present invention for achieving the above object is a method of optimizing a vector position in a pattern recognition dictionary by using a learning vector quantization method, and all patterns used for learning. , A first step of creating a plurality of reference vectors respectively representing the belonging categories, a second step of selecting one learning vector of which the belonging category is already known, and a distance from the selected learning vector is minimized. The third step of detecting the reference vector, and if the detected reference vector belongs to a category different from the learning vector, move it in a direction away from the learning vector, and on the other hand, belong to the same category as the learning vector. A fourth step of moving the reference vector in a direction closer to the learning vector, A scale factor that reflects the distribution of a plurality of reference vectors is attached to the distance function that is represented, the scale factor is changed when each reference vector moves, and the second to fourth steps are performed until a predetermined evaluation criterion is reached. It is characterized by repeating a finite number of times.

【0012】上記方法において、前記各参照パターンベ
クトルの移動は、例えば前記学習ベクトルと当該参照ベ
クトルとの差ベクトルのスカラ倍と当該参照ベクトルと
の和をとることにより行う。この場合は、上記第一乃至
第四の段階を繰り返す度に、差ベクトルのスカラ倍率を
小さくすることが好ましい。
In the above method, the movement of each reference pattern vector is performed, for example, by taking the sum of the reference vector and the scalar multiple of the difference vector between the learning vector and the reference vector. In this case, it is preferable to reduce the scalar magnification of the difference vector each time the first to fourth steps are repeated.

【0013】[0013]

【作用】一般に、所属カテゴリの異なる参照ベクトルが
互いに隣接している場合には誤認識を起こし易い。従っ
て、参照ベクトルを移動させるときに、所属カテゴリの
異なる参照ベクトルは互いに離れるように移動させると
ともに、ベクトル空間において所属カテゴリごとに参照
ベクトルが小集団を形成するように移動させることが好
ましい。しかし、スケールファクタを考慮しない距離を
用いた場合には、参照ベクトルの分布状況が反映されな
いので、互いにカテゴリの異なる参照ベクトルを移動さ
せた結果、却って上記のような小集団が崩れるおそれが
ある。
In general, if reference vectors belonging to different categories are adjacent to each other, misrecognition is likely to occur. Therefore, when moving the reference vectors, it is preferable to move the reference vectors having different belonging categories away from each other and move the reference vectors to form a small group for each belonging category in the vector space. However, when a distance that does not consider the scale factor is used, the distribution state of the reference vectors is not reflected, and as a result of moving the reference vectors having different categories, the small group as described above may be destroyed.

【0014】本発明のパターン認識辞書作成方法では、
参照ベクトルの分布状況を反映するスケールファクタを
付随させた距離関数を用い、各参照ベクトルの移動時に
このスケールファクタを変更することで、参照ベクトル
の分布の様子を反映しながらベクトル量子化を行う。従
って、参照ベクトルの特徴空間における位置の最適化だ
けでなく、参照ベクトルがその所属カテゴリ毎に上記小
集団を形成する確率が高くなり、またこのような小集団
が崩れることも避けられるので、移動後の参照ベクトル
は、この学習ベクトルに近い特徴ベクトルを有するパタ
ーンの認識に用いられる確率が高くなる。また、上記学
習ベクトルに近い特徴ベクトルを有するパターンは、こ
の学習ベクトルと同じカテゴリに属する確率が高いの
で、認識率も高まる。
In the pattern recognition dictionary creating method of the present invention,
Vector quantization is performed while reflecting the distribution of the reference vector by changing the scale factor when moving each reference vector by using a distance function accompanied by a scale factor that reflects the distribution state of the reference vector. Therefore, in addition to optimizing the position of the reference vector in the feature space, the probability that the reference vector forms the above-mentioned small group for each category to which it belongs increases, and it is possible to avoid collapse of such a small group. The subsequent reference vector has a high probability of being used for recognizing a pattern having a feature vector close to this learning vector. Further, a pattern having a feature vector close to the learning vector has a high probability of belonging to the same category as this learning vector, and therefore the recognition rate is also increased.

【0015】また、学習ベクトルと参照ベクトルとの差
ベクトルのスカラ倍をもとの参照ベクトルに加えると、
参照ベクトルを移動させたときの上記差ベクトルのスカ
ラ倍は、もとの参照ベクトルを学習ベクトルから一定の
距離内に移動させるようなベクトルのうち最も小さいも
のとなる。一般に、参照ベクトルの移動距離が大きくな
ると、該参照ベクトルが収束すべき理想点からずれる距
離も大きくなり易い。従って、本発明の方法のように移
動距離の最も小さいベクトルを用いるようにすれば、理
想点からのずれが極力小さく抑えられる。
If a scalar multiple of the difference vector between the learning vector and the reference vector is added to the original reference vector,
The scalar multiple of the difference vector when the reference vector is moved is the smallest of the vectors that move the original reference vector within a certain distance from the learning vector. Generally, as the movement distance of the reference vector increases, the distance that the reference vector deviates from the ideal point to converge tends to increase. Therefore, if the vector with the smallest movement distance is used as in the method of the present invention, the deviation from the ideal point can be suppressed as small as possible.

【0016】更に、第四段階、即ちベクトル位置の最適
化を行う度に、前記差ベクトルのスカラ倍率を小さくす
ることで、繰り返し数が多くなるにつれて上記理想点か
らのずれがより小さくなる。特に、学習回数と無関係に
参照ベクトルを移動させた場合、該参照ベクトルの動き
がループにはまって一定値に定まらなくなる(無限ルー
プ)虞があるが、本発明のように差ベクトルのスカラ倍
率を順次小さくすることで、参照ベクトルの移動距離が
小さくなるので、無限ループが回避される。
Furthermore, the fourth step, that is, each time the vector position is optimized, the scalar magnification of the difference vector is reduced, so that the deviation from the ideal point becomes smaller as the number of iterations increases. In particular, when the reference vector is moved regardless of the number of times of learning, the movement of the reference vector may get stuck in a loop and may not be set to a constant value (infinite loop). Since the moving distance of the reference vector becomes smaller by making it smaller successively, an infinite loop can be avoided.

【0017】[0017]

【実施例】次に、図面を参照して本発明の実施例を詳細
に説明する。図1は本発明の一実施例に係るパターン認
識辞書作成装置の構成図であり、1は学習パターン入力
装置、2は学習パターン格納部、3は中央処理装置(C
PU)、4は辞書格納メモリを示す。
Embodiments of the present invention will now be described in detail with reference to the drawings. FIG. 1 is a block diagram of a pattern recognition dictionary creating apparatus according to an embodiment of the present invention, in which 1 is a learning pattern input device, 2 is a learning pattern storage unit, and 3 is a central processing unit (C).
PU), 4 is a dictionary storage memory.

【0018】学習パターン入力部1は、学習対象となる
パターンを入力するもので、例えばスキャナ、マイクロ
フォン等を用いる。学習パターン格納部2は、入力され
た学習対象パターンをベクトル化してカテゴリ毎に格納
するディスクである。
The learning pattern input section 1 is for inputting a pattern to be learned and uses, for example, a scanner, a microphone or the like. The learning pattern storage unit 2 is a disk that vectorizes the input learning target pattern and stores it for each category.

【0019】また、CPU3は、学習パターン格納部2
に格納された全てのパターンについてカテゴリ内クラス
タリング等の手法で初期辞書を作成・登録するとともに
逐次その更新を行う辞書作成・更新部31と、所属カテ
ゴリが既知の1つのパターン(学習ベクトル)を選択す
る学習パターン選択部32と、この学習パターンの認識
処理を行う認識部33と、辞書内のベクトル位置の最適
化処理を行う辞書処理部34と、上記各部の制御を行う
学習制御部35とからなる。
The CPU 3 also uses the learning pattern storage unit 2
A dictionary creating / updating unit 31 that creates and registers an initial dictionary by a method such as intra-category clustering for all patterns stored in, and one pattern (learning vector) whose belonging category is already known is selected. From the learning pattern selecting unit 32, the recognizing unit 33 that performs the learning pattern recognizing process, the dictionary processing unit 34 that optimizes the vector position in the dictionary, and the learning control unit 35 that controls the above units. Become.

【0020】辞書格納メモリ4は、辞書作成・更新部3
1で作成した辞書(参照ベクトルの集合)を格納し、こ
れを認識部33における認識辞書として使用する。この
辞書は、辞書処理部34の処理終了の度に逐次更新さ
れ、次のサイクルの認識辞書として使用される。
The dictionary storage memory 4 includes a dictionary creating / updating unit 3
The dictionary (set of reference vectors) created in 1 is stored, and this is used as the recognition dictionary in the recognition unit 33. This dictionary is sequentially updated each time the processing of the dictionary processing unit 34 ends, and is used as a recognition dictionary in the next cycle.

【0021】次に、CPU3における処理手順を示す図
2を参照して本実施例に係るパターン認識辞書作成装置
の動作例を説明する。なお、Sは処理ステップを表す。
この例においては、まず初期辞書作成部31で初期辞書
を作成する(S21)。具体的には、学習パターン格納
部2から入力された学習ベクトルをWard法、k−平
均法等のクラスタリング手法を用いてカテゴリ毎にクラ
スタリング処理し、複数の参照ベクトルを得る。なお、
各参照ベクトルの所属カテゴリは、もとの学習パターン
が所属するカテゴリと同じになる。この初期辞書を辞書
格納メモリ4に登録する(S22)。
Next, an operation example of the pattern recognition dictionary creating apparatus according to the present embodiment will be described with reference to FIG. 2 showing a processing procedure in the CPU 3. In addition, S represents a processing step.
In this example, first, the initial dictionary creating unit 31 creates an initial dictionary (S21). Specifically, the learning vector input from the learning pattern storage unit 2 is subjected to clustering processing for each category using a clustering method such as the Ward method or the k-means method to obtain a plurality of reference vectors. In addition,
The category to which each reference vector belongs is the same as the category to which the original learning pattern belongs. This initial dictionary is registered in the dictionary storage memory 4 (S22).

【0022】次に、学習ベクトル選択部32において、
所属カテゴリが既知の任意の学習ベクトルを選択する
(S23)。認識部33は、上記S21及びS22で作
成・登録した初期辞書を用い、選択された学習ベクトル
の所属カテゴリの認識処理を行う(S24)。具体的に
は、選択された学習ベクトルに最も類似する、つまり距
離の短い参照ベクトルの所属カテゴリを認識対象の学習
ベクトルの所属カテゴリと判断する。その後、所属カテ
ゴリが正しく認識されたかどうかを判定する(S2
5)。
Next, in the learning vector selection unit 32,
An arbitrary learning vector whose belonging category is known is selected (S23). The recognition unit 33 uses the initial dictionary created and registered in S21 and S22 to recognize the category to which the selected learning vector belongs (S24). Specifically, it determines that the belonging category of the reference vector that is most similar to the selected learning vector, that is, has a short distance, is the belonging category of the learning vector to be recognized. Then, it is determined whether or not the belonging category is correctly recognized (S2
5).

【0023】学習ベクトルの所属カテゴリが正しく認識
されなかったときは、辞書処理部34において参照ベク
トルの移動及びスケールファクタの移動を行う(S2
6)。この処理は、例えば学習ベクトルのベクトル空間
における位置が、認識すべきカテゴリの参照ベクトルと
の識別境界付近に存在するものとすると、具体的には以
下のようにして行う。
When the category to which the learning vector belongs is not correctly recognized, the dictionary processing unit 34 moves the reference vector and the scale factor (S2).
6). For example, assuming that the position of the learning vector in the vector space exists near the discrimination boundary with the reference vector of the category to be recognized, this process is specifically performed as follows.

【0024】選択された学習ベクトルと同一カテゴリと
なる参照ベクトルのうち、この学習ベクトルに最も近い
ものを検出し、この参照ベクトルを上記学習ベクトルに
より近づける。その際、カテゴリの分布を反映するスケ
ールファクタを変更する。他方、この学習ベクトルから
の距離が上記同一カテゴリの参照ベクトルよりも近い他
の全ての参照ベクトルを、上記学習ベクトルから遠ざ
け、同時に上記スケールファクタを変更する。当然のこ
とながら、これら他の参照ベクトルの所属カテゴリは、
上記学習ベクトルの所属カテゴリとは異なっている。
Of the reference vectors in the same category as the selected learning vector, the reference vector closest to this learning vector is detected, and this reference vector is brought closer to the learning vector. At that time, the scale factor that reflects the category distribution is changed. On the other hand, all other reference vectors whose distance from the learning vector is closer than the reference vector of the same category are moved away from the learning vector, and at the same time, the scale factor is changed. Naturally, the category to which these other reference vectors belong is
It is different from the category to which the learning vector belongs.

【0025】そして、終了条件を充たすか否かを判定し
(S27)、充たさないときは、S22以降の処理を繰
り返す。終了条件を充たすとき、例えば全ての学習ベク
トルに対して誤認識がなくなるか、あるいは学習回数が
所定の回数に達したときは、学習を終了し、その時点で
の認識辞書をパターン認識辞書とする。
Then, it is determined whether or not the end condition is satisfied (S27), and if not satisfied, the processes of S22 and thereafter are repeated. When the termination condition is satisfied, for example, when all recognition vectors are erroneously recognized or the number of times of learning reaches a predetermined number, the learning is ended and the recognition dictionary at that time is set as the pattern recognition dictionary. .

【0026】次に、上記S24〜S27において着目す
る距離関数について詳述する。ベクトル間の距離の定義
としては、ユークリッド距離、マハラノビス距離、バッ
タチャリャ距離等があるが、本実施例では、参照ベクト
ルの分布状況を反映するスケールファクタを考慮に入れ
たマハラノビス距離を認識のための評価関数として用い
た。
Next, the distance function of interest in S24 to S27 will be described in detail. As the definition of the distance between the vectors, there are Euclidean distance, Mahalanobis distance, Bhattacharya distance, etc., but in the present embodiment, the evaluation for recognizing the Mahalanobis distance in consideration of the scale factor reflecting the distribution state of the reference vector. Used as a function.

【0027】以下に、このマハラノビス距離を用いると
ともに、学習ベクトルと移動前の参照ベクトルとの差ベ
クトルをスカラ倍して得られるベクトルを補正ベクトル
とし、この補正ベクトルと、もとの参照ベクトルとの和
をとることによって参照ベクトルの移動を行う例を挙げ
る。この例における参照ベクトルの具体的な移動は、下
記の(1)式にて表される。
Below, this Mahalanobis distance is used, and a vector obtained by scalar-multiplying the difference vector between the learning vector and the reference vector before movement is taken as the correction vector, and this correction vector and the original reference vector are An example in which the reference vector is moved by taking the sum will be given. The specific movement of the reference vector in this example is represented by the following equation (1).

【0028】[0028]

【数1】 μi(t)=μi(t-1)±α(t){xi−μi(t-1)} …(1) 但し t 時間(学習回数) x 学習ベクトル α(t) 減少関数(0<α(t)<1) i 次元数を表すインデックス## EQU1 ## μ i (t) = μ i (t-1) ± α (t) {x i −μ i (t-1)} (1) where t time (number of learning times) x learning vector α ( t) Decrease function (0 <α (t) <1) i Index representing the number of dimensions

【0029】なお、α(t)の符号は、参照ベクトルを学
習ベクトルに近づける場合には正、学習ベクトルから遠
ざける場合には負とする。この式においては、{xi−μ
i(t-1)}で表されるベクトルが、補正ベクトルとなる。
ここで、α(t)を1、符号を正とすると、移動後の参照
ベクトルは、学習ベクトルと一致する。
The sign of α (t) is positive when the reference vector is brought close to the learning vector, and is negative when it is moved away from the learning vector. In this equation, {x i −μ
The vector represented by i (t-1)} is the correction vector.
Here, when α (t) is 1 and the sign is positive, the reference vector after movement matches the learning vector.

【0030】また、学習回数に無関係に参照ベクトルを
移動させた場合、参照ベクトルの動きがループにはまっ
て一定値に定まらなくなる虞があるので、この例では、
α(t)を減少関数とすることで、学習回数が多くなるに
つれて参照ベクトルの移動距離(補正ベクトルの大き
さ)を小さくし、このような無限ループを極力回避する
ようにしている。後述するスケールファクタの最適化に
おいても同様のことがいえる。この移動式は、認識辞書
全体に下記(2)式のような評価関数を設定した場合に
おける、該評価関数を最小化する緩和的降下法となって
いる。
Further, when the reference vector is moved regardless of the number of times of learning, the movement of the reference vector may get stuck in a loop and may not be set to a constant value. Therefore, in this example,
By making α (t) a decreasing function, the moving distance of the reference vector (the size of the correction vector) becomes smaller as the number of learning increases, and such an infinite loop is avoided as much as possible. The same applies to the optimization of the scale factor described later. This moving formula is a relaxation descent method that minimizes the evaluation function when the evaluation function as shown in the following formula (2) is set in the entire recognition dictionary.

【0031】[0031]

【数2】 φL=ΣC∫{Σi(xi−μi)2}dx−ΣF∫{Σi(xi−μi)2}dx …(2) 但し、 φL 評価関数 ΣC 辞書によって正しい所属カテゴリが得られるパ
ターンに関する総和 Σi iに関する1〜d(特徴空間の次元数)までの
総和 ΣF 辞書によって正しい所属カテゴリが得られない
パターンに関する総和 μiiのカテゴリ判断に用いる参照ベクトル
[Mathematical formula-see original document] φ L = ΣC∫ {Σi (x i −μ i ) 2 } dx−ΣF ∫ {Σ i (x i −μ i ) 2 } dx (2) However, the φ L evaluation function is correct according to the ΣC dictionary. Sum of patterns for which belonging category is obtained Σi Sum of 1 to d (number of dimensions of feature space) regarding i ΣF Reference vector used for category judgment of sum μ i x i regarding patterns for which correct belonging category cannot be obtained from dictionary

【0032】参照ベクトルの分布状態を反映するスケー
ルファクタωijを考慮に入れたマハラノビス距離D
2は、例えば下記(3)式で表される。
Mahalanobis distance D considering the scale factor ω ij reflecting the distribution state of the reference vector
2 is represented by the following formula (3), for example.

【数3】 D2 =ΣiΣj{ωij(xi−μi)(xj−μj)} …(3)[Equation 3] D2 = ΣiΣj {ωij(xii) (xjj)}… (3)

【0033】このマハラノビス距離D2を用いた認識系
において、上記例と同様の評価関数は、下記(4)式の
ように表される。
In the recognition system using the Mahalanobis distance D 2 , the same evaluation function as in the above example is expressed by the following equation (4).

【数4】 φL=ΣC∫[ΣiΣj{ωij(xii)(xjj)}]dx -ΣF∫[ΣiΣj{ωij(xii)(xjj)}]dx …(4)[Equation 4]  φL= ΣC∫ [ΣiΣj {ωij(xii) (xjj)}] dx -ΣF∫ [ΣiΣj {ωij(xii) (xjj)}] dx… (4)

【0034】この評価関数を最小化する緩和的降下法
は、下記(5)式及び(6)式で表される。
The relaxation descent method for minimizing this evaluation function is expressed by the following equations (5) and (6).

【数5】 μi(t)=μi(t-1)±α(t)ωij{xj−μj(t-1)} …(5) ωij(t)=ωij(t−1)±α(t){xi−μi(t−1)}{xj−μj(t−1)} …(6) 但し、 ω(t) 学習回数t(移動後)の参照ベクトル ω(t-1) 学習回数t-1(移動前)の参照ベクトル x 学習ベクトル α(t) 減少関数(0<α(t)<1) i 次元数を表すインデックス μi,μji,xjに最も近い参照ベクトル[Expression 5] μ i (t) = μ i (t-1) ± α (t) ω ij {x j −μ j (t-1)} (5) ω ij (t) = ω ij (t −1) ± α (t) {x i −μ i (t−1)} {x j −μ j (t−1)} (6) where ω (t) learning number t (after movement) Reference vector ω (t-1) Reference number x of learning number t-1 (before movement) x Learning vector α (t) Decreasing function (0 <α (t) <1) i Index μ i , μ j representing the number of dimensions the reference vector closest to x i , x j

【0035】なお、(1)式と同様に、α(t)の符号
は、参照ベクトルを学習ベクトルに近づける場合には
正、学習ベクトルから遠ざける場合には負とする。
As in the equation (1), the sign of α (t) is positive when the reference vector is close to the learning vector, and is negative when the reference vector is far from the learning vector.

【0036】この例のような認識系では、(1)式によ
って参照ベクトルを移動させ、更に(5)式によってス
ケールファクタを変更することができる。なお、上記説
明は、マハラノビス距離に基づく評価関数の例である
が、本発明は上記距離関数に限定されるものではなく、
他の距離関数によっても実施できることはいうまでもな
い。
In the recognition system as in this example, the reference vector can be moved by the equation (1), and the scale factor can be changed by the equation (5). Although the above description is an example of the evaluation function based on the Mahalanobis distance, the present invention is not limited to the above distance function,
It goes without saying that it can be implemented by other distance functions.

【0037】[0037]

【発明の効果】以上の説明から明らかなように、本発明
のパターン認識辞書作成方法によれば、学習を繰り返す
際に、参照ベクトルの分布状況を反映したうえで参照ベ
クトルが移動される。従って、参照ベクトルの特徴空間
における位置の最適化だけでなく、カテゴリ毎に参照ベ
クトルをある程度まとめることができ、認識精度の高い
パターン認識辞書を効率よく作成することが可能とな
る。
As is apparent from the above description, according to the pattern recognition dictionary creating method of the present invention, when the learning is repeated, the reference vector is moved while reflecting the distribution state of the reference vector. Therefore, not only the optimization of the position of the reference vector in the feature space but also the reference vectors can be grouped to some extent for each category, and a pattern recognition dictionary with high recognition accuracy can be efficiently created.

【0038】また、学習ベクトルと移動させる参照ベク
トルとの差ベクトルのスカラ倍をもとの参照ベクトルに
加えることで、収束すべき理想点からのずれが極力小さ
く抑えられ、作成されるパターン認識辞書の認識率が更
に高まる効果がある。
Further, by adding a scalar multiple of the difference vector between the learning vector and the reference vector to be moved to the original reference vector, the deviation from the ideal point to be converged can be suppressed as small as possible, and the pattern recognition dictionary created. It has the effect of further increasing the recognition rate.

【0039】更に、ベクトル位置の最適化を行う度に、
上記差ベクトルのスカラ倍率を小さくすることで、繰り
返し数が多くなるにつれて上記理想点からのずれがより
小さくなり、効率良く参照ベクトルを移動させることが
できる。
Further, each time the vector position is optimized,
By reducing the scalar magnification of the difference vector, the deviation from the ideal point becomes smaller as the number of repetitions increases, and the reference vector can be efficiently moved.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例に係るパターン認識辞書作成
装置の構成図。
FIG. 1 is a configuration diagram of a pattern recognition dictionary creating apparatus according to an embodiment of the present invention.

【図2】上記パターン認識辞書作成装置の処理手順の一
例を示すフローチャート。
FIG. 2 is a flowchart showing an example of a processing procedure of the pattern recognition dictionary creation device.

【符号の説明】[Explanation of symbols]

1 学習パターン入力装置 2 学習パターン格納部 3 中央処理装置(CPU) 31 辞書作成・更新部 32 学習パターン選択部 33 認識部 34 辞書処理部 35 学習制御部 4 辞書格納メモリ 1 Learning Pattern Input Device 2 Learning Pattern Storage Unit 3 Central Processing Unit (CPU) 31 Dictionary Creation / Update Unit 32 Learning Pattern Selection Unit 33 Recognition Unit 34 Dictionary Processing Unit 35 Learning Control Unit 4 Dictionary Storage Memory

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 学習ベクトル量子化法を用いてパターン
認識辞書におけるベクトル位置の最適化を行う方法であ
って、 学習に用いる全てのパターンについてその所属カテゴリ
をそれぞれ代表する複数の参照パターンベクトルを作成
する第一の段階と、 所属カテゴリが既知の1つの学習ベクトルを選択する第
二の段階と、 選択した学習ベクトルからの距離が最小となる前記参照
パターンベクトルを検出する第三の段階と、 検出した参照パターンベクトルが前記学習ベクトルと異
なるカテゴリに属する場合に、これを前記学習ベクトル
から離れる方向に移動させ、他方、前記学習ベクトルと
同一カテゴリに属する場合に、該参照パターンベクトル
を前記学習ベクトルにより近付く方向に移動させる第四
の段階とを有し、 前記距離を表す距離関数に複数の参照パターンベクトル
の分布状況を反映するスケールファクタを付随させ、各
参照パターンベクトルの移動時に該スケールファクタを
変更するとともに、前記第二乃至第四の段階を所定の評
価基準に達するまで有限回繰り返すことを特徴とするパ
ターン認識辞書作成方法。
1. A method for optimizing a vector position in a pattern recognition dictionary using a learning vector quantization method, wherein a plurality of reference pattern vectors representing respective belonging categories are created for all patterns used for learning. A first step of selecting, a second step of selecting one learning vector whose belonging category is already known, a third step of detecting the reference pattern vector having a minimum distance from the selected learning vector, If the reference pattern vector belongs to a category different from the learning vector, it is moved in a direction away from the learning vector. On the other hand, if the reference pattern vector belongs to the same category as the learning vector, the reference pattern vector is changed by the learning vector. A fourth step of moving in the approaching direction, and a distance function representing the distance A scale factor reflecting the distribution of a plurality of reference pattern vectors is attached, the scale factor is changed when each reference pattern vector is moved, and the second to fourth steps are performed a finite number of times until a predetermined evaluation criterion is reached. A method for creating a pattern recognition dictionary characterized by repeating.
【請求項2】 請求項1記載のパターン認識辞書作成方
法において、 前記各参照パターンベクトルの移動は、前記学習ベクト
ルと当該参照パターンベクトルとの差ベクトルのスカラ
倍と当該参照パターンベクトルとの和をとることにより
行うことを特徴とするパターン認識辞書作成方法。
2. The pattern recognition dictionary creating method according to claim 1, wherein the movement of each reference pattern vector is a sum of a scalar multiple of a difference vector between the learning vector and the reference pattern vector and the reference pattern vector. A method for creating a pattern recognition dictionary, which is characterized by being performed.
【請求項3】 請求項2記載のパターン認識辞書作成方
法において、 前記第一乃至第四の段階を繰り返す度に、前記差ベクト
ルのスカラ倍率を小さくすることを特徴とするパターン
認識辞書作成方法。
3. The pattern recognition dictionary creating method according to claim 2, wherein the scalar magnification of the difference vector is reduced each time the first to fourth steps are repeated.
JP01685894A 1994-02-10 1994-02-10 How to create a pattern recognition dictionary Expired - Fee Related JP3249676B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP01685894A JP3249676B2 (en) 1994-02-10 1994-02-10 How to create a pattern recognition dictionary

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP01685894A JP3249676B2 (en) 1994-02-10 1994-02-10 How to create a pattern recognition dictionary

Publications (2)

Publication Number Publication Date
JPH07225836A true JPH07225836A (en) 1995-08-22
JP3249676B2 JP3249676B2 (en) 2002-01-21

Family

ID=11927922

Family Applications (1)

Application Number Title Priority Date Filing Date
JP01685894A Expired - Fee Related JP3249676B2 (en) 1994-02-10 1994-02-10 How to create a pattern recognition dictionary

Country Status (1)

Country Link
JP (1) JP3249676B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07225749A (en) * 1994-02-14 1995-08-22 Nec Corp Data sorting device
WO2002025591A1 (en) * 2000-09-25 2002-03-28 Olympus Optical Co., Ltd. Pattern categorizing method and device and computer-readable storage medium

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07225749A (en) * 1994-02-14 1995-08-22 Nec Corp Data sorting device
WO2002025591A1 (en) * 2000-09-25 2002-03-28 Olympus Optical Co., Ltd. Pattern categorizing method and device and computer-readable storage medium
US6931386B2 (en) 2000-09-25 2005-08-16 Olympus Optical Co., Ltd. Pattern classification method and apparatus thereof, and computer readable storage medium

Also Published As

Publication number Publication date
JP3249676B2 (en) 2002-01-21

Similar Documents

Publication Publication Date Title
EP0425290B1 (en) Character recognition based on probability clustering
JP2795058B2 (en) Time series signal processing device
JP3088171B2 (en) Self-organizing pattern classification system and classification method
US6208971B1 (en) Method and apparatus for command recognition using data-driven semantic inference
US5768422A (en) Method for training an adaptive statistical classifier to discriminate against inproper patterns
US5805731A (en) Adaptive statistical classifier which provides reliable estimates or output classes having low probabilities
US5805730A (en) Method for training an adaptive statistical classifier with improved learning of difficult samples
US5903884A (en) Method for training a statistical classifier with reduced tendency for overfitting
US20230186912A1 (en) Speech recognition method, apparatus and device, and storage medium
US6044344A (en) Constrained corrective training for continuous parameter system
JP2775140B2 (en) Pattern recognition method, voice recognition method, and voice recognition device
Biem Minimum classification error training for online handwriting recognition
JP7052866B2 (en) Self-training data sorting device, estimation model learning device, self-training data sorting method, estimation model learning method, and program
JP6787770B2 (en) Language mnemonic and language dialogue system
CN111695052A (en) Label classification method, data processing device and readable storage medium
US5794190A (en) Speech pattern recognition using pattern recognizers and classifiers
McDermott et al. Prototype-based minimum classification error/generalized probabilistic descent training for various speech units
JPH0934486A (en) Method and device for voice acknowledgement, information forming method, and recording medium
JP2023509257A (en) Method, apparatus, equipment, and storage medium for predicting polyphonic pronunciation
WO1993013519A1 (en) Composite expert
Kurimo Using self-organizing maps and learning vector quantization for mixture density hidden Markov models
CN113806645A (en) Label classification system and training system of label classification model
US5555439A (en) Learning system and a learning pattern showing method for a neural network
CN114530145A (en) Speech recognition result error correction method and device, and computer readable storage medium
Anigbogu et al. Hidden Markov models in text recognition

Legal Events

Date Code Title Description
R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071109

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081109

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091109

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091109

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101109

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111109

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121109

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121109

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131109

Year of fee payment: 12

LAPS Cancellation because of no payment of annual fees