JPH04295893A - Pattern recognition system - Google Patents

Pattern recognition system

Info

Publication number
JPH04295893A
JPH04295893A JP3061842A JP6184291A JPH04295893A JP H04295893 A JPH04295893 A JP H04295893A JP 3061842 A JP3061842 A JP 3061842A JP 6184291 A JP6184291 A JP 6184291A JP H04295893 A JPH04295893 A JP H04295893A
Authority
JP
Japan
Prior art keywords
data
pattern
standard
standard pattern
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP3061842A
Other languages
Japanese (ja)
Other versions
JP3110478B2 (en
Inventor
Akio Ando
彰男 安藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK, Japan Broadcasting Corp filed Critical Nippon Hoso Kyokai NHK
Priority to JP03061842A priority Critical patent/JP3110478B2/en
Publication of JPH04295893A publication Critical patent/JPH04295893A/en
Application granted granted Critical
Publication of JP3110478B2 publication Critical patent/JP3110478B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

PURPOSE:To offer the pattern recognition system having high discriminating ability. CONSTITUTION:Voice data is sampled by a sampling means 1, an LPC cepstrum coefficient is calculated by an LPC cepstrum analyzing means 2, vowel data is segmented by a vowel data segmenting means 3, this segmented data is set as learning data, this learning data is recognized by using standard patterns prepared by plural pieces each at every category by a standard pattern learning means 4, the degree of an erroneous recognition at that time is constituted as a function of this standard pattern, an optimal pattern for minimizing this function is derived and stored in a storage means 5, the derived optimal standard pattern and input data are collated by a collating means 6, and based on its result, a category corresponding to the standard pattern being the nearest to the input data is derived as a result of recognition by a deciding means 7.

Description

【発明の詳細な説明】[Detailed description of the invention]

【0001】0001

【産業上の利用分野】本発明は、標準パターンを用いて
データの認識を行なうパターン認識方式に係り、特に、
各カテゴリごとに複数個の標準パターンを用意してデー
タの識別を行なうパターン認識方式に関する。
[Field of Industrial Application] The present invention relates to a pattern recognition method for recognizing data using standard patterns, and in particular,
This invention relates to a pattern recognition method that identifies data by preparing a plurality of standard patterns for each category.

【0002】0002

【発明の概要】本発明は、各カテゴリごとに複数個ずつ
用意した標準パターンを用いてデータの識別を行なうパ
ターン認識のための標準パターン構成法に関するもので
、与えられた学習データ全体を標準パターンを用いて認
識した時の誤認識の程度を当該標準パターンの関数とし
て構成した上、この関数を最小化する最適標準パターン
を求めることにより、従来から用いられている標準パタ
ーンの学習法を用いて標準パターンを構成して認識を行
なう場合よりも高い識別性能を提供するパターン認識方
式である。
SUMMARY OF THE INVENTION The present invention relates to a standard pattern construction method for pattern recognition in which data is identified using a plurality of standard patterns prepared for each category. By configuring the degree of misrecognition when recognizing using the standard pattern as a function of the standard pattern, and then finding the optimal standard pattern that minimizes this function, we can use the conventional standard pattern learning method. This is a pattern recognition method that provides higher identification performance than when recognition is performed by configuring standard patterns.

【0003】0003

【従来の技術】各カテゴリごとに複数個の標準パターン
を用意してデータの識別を行なうパターン認識方式のた
めの標準パターン構成法として、例えば、T.Koho
nen“Self  Organization  a
nd  Associative  Memory”に
示されているLVQ(Learning  Vecto
r  Quantization)があり、その改良版
であるLVQ2は広く用いられているる。LVQ2は、
学習データを用いて繰返し標準パターンを修正していく
方法で、t回目の学習ステップについて考えると、先ず
1つの学習データ(xで表わす)を選んだ上、xに最も
近い標準パターン(mi (t)で表わす)がxとは異
なるカテゴリに属し、かつxに2番目に近い標準パター
ン(mj (t)で表わす)がxと同じカテゴリに属す
る場合において、x,mi (t),mj (t)の位
置関係がある条件(xがmi (t)とmj (t)に
よって決まる「窓」の中に入る)を満たす場合に次のよ
うな「学習」を行なう方法である: (1)mi をxから遠ざけるように修正する;mi 
(t+1)=mi (t)−α(t)(x−mi(t)
) (2)mj をxに近づけるよう修正する;mj (t
+1)=mj (t)+α(t)(x−mj(t)) (3)mi ,mj 以外の標準パターンは修正しない
;mk (t+1)=mk (t),    k≠i,
j上式において、α(t)は、初期値が0≦α(0)≦
1を満たすtの単調減少関数で、繰返しの最終段階にお
いて0となるように設定される。LVQ2ではこのよう
な学習の繰返し数と、α(t)を適当に設計してやれば
、学習データに対して誤認識数を少なくするような標準
パターンの組が得られることが知られている。
2. Description of the Related Art As a standard pattern construction method for a pattern recognition system in which a plurality of standard patterns are prepared for each category and data is identified, for example, T. Koho
nen“Self Organization a
LVQ (Learning Vecto
r Quantization), and its improved version, LVQ2, is widely used. LVQ2 is
Considering the t-th learning step in a method of repeatedly modifying the standard pattern using learning data, first select one learning data (represented by x), and then select the standard pattern (mi (t ) belongs to a different category from x, and the second closest standard pattern to x (denoted by mj (t)) belongs to the same category as x, then x, mi (t), mj (t ) satisfies the condition that x falls within the "window" determined by mi (t) and mj (t): (1) mi Modify to move away from x;mi
(t+1)=mi(t)−α(t)(x−mi(t)
) (2) Modify mj to bring it closer to x; mj (t
+1)=mj (t)+α(t)(x-mj(t)) (3) Standard patterns other than mi and mj are not modified; mk (t+1)=mk (t), k≠i,
jIn the above formula, α(t) has an initial value of 0≦α(0)≦
It is a monotonically decreasing function of t that satisfies 1 and is set to 0 at the final stage of the iteration. It is known that in LVQ2, if the number of repetitions of such learning and α(t) are appropriately designed, a set of standard patterns can be obtained that reduces the number of false recognitions for the learning data.

【0004】0004

【発明が解決しようとする課題】LVQ2が標準パター
ンの構成に有効であることは広く知られているが、LV
Q2には「学習データに対する誤認識数の減少のみを目
的としているため、特に学習データ数が少ない場合には
、未知データに対し高い識別能力を得ることが難しい。 」という問題点がある。
[Problems to be Solved by the Invention] It is widely known that LVQ2 is effective in configuring standard patterns, but LVQ2
Q2 has the problem that ``Since the purpose is only to reduce the number of false recognitions for learning data, it is difficult to obtain high discrimination ability for unknown data, especially when the amount of learning data is small.''

【0005】そこで本発明の目的は、誤認識数の概念を
拡張して誤認識の程度を表わす関数を定義した上、この
関数を学習データに対し最小化することによって、少な
い学習データからでも精度良く最適標準パターンを構成
し、この最適標準パターンを用いてデータの識別を行な
うという枠組みの中で、従来法に比べ未知データに対し
て高い識別能力を持つパターン認識方式を提供すること
にある。
[0005] Therefore, the purpose of the present invention is to expand the concept of the number of misrecognitions, define a function that expresses the degree of misrecognition, and then minimize this function with respect to learning data, thereby increasing accuracy even from a small amount of learning data. The object of the present invention is to provide a pattern recognition method that has a higher ability to identify unknown data than conventional methods, within the framework of composing an optimal standard pattern and identifying data using this optimal standard pattern.

【0006】[0006]

【課題を解決するための手段】上記目的を達成するため
本発明は各カテゴリごとに複数個ずつ用意された標準パ
ターンを用いてデータの認識を行なうパターン認識方式
において、与えられた学習データを標準パターンを用い
て認識した時の誤認識の程度を当該標準パターンの関数
として構成し、当該関数を最小化する最適標準パターン
を求め、当該最適標準パターンを用いてデータの認識を
行なうことを特徴とする。
[Means for Solving the Problems] In order to achieve the above object, the present invention provides a pattern recognition method in which data is recognized using a plurality of standard patterns prepared for each category. The method is characterized in that the degree of misrecognition when recognizing using a pattern is configured as a function of the standard pattern, an optimal standard pattern that minimizes the function is found, and data is recognized using the optimal standard pattern. do.

【0007】[0007]

【作用】本発明によれば与えられた学習データ全体を標
準パターンを用いて認識した時の誤認識の程度を当該標
準パターンの関数として構成し、この関数を最小化する
最適標準パターンを求め、この最適標準パターンを用い
てデータ認識を行なうことによって、高い識別性能が得
られる。
[Operation] According to the present invention, the degree of misrecognition when the entire given learning data is recognized using a standard pattern is constructed as a function of the standard pattern, and an optimal standard pattern that minimizes this function is determined. By performing data recognition using this optimal standard pattern, high identification performance can be obtained.

【0008】[0008]

【実施例】以下、実施例に基づいて本発明を詳細に説明
する。
EXAMPLES The present invention will be explained in detail below based on examples.

【0009】先ず、次のように記法を定める。First, the notation is defined as follows.

【0010】Rp :p次元ユークリッド空間K:認識
すべきパターンのカテゴリ数 Ni :カテゴリiに対する学習データの数(i=1,
…,K) Mi :カテゴリiに対する標準パターンの数(i=1
,…,K) xij:学習データ(xij  ∈Rp )(i=1,
…,K、j=1,…,Ni )tir:カテゴリiに対
するr番目の標準パターン(tir  ∈Rp ) (i=1,…,K、r=1,…,Mi )E:標準パタ
ーンの組{tir}を用いて全学習データ{xIJ}を
識別した時の誤認識の程度を表わす関数L,m:繰り返
しの回数 本発明は、上記のEを最小にする標準パターンの組{t
ir}を構成することを特徴とする方式である。Eを最
小化する方法として、組合せ最適化問題を解く方法の1
つであるアニーリング法(simulated  an
nealing)を用いた場合の、本発明の実施例のフ
ローチャートを、図1から図3までに示した。図示した
各ブロックにおける実行内容は次の通りである。
Rp: p-dimensional Euclidean space K: number of categories of patterns to be recognized Ni: number of learning data for category i (i=1,
..., K) Mi: number of standard patterns for category i (i=1
,...,K) xij: learning data (xij ∈Rp) (i=1,
..., K, j=1, ..., Ni) tir: r-th standard pattern for category i (tir ∈Rp) (i=1, ..., K, r=1, ..., Mi) E: set of standard patterns Functions L, m that express the degree of misrecognition when all the learning data {xIJ} are identified using {tir}: Number of repetitions The present invention creates a set of standard patterns {t
ir}. One of the methods for solving combinatorial optimization problems as a method to minimize E
A simulated annealing method
Flowcharts of an embodiment of the present invention in which the processing method (nealing) is used are shown in FIGS. 1 to 3. The execution contents of each block shown in the figure are as follows.

【0011】B2:クラスタリング等の方法を用いて、
学習データの集合{xij}から、各カテゴリごとに予
め決められた数の標準パターンを作成した後、得られた
標準パターンの組{tir}を出力する。本実施例では
、LBGクラスタリングアルゴリズムを用いて初期標準
パターンを作成した。
B2: Using methods such as clustering,
After creating a predetermined number of standard patterns for each category from the learning data set {xij}, the resulting set of standard patterns {tir} is output. In this example, an initial standard pattern was created using the LBG clustering algorithm.

【0012】B4:集合{tir}を標準パターンとし
て、学習データの集合{xij}を認識した時の誤認識
の程度を表わす関数Eを計算する。誤認識された学習デ
ータの個数でEを定義しても良いが、本実施例では、次
のようにしてEを計算した。先ず、ある学習データxi
jに対して次の2つの距離d1 、d2 を定義する。
B4: Using the set {tir} as a standard pattern, calculate a function E representing the degree of misrecognition when the learning data set {xij} is recognized. Although E may be defined by the number of pieces of learning data that are erroneously recognized, in this example, E was calculated as follows. First, some learning data xi
The following two distances d1 and d2 are defined for j.

【0013】[0013]

【数1】[Math 1]

【0014】[0014]

【数2】       ここにdは2つのパターン間のユークリッ
ド距離を表わす。この時、λを
[Equation 2] Here, d represents the Euclidean distance between two patterns. At this time, λ

【0015】[0015]

【数3】       で定義する。明らかに、0≦λ≦1。この
λと、パラメータκ(0<κ<0.5)に対して関数μ
(xij,{tir})を定義する。具体的には、λ<
0.5−κの場合にはμ=0、0.5−κ≦λ<0.5
+κに対して μ=(λ+κ−0.5)/2κ 0.5+κ≦λに対してμ=1とする。標準パターンを
用いる識別の場合には、λ<0.5なら正しく識別され
、λ≧0.5ならば誤って識別される。従って、λ≧0
.5に対して1、それ以外のλに対して0となる関数μ
′を考えると、μ′は誤認識かどうかを0と1で表現す
る。上式のμは、このμ′にパラメータκを導入したも
のであり、誤認識の程度を表わす関数となっている。 関数Eを
Defined by [Equation 3]. Obviously, 0≦λ≦1. For this λ and the parameter κ (0<κ<0.5), the function μ
Define (xij, {tir}). Specifically, λ<
If 0.5-κ, μ=0, 0.5-κ≦λ<0.5
μ=(λ+κ−0.5)/2κ for +κ. Let μ=1 for 0.5+κ≦λ. In the case of identification using a standard pattern, if λ<0.5, it is correctly identified, and if λ≧0.5, it is incorrectly identified. Therefore, λ≧0
.. A function μ that is 1 for 5 and 0 for other λ
′, μ′ expresses whether or not it is a misrecognition using 0 and 1. μ in the above equation is obtained by introducing the parameter κ into μ′, and is a function representing the degree of misrecognition. function E

【0016】[0016]

【数4】       で定義する。明らかにEは標準パターンの
組{tir}の関数であり、標準パターンとして{ti
r}を選んで学習データ全体を識別したときの誤認識の
程度を表わす。本実施例では、κ=0.1と設定した。
Defined by [Equation 4]. Obviously E is a function of the set of standard patterns {tir}, and as standard patterns {ti
r} represents the degree of misrecognition when the entire learning data is identified. In this example, κ was set to 0.1.

【0017】B6:変数nに0を代入する。B6: Assign 0 to variable n.

【0018】B8:変数iに0を代入する。B8: Assign 0 to variable i.

【0019】B10:2つの誤認識の程度EとE* を
比較する。
B10: Compare the two degrees of misrecognition E and E*.

【0020】B12:B10でE<E* のときに実行
するブロックであって、標準パターンの集合{tir}
の全要素を集合{tir* }の要素とし、Eの値をE
* に代入する操作を行なう。
B12: A block executed when E<E* in B10, which is a set of standard patterns {tir}
Let all elements of set {tir*} be elements, and let the value of E be E
Perform the operation of assigning to *.

【0021】B14:B10でE<E* でないときに
およびB12の次に実行するブロックであって、アニー
リング法におけるパラメータの1つである「温度」Tn
 を設定する。
B14: "Temperature" Tn, which is a block to be executed when E<E* is not satisfied in B10 and after B12, and is one of the parameters in the annealing method.
Set.

【0022】B16:学習データの集合{xij}から
、なんらかの方法で1つの要素xijを選択する。本実
施例では、集合{xij}からランダムに1つの学習デ
ータxijを選択した。
B16: Select one element xij from the learning data set {xij} by some method. In this example, one learning data xij is randomly selected from the set {xij}.

【0023】B18:標準パターンの集合{tij}か
ら、なんらかの方法で1つの要素turを選択する。本
実施例では、集合{tij}からランダムに1つの標準
パターンturを選択した。
B18: Select one element tur from the standard pattern set {tij} by some method. In this example, one standard pattern tur is randomly selected from the set {tij}.

【0024】B20:標準パターンの集合{tir}に
摂動を与え、新たな標準パターン集合{tir′}を出
力する。摂動は、次式によって与える。
B20: Perturb the standard pattern set {tir} and output a new standard pattern set {tir'}. The perturbation is given by the following equation.

【0025】 tur′=tur+ν・θ・(xij−tur),ti
k′=tik;        i≠μ,k≠r.ここ
に、θは区間[−1.0,1.0]上の一様乱数、νは
0≦ν≦1を満たすパラメータで、本実施例では0.0
2と設定した。
[0025] tur'=tur+ν・θ・(xij−tur), ti
k'=tik; i≠μ, k≠r. Here, θ is a uniform random number on the interval [-1.0, 1.0], and ν is a parameter satisfying 0≦ν≦1, which is 0.0 in this example.
It was set to 2.

【0026】B4:前記同様に、集合{tir′}を標
準パターンとして、学習データの集合{xij}を認識
した時の誤認識の程度を表わす関数E′を計算する。
B4: In the same manner as described above, a function E' representing the degree of misrecognition when the learning data set {xij} is recognized is calculated using the set {tir'} as a standard pattern.

【0027】B22:区間[0,1)の間で一様分布す
る乱数ωを発生する。
B22: Generate a random number ω uniformly distributed between the interval [0, 1).

【0028】B24:E′−Eが負であるか、あるいは
B22で発生されたωがexp(−(E′−E)/Tn
 )未満であるかどうかを判定する。
B24: E'-E is negative or ω generated in B22 is exp(-(E'-E)/Tn
).

【0029】B26:B24の判定がYesのときに実
行するブロックであって、標準パターンの集合{tir
′}の全要素を集合{tir}の要素とし、E′の値を
Eに代入する操作を行なう。
B26: This block is executed when the determination in B24 is Yes, and is a block that is executed when the determination in B24 is Yes, and is a block that executes when the determination in B24 is Yes.
'} are set as elements of the set {tir}, and the value of E' is assigned to E.

【0030】B28:B24の判定がNoのとき、およ
びB26の次に実行するブロックであって、iの値を1
だけ増加させる。
B28: When the determination in B24 is No, this block is executed next after B26, and the value of i is set to 1.
increase only.

【0031】B30:iが予め判定された値mより大き
いかどうかを判定する。判定がNoのときはB10にす
すむ。
B30: Determine whether i is greater than a predetermined value m. If the determination is No, proceed to B10.

【0032】B32:B30で判定がYesのときに実
行するブロックであって、nの値を1だけ増加させる。
B32: This block is executed when the determination in B30 is Yes, and increases the value of n by 1.

【0033】B34:nが予め設定された値Lより大き
いかどうかを判定する。判定がNoのときはB8にすす
む。
B34: Determine whether n is larger than a preset value L. If the determination is No, proceed to B8.

【0034】B36:B34で判定がYesのときに実
行するブロックであって、B10と同様。
B36: This block is executed when the determination in B34 is Yes, and is the same as B10.

【0035】B12:前記B12と同様B38:集合{
tir* }を最終的な標準パターンの集合とする。
B12: Same as B12 above B38: Set {
tir*} is the final set of standard patterns.

【0036】以上に示した実施例では、アニーリング法
を用いた場合について述べてきたが、例えば、B24の
判断条件をE′−E<0のみにすると最急降下法を用い
る場合に対応する。従って、本発明は、アニーリング法
を用いる場合に限らず、他の最適化手法を用いる場合に
も常に適応し得ることは勿論である。
In the embodiment shown above, the case where the annealing method is used has been described, but for example, if the judgment condition for B24 is set only to E'-E<0, this corresponds to the case where the steepest descent method is used. Therefore, it goes without saying that the present invention is applicable not only to cases where the annealing method is used, but also to cases where other optimization methods are used.

【0037】以上に述べた通り、少ない学習データから
認識精度の高い標準パターンを構成することができるの
で、標準パターンを用いるパターン認識の問題であれば
、認識能力の向上を図るために本方法を適応することが
できる。
As mentioned above, standard patterns with high recognition accuracy can be constructed from a small amount of training data, so if the problem is pattern recognition using standard patterns, this method can be used to improve recognition ability. Able to adapt.

【0038】ついで音声認識において、標準パターンを
用いて母音を認識する装置に本発明を適応した場合につ
いて述べる図4は、本発明を実施したパターン認識装置
の機能構成を示すブロック図であり、その詳細は以下の
通りである。
Next, we will discuss the case where the present invention is applied to a device that recognizes vowels using standard patterns in speech recognition. FIG. 4 is a block diagram showing the functional configuration of a pattern recognition device that implements the present invention. Details are as follows.

【0039】1:入力された音声情報を標本化する標本
化手段。
1: Sampling means for sampling input voice information.

【0040】2:標本化された音声データに基づいて短
い時間区間ごとにLPCケプストラム係数を計算するL
PCケプストラム分析手段。
2: LPC cepstral coefficients are calculated for each short time interval based on sampled audio data.
PC cepstrum analysis tool.

【0041】3:手段2からの音声データの中から母音
中心部分のLPCケプストラム係数を切り出す母音デー
タ切り出し手段。
3: Vowel data extraction means for extracting LPC cepstral coefficients at the center of vowels from the voice data from means 2.

【0042】4:手段3からのデータを学習データとし
、標準パターンを構成する標準パターン学習手段であっ
て、CPUと、前記のB2〜B38に示す各ブロックを
CPUに実行させるためのプログラムを格納したROM
と、ワークエリアを有するRAMとを具えている。
4: A standard pattern learning means that uses the data from the means 3 as learning data and constitutes a standard pattern, which stores a CPU and a program for causing the CPU to execute each block shown in B2 to B38 above. ROM
and a RAM having a work area.

【0043】5:手段4により得られた標準パターンを
記憶した記憶手段。
5: Storage means storing the standard pattern obtained by means 4.

【0044】6:手段5の標準パターンの集合と手段3
からの入力音声母音データとを照合し、入力データと標
準パターンとの距離を計算する照合手段。
6: Set of standard patterns of means 5 and means 3
Collation means that collates the input speech vowel data from and calculates the distance between the input data and the standard pattern.

【0045】7:手段6からの計算結果に基づいて入力
と最も距離が近かった標準パターンに対応する母音カテ
ゴリを判定し、認識結果として出力する判定手段。
7: Determining means for determining the vowel category corresponding to the standard pattern closest to the input based on the calculation result from the means 6, and outputting the result as a recognition result.

【0046】上記装置を用いて母音を認識した結果につ
いて述べる。母音として撥音を含む6母音/a/,/i
/,/u/,/e/,/o/,/N/を想定し、これら
6つの各カテゴリごとに複数個の標準パターンを用意し
て母音認識を行なう場合について検討した。但し各カテ
ゴリごとの標準パターン数は同数とした。検討に当って
はATRデータベースの中の話者MAUが文節単位に発
声した音声データを、標本化周波数15kHzで標本化
し(手段1)、18次のLPCケプストラム分析を行な
った後(手段2)、母音中心3フレームを平均して母音
データを作成した。母音中心部は同データベースに付与
された母音中心のラベルに基づいて定めた。このような
データを、各カテゴリごとに350個ずつ作成し、これ
らを50個ずつに分割(7分割)して、データセットA
〜Gを作成した。また、各カテゴリごとに175個ずつ
に分割(2分割)して、データセット1,2を作成した
(手段3)。
The results of vowel recognition using the above device will be described. 6 vowels /a/, /i including pellicles as vowels
/, /u/, /e/, /o/, /N/ were assumed, and a case where a plurality of standard patterns were prepared for each of these six categories and vowel recognition was performed was studied. However, the number of standard patterns for each category was the same. In the study, the speech data uttered by the speaker MAU in the ATR database in units of phrases was sampled at a sampling frequency of 15 kHz (Means 1), and after performing 18th-order LPC cepstral analysis (Means 2), Vowel data was created by averaging three frames centered on the vowel. The vowel center was determined based on the vowel center label given in the same database. Create 350 pieces of data for each category, divide them into 50 pieces (7 parts), and create Dataset A.
~Created G. Further, data sets 1 and 2 were created by dividing each category into 175 pieces (divided into 2) (means 3).

【0047】学習データ数の少ない場合として、データ
セットA〜Gを用いて手段4,5,6,7によって実験
を行なった。先ず、データセットAを用いて標準パター
ンを構成し、データセットA以外のデータ(未知データ
)の認識を行なった。さらに、データセットA以外のデ
ータを用いて学習を行なう場合についても同様の認識を
行なった。これらの7通りの結果を平均して最終的な認
識結果とした。また、学習データが比較的多い場合とし
て、データセット1,2を用いて上記と同様な実験を行
なった。なお、本発明を用いるに当っては、繰返し回数
をL=5000、m=10と設定した。
As a case in which the number of learning data is small, experiments were conducted by means 4, 5, 6, and 7 using data sets A to G. First, a standard pattern was constructed using data set A, and data other than data set A (unknown data) was recognized. Furthermore, similar recognition was made when learning was performed using data other than data set A. These seven results were averaged to obtain the final recognition result. In addition, an experiment similar to the above was conducted using Data Sets 1 and 2 in a case where there was a relatively large amount of learning data. In addition, when using the present invention, the number of repetitions was set as L=5000 and m=10.

【0048】従来の代表的な標準パターン学習アルゴリ
ズムであるLVQ2アルゴリズムを用いる場合について
も同様の認識実験を行なった。先ず、全学習データをラ
ンダムに並べかえたものを10通り作成し、これらの中
から順に学習データを選択してLVQ2により標準パタ
ーンの修正を行なった。その際、α(0)=0.015
と設定し、標準パターン修正の条件を決める窓には、2
0%窓を用いた。これらはLVQ2の提案者T.Koh
onenが推奨する値である。初期標準パターンは、本
発明と同じくLBGクラスタリングアルゴリズムで与え
た。
A similar recognition experiment was also conducted using the LVQ2 algorithm, which is a typical conventional standard pattern learning algorithm. First, 10 patterns were created by randomly rearranging all the learning data, learning data were selected in order from among these, and the standard pattern was corrected using LVQ2. In that case, α(0)=0.015
2 in the window that determines the conditions for standard pattern correction.
A 0% window was used. These are LVQ2 proposer T. Koh
This is the value recommended by onen. The initial standard pattern was given by the LBG clustering algorithm as in the present invention.

【0049】実験の結果を図5,図6に表で示す。図5
は学習データ数が比較的多い場合、図6は学習データ数
の少ない場合である。図5,図6の縦軸は誤認識率、横
軸は各カテゴリごとの標準パターン数を示す。また、参
考のため、図5,図6にLBGアルゴリズムで得られた
標準パターン(すなわち、本発明およびLVQ2の初期
標準パターン)を用いた場合についての結果も示した。 図5に示されているように学習データ数が比較的多い場
合には、本発明、LVQ2とも初期状態を与えたLBG
アルゴリズムより誤認識率が少なくなっており、学習が
良好に行なわれいることが分る。しかも本発明の方が良
好な結果となっている。学習データ数が少ない場合(図
6)には、LVQ2の結果はLBGアルゴリズムと余り
変わらず、従ってLVQ2学習の効果がほとんど表われ
ていない。一方、本発明を用いた場合には概ね良好な結
果が得られている。
The results of the experiment are shown in tables in FIGS. 5 and 6. Figure 5
Fig. 6 shows a case where the number of learning data is relatively large, and Fig. 6 shows a case where the number of learning data is small. The vertical axes in FIGS. 5 and 6 show the false recognition rate, and the horizontal axes show the number of standard patterns for each category. For reference, FIGS. 5 and 6 also show the results obtained when the standard pattern obtained by the LBG algorithm (that is, the initial standard pattern of the present invention and LVQ2) was used. As shown in FIG. 5, when the number of learning data is relatively large, both the present invention and LVQ2 use LBG
The false recognition rate is lower than that of the algorithm, indicating that learning is performed well. Moreover, the present invention has better results. When the number of learning data is small (FIG. 6), the results of LVQ2 are not much different from the LBG algorithm, and therefore the effect of LVQ2 learning is hardly visible. On the other hand, when the present invention was used, generally good results were obtained.

【0050】これらの実験により、本発明が、従来法に
見られた学習データ数が少ない場合に学習効果が表われ
ないという欠点を改善した方法であり、しかも、学習デ
ータをある程度増やした場合でも従来法を上回る方法で
あることが確認された。
These experiments have shown that the present invention is a method that improves the drawback of the conventional method that learning effects are not obtained when the number of learning data is small, and moreover, even when the number of training data is increased to a certain extent, It was confirmed that this method is superior to conventional methods.

【図面の簡単な説明】[Brief explanation of drawings]

【図1】本発明の実施例の動作を示すフローチャートの
一部である。
FIG. 1 is a part of a flowchart showing the operation of an embodiment of the present invention.

【図2】同フローチャートの他の一部である。FIG. 2 is another part of the same flowchart.

【図3】同フローチャートの残りの一部である。FIG. 3 is the remaining part of the same flowchart.

【図4】本発明実施例にかかるパターン認識装置の機能
構成を示すブロック図である。
FIG. 4 is a block diagram showing the functional configuration of a pattern recognition device according to an embodiment of the present invention.

【図5】本発明の実施例における実験結果の一例を示す
図である。
FIG. 5 is a diagram showing an example of experimental results in an example of the present invention.

【図6】同実験結果の他の例を示す図である。FIG. 6 is a diagram showing another example of the same experimental results.

【符号の説明】[Explanation of symbols]

1  標本化手段 2  LPCケプストラム分析手段 3  母音データ切り出し手段 4  標準パターン学習手段 5  記憶手段 6  照合手段 7  判定手段 1 Sampling means 2 LPC cepstral analysis means 3 Vowel data extraction means 4 Standard pattern learning means 5. Storage means 6. Verification means 7 Judgment means

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】  各カテゴリごとに複数個ずつ用意され
た標準パターンを用いてデータの認識を行なうパターン
認識方式において、与えられた学習データを標準パター
ンを用いて認識した時の誤認識の程度を当該標準パター
ンの関数として構成し、当該関数を最小化する最適標準
パターンを求め、当該最適標準パターンを用いてデータ
の認識を行なうことを特徴とするパターン認識方式。
Claim 1: In a pattern recognition method that recognizes data using a plurality of standard patterns prepared for each category, the degree of misrecognition when given training data is recognized using standard patterns. A pattern recognition method characterized in that the optimal standard pattern is configured as a function of the standard pattern, the optimal standard pattern that minimizes the function is found, and data is recognized using the optimal standard pattern.
JP03061842A 1991-03-26 1991-03-26 Pattern recognition method and apparatus Expired - Fee Related JP3110478B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP03061842A JP3110478B2 (en) 1991-03-26 1991-03-26 Pattern recognition method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP03061842A JP3110478B2 (en) 1991-03-26 1991-03-26 Pattern recognition method and apparatus

Publications (2)

Publication Number Publication Date
JPH04295893A true JPH04295893A (en) 1992-10-20
JP3110478B2 JP3110478B2 (en) 2000-11-20

Family

ID=13182750

Family Applications (1)

Application Number Title Priority Date Filing Date
JP03061842A Expired - Fee Related JP3110478B2 (en) 1991-03-26 1991-03-26 Pattern recognition method and apparatus

Country Status (1)

Country Link
JP (1) JP3110478B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006126730A (en) * 2004-11-01 2006-05-18 Advanced Telecommunication Research Institute International Method and system for optimizing phoneme unit set

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2543584B2 (en) 1988-09-09 1996-10-16 沖電気工業株式会社 Voice standard pattern registration method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006126730A (en) * 2004-11-01 2006-05-18 Advanced Telecommunication Research Institute International Method and system for optimizing phoneme unit set

Also Published As

Publication number Publication date
JP3110478B2 (en) 2000-11-20

Similar Documents

Publication Publication Date Title
US7509259B2 (en) Method of refining statistical pattern recognition models and statistical pattern recognizers
US7366666B2 (en) Relative delta computations for determining the meaning of language inputs
US20220208198A1 (en) Combined learning method and apparatus using deepening neural network based feature enhancement and modified loss function for speaker recognition robust to noisy environments
JPH01102599A (en) Voice recognition
CN1202687A (en) Speaker recognition over large population with fast and detailed matches
JPS61262799A (en) Hydon type markov model voice recognition equipment
JP2004512544A (en) Discriminatively trained mixed models in continuous speech recognition.
KR102655791B1 (en) Speaker authentication method, learning method for speaker authentication and devices thereof
KR20010038049A (en) Method and apparatus for discriminative estimation of parameters in MAP speaker adaptation condition and voice recognition method and apparatus including these
JP2002149186A (en) Selection of substitute word string concerning identifiable adaptation
Rehman et al. Feature selection and classification of speech dataset for gender identification: A machine learning approach
JP3444108B2 (en) Voice recognition device
JPH04295893A (en) Pattern recognition system
JP4440414B2 (en) Speaker verification apparatus and method
KR100435440B1 (en) Variable sized- Clustering apparatus and method for better discrimination of the inter-speaker variation, Speaker Verification apparatus and method based on new VQ/HMM technique
JP2020154061A (en) Speaker identification apparatus, speaker identification method and program
Boujelbene et al. Application of combining classifiers for text-independent speaker identification
JP3291073B2 (en) Voice recognition method
JP3245149B2 (en) Pattern recognition device
US20090125297A1 (en) Automatic generation of distractors for special-purpose speech recognition grammars
JPH10214096A (en) Speaker recognition device
JPH0554116B2 (en)
JPH0424700A (en) Consonant segmentation method
JP2000122693A (en) Speaker recognizing method and speaker recognizing device
Hegde et al. Application of Fisher's ratio technique for speech feature evaluation of vowls/consonants

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees