JPS63163582A - Pattern recognizing device - Google Patents

Pattern recognizing device

Info

Publication number
JPS63163582A
JPS63163582A JP61307634A JP30763486A JPS63163582A JP S63163582 A JPS63163582 A JP S63163582A JP 61307634 A JP61307634 A JP 61307634A JP 30763486 A JP30763486 A JP 30763486A JP S63163582 A JPS63163582 A JP S63163582A
Authority
JP
Japan
Prior art keywords
learning
recognition
similarity
dictionary
pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP61307634A
Other languages
Japanese (ja)
Inventor
Hiroyuki Tsuboi
宏之 坪井
Hiroshi Kanazawa
金沢 博史
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP61307634A priority Critical patent/JPS63163582A/en
Publication of JPS63163582A publication Critical patent/JPS63163582A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Character Discrimination (AREA)

Abstract

PURPOSE:To efficiently form a recognition dictionary good in a recognition performance without deteriorating the recognition ratio of an updated dictionary by controlling the learning of the recognition dictionary according to a specific learning parameter. CONSTITUTION:Plural feature vectors (input pattern) obtained in a feature extracting part 2 are sequentially stored in a storing part 3, a similarity arithmetic part 4 obtains the similarity to a category registered in the feature vector and the recognition dictionary memory 5 of an input sound and the similarity is stored in a similarity storing part 6. A learning parameter setting part 7 sets the learning parameter from the ratio of the number of patterns in which the difference between the similarity of the respective categories and the similarity of other category is above a certain threshold. A learning part 8 inputs the input sound pattern stored in the storing part 3, learns a dictionary pattern stored in the recognition dictionary memory 5 under the control of the learning parameter setting part 7 for respective categories to be recognized and the recognition dictionary is updated.

Description

【発明の詳細な説明】 [発明の目的] (産業−1−の利用分野) 本発明はパターン認識に用いられる認識辞書を効果的に
学習させるようにしたパターン認識装置に関する。
Detailed Description of the Invention [Object of the Invention] (Field of Application in Industry-1-) The present invention relates to a pattern recognition device that effectively learns a recognition dictionary used for pattern recognition.

(従来の技術) 音声ワードプロセッサ等の音声認識装置や手古き文字の
認識処理におけるパターン認識では、その認識性能(認
識率)の向上を図るため、予め多数の認識対象パターン
を収集し、これらのパターンを用いて認識辞書の学習を
行い、認識辞書の充実化を図ることが行われている。
(Prior art) In pattern recognition in voice recognition devices such as voice word processors and in old-fashioned character recognition processing, in order to improve recognition performance (recognition rate), a large number of recognition target patterns are collected in advance and these patterns are Currently, recognition dictionaries are being trained using ``recognition dictionaries'' to improve recognition dictionaries.

従来は、認識辞書の学習時に多くの学習パターンを収集
するとともに、収集された学習パターンをb J識対象
カテゴリ毎に甲均化し、この平均化された認識対象パタ
ーンを標章パターン(認識辞書)として認識辞書メモリ
に登録するようにしていた。そして、以後のパターン認
識処理時には、認識辞書メモリに上記のようにして登録
された各カテゴリの標準パターンと人カバターンとを、
例えばDPマツチング法等によって照合することにより
、人カバターンを認識するようにしていた。
Conventionally, when learning a recognition dictionary, many learning patterns are collected, the collected learning patterns are averaged for each recognition target category, and the averaged recognition target patterns are used as mark patterns (recognition dictionary). was registered in the recognition dictionary memory. Then, during subsequent pattern recognition processing, the standard patterns and human cover patterns of each category registered in the recognition dictionary memory as described above are used.
For example, human cover patterns have been recognized by matching using the DP matching method.

しかしながら、このようにして求められる標準パターン
(認識辞書)は認識対象パターンの統計的分布を反映し
ているとは云い難く、例えば不特定話者に対する音声認
識に適用するには甚だ不十分である。
However, the standard patterns (recognition dictionaries) obtained in this way cannot be said to reflect the statistical distribution of the recognition target pattern, and are extremely inadequate for application to speech recognition for unspecified speakers, for example. .

一方、認識対象の統計的分布を考慮した認識法として、
例えば複合類似度法や部分空間法が知られている。しか
し、これらの認識法では、予め統=1゛的分布を考慮し
て認識辞書を作成しておくことが必要であるため、非常
に膨大な量の学習パターンを収集し、且つこれらの学習
パターンを用いて認識辞書を繰返し学習処理する必要が
ある。この為、認識辞書の学習の為のパターン収集と、
その学習処理に多大な時間を必要とする欠点があった。
On the other hand, as a recognition method that takes into account the statistical distribution of the recognition target,
For example, the composite similarity method and the subspace method are known. However, in these recognition methods, it is necessary to create a recognition dictionary in advance by considering the systematic distribution, so it is necessary to collect a huge amount of learning patterns and to It is necessary to repeatedly train the recognition dictionary using . For this purpose, pattern collection for learning the recognition dictionary,
The drawback is that the learning process requires a large amount of time.

そこで認識辞書を作成した後、この認識辞書を用いて人
カバターンを認識処理しながら、同時に人カバターンを
学習用パターンとして収集して逐次学習により認識辞書
を変更していく技術も提案されている。
Therefore, a technique has been proposed in which a recognition dictionary is created, and then the recognition dictionary is used to recognize and process human cover turns, while at the same time collecting human cover turns as learning patterns and changing the recognition dictionary through sequential learning.

しかしながら、この方式では逐次学習する場合の重み付
けとなる学習パラメータが大きいと変更効果が大きくな
りすぎてしまい、更新すした辞書の認識率が却って低下
することがあった。また逆に、認識率が悪くならない程
度の小さな学習パラメータを設定すると、収束するまで
の更新回数が多くなってしまうという問題があった。
However, in this method, if the learning parameters used as weights in the case of sequential learning are large, the change effect becomes too large, and the recognition rate of the updated dictionary may actually decrease. On the other hand, if a learning parameter is set to a value that is small enough not to deteriorate the recognition rate, there is a problem in that the number of updates required until convergence increases.

(発明か解決しようとする問題点) このように、従来のこの種のパターン認識装置では、学
習パラメータが大きすぎると、却って更新された認識辞
書の認識率が低下し、文通に学習パラメータが小さすぎ
ると、収束するまでの学習回数が多くなってしまうとい
う問題があった。
(Problem to be solved by the invention) As described above, in conventional pattern recognition devices of this type, if the learning parameter is too large, the recognition rate of the updated recognition dictionary will actually decrease, and the learning parameter will be too small for the correspondence. If it is too high, there is a problem in that the number of learning operations required until convergence increases.

本発明はこのような事情を考慮してなされたもので、そ
の目的とするところは、更新された辞書の認識率を低ド
させることなく、しかも収束するまでの認識辞書の更新
回数を少なくすることができ、認識性能の良好な認識辞
書を効率良く作成できるパターン認識装置を提供するこ
とにある。
The present invention was made in consideration of these circumstances, and its purpose is to reduce the number of updates of the recognition dictionary until convergence without lowering the recognition rate of the updated dictionary. An object of the present invention is to provide a pattern recognition device that can efficiently create a recognition dictionary with good recognition performance.

[発明の(b成] (問題点を解決するための手段) 本発明は、人カバターンを分析して求められる特徴パラ
メータと認識辞書とを、例えば複合類似度法により照合
してに記入力パターンを認識処理するパターン認識装置
において、」二記入力パターンに対する各認識対象カテ
ゴリの類似度(距離)と他のカテゴリの類似度(距離)
との差があるしきい値以1−になるパターンの数と、同
しきい値以下になるパターンの数とを求め、これらの情
報に従って前記認識辞書の学習に必要な学習パラメータ
を求め、この学習パラメータに従って前記認識辞書を学
習し、更新するようにしたことを特徴としている。
[B of the invention] (Means for solving the problem) The present invention compares feature parameters obtained by analyzing human cover patterns with a recognition dictionary using, for example, a composite similarity method, and generates an input pattern. In a pattern recognition device that recognizes and processes, the similarity (distance) of each recognition target category to two input patterns and the similarity (distance) of other categories
Find the number of patterns whose difference is 1- or less than a certain threshold, and the number of patterns whose difference is less than or equal to the same threshold, find the learning parameters necessary for learning the recognition dictionary according to these information, and calculate the learning parameters necessary for learning the recognition dictionary. The present invention is characterized in that the recognition dictionary is learned and updated according to learning parameters.

(作用) 本発明によれば、人カバターンに対する各認識対象カテ
ゴリの類似度(距離)と他のカテゴリの類似度(距離)
との差があるしきい値以−にになるパターンの数と、同
しきい値以下になるパターンの数とから、各カテゴリに
ついての認識率を把握でき、かつこれらの数に基づいて
学習用パターンの更新処理における重み係数が制御され
る。つまり、変更効果が大きすぎで認識率が低下する場
合には、学習が制限され、また認識率が向上する場合に
は、より大きな市みを与えることにより速やかな学習が
行われることになる。したがって、本発明によれば、少
ない学習回数で認識辞書の認識性能を高めることができ
る。
(Operation) According to the present invention, the similarity (distance) of each recognition target category to the human cover turn and the similarity (distance) of other categories
The recognition rate for each category can be determined from the number of patterns whose difference is above a certain threshold and the number of patterns whose difference is below the same threshold. Weighting coefficients in pattern update processing are controlled. In other words, if the change effect is too large and the recognition rate decreases, learning will be restricted, and if the recognition rate improves, learning will be performed more quickly by giving a larger market. Therefore, according to the present invention, the recognition performance of the recognition dictionary can be improved with a small number of learning times.

(実施例) 以下、図面を参照して本発明の一実施例について説明す
る。
(Example) Hereinafter, an example of the present invention will be described with reference to the drawings.

第1図は本実施例に係る音声認識装置の概略構成図であ
る。尚、この装置は入力音声のパターン認識を行なうも
のであるが、例えば手書き文字認識等のパターン認識に
も同様に適用することができる。
FIG. 1 is a schematic configuration diagram of a speech recognition device according to this embodiment. Although this device performs pattern recognition of input speech, it can be similarly applied to pattern recognition such as handwritten character recognition, for example.

音声入力部1は、マイクロホンや増幅器からなり、入力
音声を電気信号に変換する部分である。
The audio input unit 1 includes a microphone and an amplifier, and is a part that converts input audio into an electrical signal.

この音声入力部lを介して入力された音声信号は、例え
ば8チヤンネルのフィルタバンク等からなる特徴抽出部
2に与えられ、ここで周波数分解されて各周波数成分を
例えば時間軸方向に8点りサンプルしてなる134(8
X8)次元の特徴ベクトルの人力音声パターンに変換さ
れる。尚、特徴抽出は上述したフィルタ分析に代えて、
高速フーリエ変換による分析やケプストラム分析等によ
って行なうこともnf能である。
The audio signal input through the audio input unit l is given to a feature extraction unit 2 consisting of, for example, an 8-channel filter bank, where it is frequency-decomposed and each frequency component is divided into eight points along the time axis. Sample 134 (8
X8) is converted into a human voice pattern of dimensional feature vectors. Note that feature extraction is performed using the filter analysis described above.
Analysis using fast Fourier transform or cepstral analysis is also an nf function.

このようにして1つの認識対象について求められた11
2数の特徴ベクトル(人カバターン)は記憶部3に順次
格納され、類似度演算部4による類似度演算処理に供さ
れる。
11 obtained for one recognition object in this way
The two feature vectors (human cover turns) are sequentially stored in the storage unit 3 and subjected to similarity calculation processing by the similarity calculation unit 4.

類似度演算部4は、上記入力音声の特徴ベクトルfと、
認識辞書メモリ5に登録されたカテゴリ分との類似度S
 ’i f ]を、 なる1怠合類似度計算により求めるものである。こ予め
多くのサンプルパターンから得られた共分散行列にの第
n固有値と、固有ベクトルをそれぞれ示しており、これ
らは認識辞書メモリ5に格納されている。尚、このよう
な類似度Sを用いる代わりに、マハラビノスの汎距離や
ユークリッド距離、確率や尤度等を用いることも可能で
ある。
The similarity calculation unit 4 calculates the feature vector f of the input voice,
Similarity S with the categories registered in the recognition dictionary memory 5
'if] is obtained by the following 1-lack similarity calculation. The nth eigenvalue and eigenvector of the covariance matrix obtained from many sample patterns are shown in advance, and these are stored in the recognition dictionary memory 5. Note that instead of using such similarity S, it is also possible to use Maharabinos' general distance, Euclidean distance, probability, likelihood, or the like.

このようにして求められた各カテゴリについての入力パ
ターンの類似度Sは、その入力パターンと対応付けられ
て類似度記憶部6に格納される。
The similarity S of the input pattern for each category obtained in this manner is stored in the similarity storage unit 6 in association with the input pattern.

類似度記憶部6に記憶された入力パターンと各カテゴリ
の辞書パターンとの間の類似度Sは学習パラメータ設定
部7に導かれる。ここでは、各カテゴリの類似度と他の
カテゴリの類似度の差があるしきい値以上になるパター
ンの数と、全体のパターンの数との比(以下、「高類似
度差率D」と呼ぶ)が求められる。つまり、1つの認識
対象カテゴリについて!夏数の特徴ベクトルが記憶部3
に得られているので、1つの認識対象カテゴリとの間で
人カバターン数分の類似度Sが求められ、かつこれらの
類似度Sがカテゴリ数分だけ求められるので、これらの
類似度Sから−1−述した高類似度差率りが求められる
。この高類似度差率りは、あるカテゴリが他のカテゴリ
と区別できる度合を示すもので、上記高類似度差りを決
定するしきい値は認識処理におけるしきい値よりも高く
設定される。そして、学習パラメータ設定部7は、この
高類似度差率りから学習パラメータWを設定する。
The similarity S between the input pattern stored in the similarity storage unit 6 and the dictionary pattern of each category is guided to the learning parameter setting unit 7. Here, the ratio of the number of patterns for which the difference between the similarity of each category and the similarity of other categories exceeds a certain threshold to the total number of patterns (hereinafter referred to as "high similarity difference rate D") ) is required. In other words, for one recognition target category! The summer number feature vector is stored in storage unit 3.
Since the similarities S are obtained as many as the number of human cover turns with one recognition target category, and these similarities S are obtained as many as the number of categories, from these similarities S - 1-The high similarity difference rate mentioned above is determined. This high similarity difference rate indicates the degree to which a certain category can be distinguished from other categories, and the threshold for determining the high similarity difference is set higher than the threshold in recognition processing. Then, the learning parameter setting unit 7 sets the learning parameter W from this high similarity difference rate.

一方、学習部8は、前記記憶部3に格納された人力音声
パターンを入力し、学習パラメータ設定部7の制御のド
で前記認識辞書メモリ5に格納された゛辞書パターンを
各認識対象カテゴリ毎に学習するものである。この学習
部8における辞書パターンの学習は、例えば第2図に示
すように共分散行列にの繰返し更新処理と、共分散行列
にのKL展開とによって行われる。
On the other hand, the learning section 8 inputs the human voice patterns stored in the storage section 3, and under the control of the learning parameter setting section 7, the learning section 8 inputs the dictionary patterns stored in the recognition dictionary memory 5 for each recognition target category. It's something to learn. The learning of dictionary patterns in the learning section 8 is performed, for example, by repeatedly updating the covariance matrix and performing KL expansion on the covariance matrix, as shown in FIG.

即ち、学習しようとするカテゴリの認識辞書の共分散行
列Kを人力しくステップa)、基本的にはその共分散行
列を次のようにして更新処理するなる演算を実行して、
その共分散行列Kを更新する。但し、■は学習パターン
であり、例えば64次元のベクトルとして与えられる。
That is, in step a), the covariance matrix K of the recognition dictionary of the category to be learned is manually updated, basically by performing the operation of updating the covariance matrix as follows.
Update its covariance matrix K. However, ■ is a learning pattern, and is given as a 64-dimensional vector, for example.

また、K・は学習後の共分散行列である。そしてWは正
負(7) K ヲとる重み係数(学習パラメータの値)
であり、正の場合には1;記共分散行列にの特性核の人
カバターンに対する類似度を大きくする作用を呈し、負
ならばその類似度を小さくする作用を呈する。
Moreover, K is a covariance matrix after learning. And W is positive or negative (7) K Wotoru weighting coefficient (value of learning parameter)
If it is positive, it acts to increase the similarity of the characteristic kernel to the human cover pattern in the covariance matrix, and if it is negative, it acts to decrease the similarity.

このような共分散行列の1万新を、前記学習パラメータ
設定部7で設定された学習パラメータWに従って、各認
識対象カテゴリ毎に段数のサンプルパターンを用いて複
数回繰返して行われる(ステップC)。モしてその、学
習結果として求められた共分散行列に′をKL展開して
その固有値と固有ベクトルとを求める(ステップd)。
This 10,000 update of the covariance matrix is repeated multiple times using sample patterns of the number of stages for each recognition target category according to the learning parameter W set by the learning parameter setting section 7 (step C). . Then, the covariance matrix obtained as a learning result is subjected to KL expansion to obtain its eigenvalues and eigenvectors (step d).

この固有値と固有ベクトルとを各認識対象カテゴリの認
識辞8(標準パターン)として前記認識辞書メモリ5に
登録して(ステップe)、認識辞書の更新が行われる。
These eigenvalues and eigenvectors are registered in the recognition dictionary memory 5 as recognition words 8 (standard patterns) for each recognition target category (step e), and the recognition dictionary is updated.

尚、第1図において制御部9は上述したパターン認識処
理および認識辞書の学習処理をそれぞれ制御するもので
ある。
In FIG. 1, the control section 9 controls the above-described pattern recognition processing and recognition dictionary learning processing, respectively.

このように構成された本装置にあっては、基本的には4
ユ述したようにして各認識対象カテゴリの認識辞書(標
準パターン)の学習が行われる。ところが共分散行列に
のKL展開は、通常、ヤコビ法やハウスホルダースツル
ム法、べき乗法等の計算手法によって実行され、その計
算処理に多大な時間を必要とする。
In this device configured in this way, there are basically 4
Learning of the recognition dictionary (standard pattern) for each recognition target category is performed as described above. However, the KL expansion into a covariance matrix is usually performed using a calculation method such as the Jacobi method, the Householder-Sturm method, or the power method, and the calculation process requires a large amount of time.

そこで本装置では、前記学習パラメータWに従って上述
した共分散行列にの更新処理を効率良く実行し、その共
分散行列KをKL展開することによって、その学習処理
を短時間に効果的に行なうようにしている。
Therefore, in this device, the above-mentioned updating process to the covariance matrix is efficiently executed according to the learning parameter W, and the covariance matrix K is expanded into KL, thereby effectively performing the learning process in a short time. ing.

第3図は認識辞書の学習処理の流れを示すものである。FIG. 3 shows the flow of learning processing of the recognition dictionary.

認識辞書の学習を行なうに際しては、先ず更新回数1を
(1)に初期設定しくステップA)、記憶部3に格納さ
れた人カバターン(学習用パターン)の1つを類似度演
算部4に人力して各カテゴリについて類似度演算を実行
する(ステップC)。
When learning the recognition dictionary, first, the number of updates 1 is initialized to (1) (step A), and one of the human cover patterns (learning patterns) stored in the storage unit 3 is manually input to the similarity calculation unit 4. Then, similarity calculation is performed for each category (step C).

得られた各カテゴリについての類似度Sを類似度記憶部
6に順に格納する。次に、この類似度Sに基づいて学習
パラメータ設定部7では次のような処理を行なう。即ち
、例えば人カバターンと成るカテゴリXの辞書パターン
との間の類似度Sxと、同人カバターンと他の全てのカ
テゴリYの辞書パターンとの間の類似度Syとの差を求
め、この差が予め設定されたしきい値θ以l二になる数
nlと、全体のパターン数N(−nl+n2)との比n
l/N(高類似度差率)DIを求める(ステップE)。
The obtained similarity S for each category is sequentially stored in the similarity storage unit 6. Next, based on this similarity S, the learning parameter setting section 7 performs the following processing. That is, for example, the difference between the degree of similarity Sx between a dictionary pattern of category X, which is a human cover turn, and the degree of similarity Sy between a dictionary pattern of category The ratio n between the number nl that is less than the set threshold value θ and the total number of patterns N (-nl + n2)
l/N (high similarity difference rate) DI is determined (step E).

この高類似度差率DIを、各入力パターン、各カテゴリ
について求める。そして、求めた各カテゴリについての
高類似度差率DIに基づいて各カテゴリの学習パラメー
タWを設定する(ステップE)。この学習パラメータW
は、例えば共分散行列にの・更新処理に用いられる重み
係数の値を示しており、例えば初期値として下表に示す
ような値に設定されている。
This high similarity difference rate DI is determined for each input pattern and each category. Then, a learning parameter W for each category is set based on the calculated high similarity difference rate DI for each category (step E). This learning parameter W
indicates the value of a weighting coefficient used, for example, in the updating process of the covariance matrix, and is set to, for example, the initial value as shown in the table below.

このようにして設定された学習パラメータ(重み係数)
Wに従って、その認識対象カテゴリの認識辞書の共分散
行列にの更新処理が、例えば次のようにして行われる(
ステップF)。
Learning parameters (weighting coefficients) set in this way
According to W, the process of updating the covariance matrix of the recognition dictionary of the recognition target category is performed, for example, as follows (
Step F).

即ち、認識対象として確かでない場合、つまり本来、あ
る認識対象カテゴリXに関する特徴ベクトルSの類似度
と他の認識対象カテゴリYの類似度との差が所定のしき
い値以上の場合には、カテゴリYの共分散行列Kyを、
例えば、 Ky −Ky −α■vL として、負の重み(減算)を以て更新する。同時にカテ
ゴリXの共分散行列Kxを、例えばKX −KX +α
VV【 として、正の重み(加算)を以て更新する。
That is, if it is not certain that it is a recognition target, that is, if the difference between the similarity of the feature vector S regarding a certain recognition target category X and the similarity of another recognition target category Y is equal to or more than a predetermined threshold, The covariance matrix Ky of Y is
For example, it is updated with a negative weight (subtraction) as Ky −Ky −α■vL. At the same time, the covariance matrix Kx of category X, for example, KX −KX +α
Update with positive weight (addition) as VV[.

また、確かな認識結果が得られた場合・つまり・ある認
識対象カテゴリXに関する特徴ベクトルSの類似度と他
の認識対象カテゴリYの類似度との差が所定のしきい値
以下の場合には、そのカテゴリXの共分散行列Kxを、
例えば、 Kx −KX +(ZVV’ として、正の重み(加算)を以て更新する。尚、上記α
は、学習パラメータの値を示している。
In addition, if a reliable recognition result is obtained, that is, if the difference between the similarity of the feature vector S for a certain recognition target category X and the similarity of another recognition target category Y is less than a predetermined threshold, , the covariance matrix Kx of the category X is
For example, update with positive weight (addition) as Kx −KX + (ZVV'. Note that the above α
indicates the value of the learning parameter.

そしてこのようにして更新処理された共分散行列をKL
展開しくステップG)、これによって求められる共分散
行列の1iIi′Ik 値とINI−rベクトルとを新
たな認識辞N(標準パターン)として認識辞書メモリ5
に登録し、その認識辞書の更新を行なう(ステップH)
Then, the covariance matrix updated in this way is KL
In step G), the 1iIi'Ik value of the covariance matrix obtained by this and the INI-r vector are used as a new recognition word N (standard pattern) in the recognition dictionary memory 5.
, and update its recognition dictionary (Step H).
.

そして前記制御パラメータiをインクリメントしくステ
ップI)、この更新された新たな認識辞書を用いて、先
の学習パターンを再度類似度演算する(ステップJ)。
Then, the control parameter i is incremented (step I), and the similarity of the previous learning pattern is calculated again using this updated new recognition dictionary (step J).

そして再度その高類似度差率DIを求める(ステップK
)。
Then, calculate the high similarity difference rate DI again (step K
).

しかる後、認識辞書の学習が十分であるか否かが判定さ
れる(ステップL)。この判定は、更新された認識辞書
を用いて入力パターンの類似度演算を行なって求められ
た上記高類似度差率DIが所定の高類似度差率Dt  
(学習終了を判断するためのDIのしきい値)に達する
か否かを判定して行われる。そして所定の高類似度差率
Dtに達していない場合には、上述した学習前の認識辞
書を用いたときの高類似度差率D (1−1)と比較し
、今回の高類似度差率DIがD (+−1)よりも向−
ヒしているか否かが判定される(ステップM)。
Thereafter, it is determined whether the learning of the recognition dictionary is sufficient (step L). This determination is made when the high similarity difference rate DI obtained by performing similarity calculation of the input pattern using the updated recognition dictionary is a predetermined high similarity difference rate Dt.
This is done by determining whether or not the threshold value (DI threshold value for determining the end of learning) is reached. If the predetermined high similarity difference rate Dt has not been reached, the current high similarity difference rate is compared with the high similarity difference rate D (1-1) when using the recognition dictionary before learning mentioned above. The rate DI is more positive than D (+-1).
It is determined whether or not there is a problem (step M).

このような判定処理により、」二連した認識辞書の学習
によって所定の高類似度差率D1が得られた場合には、
その認識辞書の学習目的が達せられたとして、その学習
処理を終了する。また所定の高類似度差率DIが得られ
ない場合には、上述した学習処理を繰返し実行する。
Through such determination processing, if a predetermined high similarity difference rate D1 is obtained by learning two consecutive recognition dictionaries,
Assuming that the purpose of learning the recognition dictionary has been achieved, the learning process ends. Further, if a predetermined high similarity difference rate DI is not obtained, the above-described learning process is repeatedly executed.

この際、認識辞書の学習によって高類似度差率の向上が
確認された場合には、前述した学習パラメータWの値を
そのまま用いて上述した認識辞書の学習処理を繰返し実
行し、高類似度差率が低下した場合にはその学習パラメ
ータの値を、例えば1/2に設定して(ステップN)、
上述した認識辞書の学習を繰返し実行する。そしてこの
繰返し処理を、前記所定の高類似度差率Dtが得られる
まで行い、これによってその認識辞書の学習を終了する
At this time, if an improvement in the high similarity difference rate is confirmed by learning the recognition dictionary, the above-mentioned learning process of the recognition dictionary is repeatedly executed using the value of the learning parameter W described above as is, and the high similarity difference rate is If the rate decreases, the value of the learning parameter is set to, for example, 1/2 (step N),
The learning of the recognition dictionary described above is repeatedly executed. This iterative process is repeated until the predetermined high similarity difference rate Dt is obtained, thereby completing the learning of the recognition dictionary.

尚、認識辞書の繰返し学習回数、つまり共分散行列の更
新処理回数に制限を設けておき、所定回数の共分散行列
の更新処理によっても高類似度差率の向1−か望めない
場合には、その学習パターンによる認識辞書の学習効果
がないと判断して、その学習処理を中東するようにすれ
ば、更に学習回数を少なくできる。
In addition, if a limit is set on the number of times of repeated learning of the recognition dictionary, that is, the number of times of updating the covariance matrix, and if a high similarity difference rate of 1 cannot be expected even after updating the covariance matrix a predetermined number of times, If it is determined that the learning pattern has no learning effect on the recognition dictionary, and the learning process is performed in the middle, the number of learning times can be further reduced.

このように本装置によれば、学習用のパターンに対する
高類似度差率に従って、その認識辞書を更新する重み(
学習パラメータ)を、認識率が大きく向上するような値
に設定し、この学習パラメータに従って認識辞書の学習
を制御するので、更新された辞書の認識率を低下させる
ことがなく、認識性能の良好な認識辞書を効率良く作成
できる。
In this way, according to the present device, the weight (
The learning parameter) is set to a value that greatly improves the recognition rate, and the learning of the recognition dictionary is controlled according to this learning parameter, so the recognition rate of the updated dictionary does not decrease and the recognition performance is improved. A recognition dictionary can be created efficiently.

また、このようにして入力パターンの学習パラメータを
制御しながら、認識率を高める方向には大きな重み付け
により認識辞書の学習を行なうようにしているので、学
習処理を短時間に、効率良く行なうことが可能となる。
In addition, while controlling the learning parameters of the input pattern in this way, the recognition dictionary is trained with greater weighting in the direction of increasing the recognition rate, making it possible to perform the learning process quickly and efficiently. It becomes possible.

尚、本発明は上述した実施例に限定されるものではない
。例えば、上記実施例では学習するかしないかの制御に
、人力カテゴリの類似度とその他の全てのカテゴリの類
似度との差があるしきい値以l−のものと全体との割合
(高類似度差率)を用いたが、この高類似度差率の代わ
りに、人力カテゴリの類似度と他のカテゴリの最大類似
度との差があるしきい値以1−になる人カバターンの数
と同しきい値以下になる入力パターンの数との比を用い
るようにしても良い。このような値でも、パターンの認
識辞書が他のカテゴリからの分離度を表すので、ある分
離度を達成するまで使用できる。
Note that the present invention is not limited to the embodiments described above. For example, in the above embodiment, to control whether learning is performed or not, the ratio of the total (high similarity However, instead of this high similarity difference rate, we calculated the number of person kataans for which the difference between the similarity of the human-powered category and the maximum similarity of other categories is less than a threshold of 1-. A ratio to the number of input patterns that are equal to or less than the same threshold value may be used. Even with such a value, the pattern recognition dictionary represents the degree of separation from other categories, so it can be used until a certain degree of separation is achieved.

また、例えば同じ学習パターンの繰返し使用回数や、そ
の学習処理を終了する為の所定の高類似度差率Dtの設
定値は、装置に要求される認忠性能に応じて種々変形可
能なものである。また学習パラメータの設定アルゴリズ
ムも種々変形可能である。例えば各認識対象カテゴリ毎
にその認識辞書と入力パターンとのコンフユージヨンマ
トリックスを求めて学習パラメータを設定しても良い。
In addition, for example, the number of times the same learning pattern is used repeatedly and the predetermined high similarity difference rate Dt for terminating the learning process can be modified in various ways depending on the recognition performance required of the device. be. Furthermore, the learning parameter setting algorithm can be modified in various ways. For example, learning parameters may be set by finding a fusion matrix between the recognition dictionary and the input pattern for each category to be recognized.

史にここでは音声パターンの認識処理と、その認識辞書
の学習を例に説明したが、例えば手書き文字認識等、種
々の認識アルボリムに従うパターン認識処理装置にそれ
ぞれ適用することができる。
Although the speech pattern recognition process and the learning of the recognition dictionary have been explained here as an example, the present invention can be applied to pattern recognition processing apparatuses according to various recognition algorithms, such as handwritten character recognition.

要するに本発明は、人カバターンに対する類似度と認識
辞書の学習処理の状況に応じて学習パターンの収集とそ
の廃棄処理を行なうものであり、その要旨を逸脱しない
範囲で種々変形して実施・することができる。
In short, the present invention collects learning patterns and discards them according to the degree of similarity to human cover patterns and the learning processing status of the recognition dictionary, and can be implemented with various modifications without departing from the gist thereof. I can do it.

[発明の効果] 以上説明したように本発明によれば、入力パターンと辞
書パターンとの類似度演算結果に基いて、認識辞書を学
習するときに必要な学習パラメータを認識率が向上する
値に設定して認識辞書の学習を行なうので、認識辞書の
更新によって認識率が低下することはない。しかも、本
発明では、認識率が向上する方向には大きな学習パラメ
ータが設定されるので、収束するまでの更新回数も少な
くでき、速やかに認識性能の良好な認識辞書を作成でき
る。。
[Effects of the Invention] As explained above, according to the present invention, the learning parameters required when learning the recognition dictionary are set to values that improve the recognition rate, based on the similarity calculation result between the input pattern and the dictionary pattern. Since the recognition dictionary is trained after setting, the recognition rate does not decrease due to updating the recognition dictionary. Moreover, in the present invention, since a large learning parameter is set in the direction of improving the recognition rate, the number of updates until convergence can be reduced, and a recognition dictionary with good recognition performance can be quickly created. .

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明の一実施例に係る音声認識装置の概略構
成図、第2図は同装置における認識辞書の学習処理の基
本的な流れを示す図、第3図は同装置における学習パラ
メータの設定とその学習パラメータを用いた認識辞書の
学習処理の流れを示す図である。 1・・・音声入力部、2・・・特徴抽出部、3・・・記
憶部、4・・・類似度演算部、5・・・認識辞書メモリ
、6・・・類似度記憶部、7・・・学習パラメータ設定
部、8・・・学習部、9・・・制御部。 出願人代理人 弁理士 鈴江武彦 第1図 第2図 第3図
FIG. 1 is a schematic configuration diagram of a speech recognition device according to an embodiment of the present invention, FIG. 2 is a diagram showing the basic flow of recognition dictionary learning processing in the same device, and FIG. 3 is a diagram showing learning parameters in the same device. FIG. 3 is a diagram showing the flow of learning processing of a recognition dictionary using settings of and learning parameters thereof. DESCRIPTION OF SYMBOLS 1... Voice input unit, 2... Feature extraction unit, 3... Storage unit, 4... Similarity calculation unit, 5... Recognition dictionary memory, 6... Similarity storage unit, 7 ...Learning parameter setting section, 8.Learning section, 9.Control section. Applicant's agent Patent attorney Takehiko Suzue Figure 1 Figure 2 Figure 3

Claims (4)

【特許請求の範囲】[Claims] (1)入力パターンを分析して該入力パターンの特徴パ
ラメータを求める手段と、この特徴パラメータと認識辞
書とを照合して上記入力パターンの類似度(距離)を求
める手段と、この手段により得られた類似度(距離)を
記憶する手段と、この手段に記憶された類似度(距離)
からあるカテゴリの類似度(距離)と他のカテゴリの類
似度(距離)との差が所定のしきい値以上になるパター
ンの数n1と同しきい値以下になるパターンの数n2と
を求め、これらの情報に従って前記認識辞書の学習に必
要な学習パラメータを求める手段と、この学習パラメー
タに従って前記認識辞書を学習する手段とを具備したこ
とを特徴とするパターン認識装置。
(1) means for analyzing an input pattern to obtain characteristic parameters of the input pattern; means for comparing the characteristic parameters with a recognition dictionary to determine the degree of similarity (distance) of the input pattern; A means for storing the degree of similarity (distance) stored in the means, and a degree of similarity (distance) stored in this means.
Find the number n1 of patterns for which the difference between the similarity (distance) of a certain category and the similarity (distance) of another category is greater than or equal to a predetermined threshold, and the number n2 of patterns for which the difference is less than or equal to the same threshold. A pattern recognition device comprising: means for determining learning parameters necessary for learning the recognition dictionary according to this information; and means for learning the recognition dictionary according to the learning parameters.
(2)認識辞書の学習は、共分散行列の更新とそのKL
展開とによって行われるものであり、学習パラメータは
上記共分散行列の更新処理の重み係数として用いられる
ものである特許請求の範囲第1項記載のパターン認識装
置。
(2) Learning of the recognition dictionary involves updating the covariance matrix and its KL
2. The pattern recognition device according to claim 1, wherein the learning parameter is used as a weighting coefficient in the updating process of the covariance matrix.
(3)学習パラメータを求める手段は、各認識対象カテ
ゴリの類似度(距離)と他のカテゴリの類似度(距離)
の差があるしきい値以上になるパターン数と同しきい値
以下になるパターン数とに応じてその認識対象カテゴリ
の分散行列に対する入力パターンの学習パラメータの値
を決定するものであって、且つ認識率が低下したときに
は上記学習パラメータの値を前回の設定値よりも小さく
設定し、認識率が向上したときには上記学習パラメータ
の値を前回の設定値のまま維持するものである特許請求
の範囲第1項記載のパターン認識装置。
(3) The learning parameters are determined by the similarity (distance) of each recognition target category and the similarity (distance) of other categories.
The value of the learning parameter of the input pattern for the variance matrix of the recognition target category is determined according to the number of patterns for which the difference is above a certain threshold value and the number of patterns for which the difference is below the same threshold value, and When the recognition rate decreases, the value of the learning parameter is set smaller than the previous set value, and when the recognition rate improves, the value of the learning parameter is maintained at the previous set value. The pattern recognition device according to item 1.
(4)前記学習パラメータを求める手段は、前記パター
ンの数n1、n2から求められるn1/(n1+n2)
の値に従って、前記学習パラメータを求めるものである
ことを特徴とする特許請求の範囲第1項記載のパターン
認識装置。
(4) The means for determining the learning parameter is n1/(n1+n2) determined from the numbers n1 and n2 of the patterns.
2. The pattern recognition device according to claim 1, wherein the learning parameter is determined according to the value of .
JP61307634A 1986-12-25 1986-12-25 Pattern recognizing device Pending JPS63163582A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP61307634A JPS63163582A (en) 1986-12-25 1986-12-25 Pattern recognizing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP61307634A JPS63163582A (en) 1986-12-25 1986-12-25 Pattern recognizing device

Publications (1)

Publication Number Publication Date
JPS63163582A true JPS63163582A (en) 1988-07-07

Family

ID=17971396

Family Applications (1)

Application Number Title Priority Date Filing Date
JP61307634A Pending JPS63163582A (en) 1986-12-25 1986-12-25 Pattern recognizing device

Country Status (1)

Country Link
JP (1) JPS63163582A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0612093A (en) * 1992-03-02 1994-01-21 American Teleph & Telegr Co <Att> Speech recognizing apparatus and method and apparatus for training thereof
JP2005149074A (en) * 2003-11-14 2005-06-09 Matsushita Electric Ind Co Ltd Image recognition device

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60129894A (en) * 1983-12-19 1985-07-11 Matsushita Electric Ind Co Ltd Pattern recognizer
JPS6194186A (en) * 1984-10-15 1986-05-13 Nec Corp Pattern recognizing system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60129894A (en) * 1983-12-19 1985-07-11 Matsushita Electric Ind Co Ltd Pattern recognizer
JPS6194186A (en) * 1984-10-15 1986-05-13 Nec Corp Pattern recognizing system

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0612093A (en) * 1992-03-02 1994-01-21 American Teleph & Telegr Co <Att> Speech recognizing apparatus and method and apparatus for training thereof
JP2005149074A (en) * 2003-11-14 2005-06-09 Matsushita Electric Ind Co Ltd Image recognition device
JP4529418B2 (en) * 2003-11-14 2010-08-25 パナソニック株式会社 Image recognition device

Similar Documents

Publication Publication Date Title
CN108766419B (en) Abnormal voice distinguishing method based on deep learning
JPH02238495A (en) Time series signal recognizing device
CN104882144A (en) Animal voice identification method based on double sound spectrogram characteristics
JPS63225300A (en) Pattern recognition equipment
JP2004512544A (en) Discriminatively trained mixed models in continuous speech recognition.
CN110853654A (en) Model generation method, voiceprint recognition method and corresponding device
CN113763965A (en) Speaker identification method with multiple attention characteristics fused
KR100574769B1 (en) Speaker and environment adaptation based on eigenvoices imcluding maximum likelihood method
Azam et al. Speaker verification using adapted bounded Gaussian mixture model
JPH10240930A (en) Pattern recognizing method and its device
Kaur et al. An efficient speaker recognition using quantum neural network
KR20220047080A (en) A speaker embedding extraction method and system for automatic speech recognition based pooling method for speaker recognition, and recording medium therefor
JPS63163582A (en) Pattern recognizing device
CN116434758A (en) Voiceprint recognition model training method and device, electronic equipment and storage medium
US6134525A (en) Identification-function calculator, identification-function calculating method, identification unit, identification method, and speech recognition system
EP0469577A2 (en) Reference pattern adapting device trainable by a small number of training patterns
EP3496092B1 (en) Voice processing apparatus, voice processing method and program
JPS62229489A (en) Pattern recognition learning device
Low et al. Speech recognition using the probabilistic neural network
CN116230012B (en) Two-stage abnormal sound detection method based on metadata comparison learning pre-training
JPS63298299A (en) Pattern recognition learning apparatus
JPS62229490A (en) Pattern recognizing device
JPH01321499A (en) Speech recognizing device
JP3859884B2 (en) Speaker recognition method and speaker recognition apparatus
JP3044741B2 (en) Standard pattern learning method