JP2001272994A - Device and method for study, device and method for recognizing pattern, and recording medium - Google Patents

Device and method for study, device and method for recognizing pattern, and recording medium

Info

Publication number
JP2001272994A
JP2001272994A JP2000090724A JP2000090724A JP2001272994A JP 2001272994 A JP2001272994 A JP 2001272994A JP 2000090724 A JP2000090724 A JP 2000090724A JP 2000090724 A JP2000090724 A JP 2000090724A JP 2001272994 A JP2001272994 A JP 2001272994A
Authority
JP
Japan
Prior art keywords
loss
parameter
correct answer
learning method
class
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000090724A
Other languages
Japanese (ja)
Inventor
Yoshinaga Kato
喜永 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2000090724A priority Critical patent/JP2001272994A/en
Publication of JP2001272994A publication Critical patent/JP2001272994A/en
Pending legal-status Critical Current

Links

Landscapes

  • Complex Calculations (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a device for study enabling a prescribed model (for example, a recognition model) to stabilize itself at an early stage and reach a local optimal state independently of a model to be handled and also by reducing a calculation amount. SOLUTION: This device comprises a normalizing means 11 for normalizing a discrimination function to each class by converting it into at least a primarily differentiable and stochastically limited function, a loss calculating means 12 for calculating a loss to a correct answer by using a discrimination function value normalized by the normalizing means 11, an optimal parameter adjustment amount calculating means 13 for calculating an optimal adjustment amount of a prescribed model 100 to minimize the loss calculated by the loss calculating means 12, and an adjusting means 14 for adjusting the parameter of the prescribed model 100 by the optimal parameter adjusting amount calculated by the optimal parameter adjustment amount calculating means 13.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、学習装置および学
習方法およびパターン認識装置およびパターン認識方法
および記録媒体に関する。
The present invention relates to a learning device, a learning method, a pattern recognition device, a pattern recognition method, and a recording medium.

【0002】[0002]

【従来の技術】従来、例えば文献「The Journal of the
Acoustical Society of Japan(E) vol.13 no.6, pp.34
1-349, Nov.1992」には、入力パターンをクラス数Uの
クラス1〜Uのいずれかに分類する技術が示されてい
る。すなわち、この文献に開示の技術では、まず、入力
パターンxと認識モデルのパラメータΛが与えられた時
のクラスuに対する判別関数をgu(x,Λ),(u=1,
・・・,U)とする。ここで、入力パターンxがクラスu
に属している場合には、判別関数guの値が大きくなる
ように設計されているものとする。この場合、pという
クラスに属するパターンに対する誤分類測度dp(x,
Λ)は次式(数1)のように表わされる。
2. Description of the Related Art Conventionally, for example, the document "The Journal of the
Acoustical Society of Japan (E) vol.13 no.6, pp.34
1-349, Nov. 1992 ", there is disclosed a technique for classifying an input pattern into any one of classes 1 to U having a class number U. That is, according to the technique disclosed in this document, first, a discriminant function for a class u when an input pattern x and a parameter の of a recognition model are given is g u (x, Λ), (u = 1,
..., U). Here, the input pattern x is a class u
If it belongs to is assumed to be designed such that the value of the discriminant function g u increases. In this case, the misclassification measure d p (x,
Λ) is represented by the following equation (Equation 1).

【0003】[0003]

【数1】 (Equation 1)

【0004】ここで、ζは比較操作を制御する指数(す
なわち、調整量)を表わしている。数1より、誤分類測
度dp(x,Λ)は、これが負(ー)となるときには正解を
表わし、正(+)となるときには不正解を表わす。
Here, ζ represents an index for controlling the comparison operation (that is, an adjustment amount). From Equation 1, the misclassification measure d p (x, x) indicates a correct answer when it is negative (−), and indicates an incorrect answer when it is positive (+).

【0005】次に、m番目のパターンを入力したときの
u番目のクラスに対する個々の損失Eu(x,Λ)を次式
(数2)のように平滑な形式で定義する。
Next, individual losses E u (x, Λ) for the u-th class when the m-th pattern is input are defined in a smooth form as in the following equation (Equation 2).

【0006】[0006]

【数2】 (Equation 2)

【0007】なお、数2の損失Eu(x,Λ)はシグモイ
ド関数であり、正解のときには“0”,完全に間違って
いるときには“1”に非常に近い値をとる。数2の損失
の表現Eu(x,Λ)を用いると、経験損失L(Λ)は次式
(数3)のように表現できる。
The loss E u (x, Λ) in Equation 2 is a sigmoid function, and takes a value very close to “0” when the answer is correct and “1” when the answer is completely wrong. Using the loss expression E u (x, Λ) of Equation 2, the empirical loss L (Λ) can be expressed as the following Equation (Equation 3).

【0008】[0008]

【数3】 (Equation 3)

【0009】ここで、xmは、M個の中から入力された
m番目のパターンである。経験損失L(Λ)を最小にする
ため、次式(数4)のように、モデルパラメータΛの修正
量ΔΛを計算する。
Here, x m is the m-th pattern input from the M patterns. In order to minimize the experience loss L (Λ), the correction amount ΔΛ of the model parameter Λ is calculated as in the following equation (Equation 4).

【0010】[0010]

【数4】 (Equation 4)

【0011】ここで、ηは正の小さな学習係数である。
確率的降下定理に基づき次式(数5)の繰り返し計算を実
行することにより、数3の局所最小状態が保証される。
Here, η is a small positive learning coefficient.
By executing the iterative calculation of the following equation (Equation 5) based on the stochastic descent theorem, the local minimum state of Equation 3 is guaranteed.

【0012】[0012]

【数5】Λ(t+1)=Λ(t)+ΔΛ(t)5 (t + 1) = Λ (t) + ΔΛ (t)

【0013】なお、数5において、Λ(t)は繰り返し計
算をt回適用後のパラメータである。
In equation (5),) (t) is a parameter after the repetitive calculation is applied t times.

【0014】[0014]

【発明が解決しようとする課題】ところで、上記文献に
示された技術内容によれば、数1を各クラス1〜Uごと
に計算するため、計算量が多く、全体の計算負荷が大き
くなるという不都合がある。
By the way, according to the technical contents disclosed in the above-mentioned literature, since the equation (1) is calculated for each of the classes 1 to U, the calculation amount is large and the total calculation load is large. There are inconveniences.

【0015】一方、上記文献には、比較操作を制御する
ζを無限大に設定し、次式(数6)のように簡単化した誤
分類度を用いることも示されている。
On the other hand, the above document also discloses that ζ, which controls the comparison operation, is set to infinity, and a simplified misclassification degree is used as in the following equation (Equation 6).

【0016】[0016]

【数6】dp(x,Λ)=−gp(x,Λ)+gq(x,Λ)## EQU6 ## d p (x, Λ) = − g p (x, Λ) + g q (x, Λ)

【0017】ここで、qはp以外で最も判別関数値が大
きくなるクラスである。すなわち、数6は、パターンx
が属するクラスpとそれ以外で最も近いクラスqとの間
だけで比較を行なう式となっている。数6を用いれば、
計算量を減らすことはできるが、損失を最小にするため
の操作がp,q以外のモデルパラメータに反映されない
ので、最適な状態への到達するまでの時間が長くかかっ
てしまうという不都合がある。さらに、判別関数の値
は、扱うモデル(例えば、隠れマルコフモデルやニュー
ラルネットワークモデルなど)により、取りうる範囲に
ばらつきがある。そのため、数2では、h,bという変
数を用いて損失関数の形状を制御している。しかしなが
ら、これらの値は経験的に定められるため、適切に設定
されていない場合は、最適状態への到達時間が長くなる
という問題があった。
Here, q is a class having the largest discriminant function value except p. That is, Equation 6 is a pattern x
The comparison is performed only between the class p to which belongs and the closest class q. Using Equation 6,
Although the amount of calculation can be reduced, the operation for minimizing the loss is not reflected on the model parameters other than p and q, so that it takes a long time to reach an optimum state. Further, the value of the discriminant function varies in a possible range depending on a model to be handled (for example, a hidden Markov model or a neural network model). Therefore, in Equation 2, the shape of the loss function is controlled using the variables h and b. However, since these values are determined empirically, if they are not set appropriately, there is a problem that the time to reach the optimum state becomes longer.

【0018】本発明は、扱うモデルによらずに、また、
計算量を低減させて、早い段階で安定して所定のモデル
(例えば認識モデル)の局所最適状態に到達させることの
可能な学習装置および学習方法およびパターン認識装置
およびパターン認識方法および記録媒体を提供すること
を目的としている。
The present invention is independent of the model to be treated and
Predetermined model stably at an early stage by reducing the amount of calculation
It is an object of the present invention to provide a learning device, a learning method, a pattern recognition device, a pattern recognition method, and a recording medium capable of reaching a local optimum state (for example, a recognition model).

【0019】[0019]

【課題を解決するための手段】上記目的を達成するため
に、請求項1記載の発明は、判別関数を用いて入力パタ
ーンが属するクラスを求め、正解との損失を最小化する
ために、所定のモデルのパラメータを調整する学習装置
において、各クラスに対する判別関数を少なくとも一次
微分可能でかつ確率的制約をもつ関数に変換して正規化
する正規化手段と、正規化手段によって正規化された判
別関数値を用いて正解に対する損失を算出する損失算出
手段と、損失算出手段で算出された損失を最小にするこ
とで、所定のモデルの最適なパラメータ調整量を算出す
る最適パラメータ調整量算出手段と、最適パラメータ調
整量算出手段によって算出された最適なパラメータ調整
量により所定のモデルのパラメータを調整する調整手段
とを有していることを特徴としている。
In order to achieve the above object, according to the first aspect of the present invention, a class to which an input pattern belongs is determined by using a discriminant function, and a predetermined class is determined in order to minimize a loss from a correct answer. A learning device that adjusts the parameters of the model of (1), normalizing means for converting a discriminant function for each class into a function having at least first-order differentiable and stochastic constraints and normalizing the discriminant function, and discriminant normalized by the normalizing means Loss calculation means for calculating a loss to a correct answer using a function value, and an optimum parameter adjustment amount calculation means for calculating an optimum parameter adjustment amount of a predetermined model by minimizing the loss calculated by the loss calculation means; Adjusting means for adjusting the parameters of a predetermined model based on the optimum parameter adjustment amount calculated by the optimum parameter adjustment amount calculating means. It is characterized in.

【0020】また、請求項2記載の発明は、請求項1記
載の学習装置において、損失算出手段は、正規化手段に
よって正規化された判別関数値を入力パターンが属する
クラスへの可能性の分布として評価する尺度を用いて、
正解クラスに対する損失を求めることを特徴としてい
る。
According to a second aspect of the present invention, in the learning apparatus according to the first aspect, the loss calculating means distributes the discriminant function value normalized by the normalizing means to a class to which the input pattern belongs. Using a scale that evaluates as
It is characterized in that a loss for the correct answer class is obtained.

【0021】また、請求項3記載の発明は、請求項1記
載の学習装置において、損失算出手段は、正規化手段に
よって正規化された判別関数値のうち、正解に対する判
別関数値と正解に対する判別関数値以外でもっともらし
い値をもつ少なくとも1つの判別関数値とに対して、入
力パターンが属する可能性の分布として評価する尺度を
用いて、正解クラスに対する損失を求めることを特徴と
している。
According to a third aspect of the present invention, in the learning apparatus according to the first aspect, the loss calculating means includes a discriminant function value for the correct answer and a discriminant for the correct answer among the discriminant function values normalized by the normalizing means. It is characterized in that a loss for a correct answer class is obtained using at least one discriminant function value having a plausible value other than the function value using a scale evaluated as a distribution of the possibility that the input pattern belongs.

【0022】また、請求項4記載の発明は、請求項2ま
たは請求項3記載の学習装置において、尺度に用いる正
解の分布には、正解が属するクラスにのみ可能性が存在
する分布が用いられることを特徴としている。
According to a fourth aspect of the present invention, in the learning apparatus according to the second or third aspect, the distribution of the correct answer used for the scale is a distribution having a possibility only in the class to which the correct answer belongs. It is characterized by:

【0023】また、請求項5記載の発明は、請求項1乃
至請求項4のいずれか一項に記載の学習装置において、
入力パターンが可変長入力パターンである場合に、所定
のモデルとして、パターンの特徴量を評価するパラメー
タと部分パラメータの継続長を評価するパラメータとで
表現される状態遷移モデルを用いて、可変長入力パター
ンを得点化することを特徴としている。
According to a fifth aspect of the present invention, in the learning apparatus according to any one of the first to fourth aspects,
When the input pattern is a variable-length input pattern, a variable-length input is performed by using a state transition model represented by a parameter for evaluating the characteristic amount of the pattern and a parameter for evaluating the continuation length of the partial parameter as a predetermined model. It is characterized by scoring patterns.

【0024】また、請求項6記載の発明は、請求項5記
載の学習装置において、状態遷移モデルは、特徴量を評
価するパラメータによる得点と継続長を評価するパラメ
ータによる得点との割合を調整可能になっていることを
特徴としている。
According to a sixth aspect of the present invention, in the learning apparatus according to the fifth aspect, the state transition model can adjust a ratio between a score based on a parameter for evaluating a feature amount and a score based on a parameter for evaluating a continuation length. It is characterized by being.

【0025】また、請求項7記載の発明は、判別関数を
用いて入力パターンが属するクラスを求め、正解との損
失を最小化するために、所定のモデルのパラメータを調
整する学習方法において、各クラスに対する判別関数を
少なくとも一次微分可能でかつ確率的制約をもつ関数に
変換して正規化した上で、正解に対する損失を求め、正
解に対する損失を最小にすることで、所定のモデルの最
適なパラメータを求めることを特徴としている。
According to a seventh aspect of the present invention, there is provided a learning method for determining a class to which an input pattern belongs by using a discriminant function and adjusting parameters of a predetermined model in order to minimize a loss from a correct answer. After converting the discriminant function for the class to a function having at least first-order differentiable and stochastic constraints and normalizing it, find the loss for the correct answer and minimize the loss for the correct answer to obtain the optimal parameters for the given model. It is characterized by seeking.

【0026】また、請求項8記載の発明は、請求項7記
載の学習方法において、正解との損失を最小化するため
に、確率的降下法によって所定のモデルのパラメータを
求めることを特徴としている。
The invention according to claim 8 is characterized in that, in the learning method according to claim 7, parameters of a predetermined model are obtained by a stochastic descent method in order to minimize a loss from a correct answer. .

【0027】また、請求項9記載の発明は、請求項7記
載の学習方法において、正規化された判別関数値を入力
パターンが属するクラスへの可能性の分布として評価す
る尺度を用いて正解クラスに対する損失を求めることを
特徴としている。
According to a ninth aspect of the present invention, there is provided the learning method according to the seventh aspect, wherein a standardized discriminant function value is determined by using a scale for evaluating the normalized discriminant function value as a probability distribution to a class to which the input pattern belongs. It is characterized by finding the loss for

【0028】また、請求項10記載の発明は、請求項7
記載の学習方法において、正規化された判別関数値のう
ち、正解に対する判別関数値と正解に対する判別関数値
以外でもっともらしい値をもつ少なくとも1つの判別関
数値とに対して、入力パターンが属する可能性の分布と
して評価する尺度を用いて、正解クラスに対する損失を
求めることを特徴としている。
The invention according to claim 10 is the same as the invention according to claim 7.
In the learning method described, the input pattern may belong to the discriminant function value for the correct answer and at least one discriminant function value having a plausible value other than the discriminant function value for the correct answer among the normalized discriminant function values. It is characterized in that a loss for a correct answer class is obtained using a scale evaluated as a gender distribution.

【0029】また、請求項11記載の発明は、請求項9
または請求項10記載の学習方法において、尺度に用い
る正解の分布には、正解が属するクラスにのみ可能性が
存在する分布を用いることを特徴としている。
Further, the invention described in claim 11 is the same as the ninth invention.
Alternatively, in the learning method according to the tenth aspect, the distribution of the correct answer used as the scale is a distribution having a possibility only in the class to which the correct answer belongs.

【0030】また、請求項12記載の発明は、請求項7
乃至請求項11のいずれか一項に記載の学習方法におい
て、入力パターンが可変長入力パターンである場合に、
所定のモデルとして、パターンの特徴量を評価するパラ
メータと部分パラメータの継続長を評価するパラメータ
とで表現される状態遷移モデルを用いて、可変長入力パ
ターンを得点化することを特徴としている。
The invention according to claim 12 is the same as claim 7.
In the learning method according to any one of claims 11 to 11, when the input pattern is a variable length input pattern,
As a predetermined model, a variable-length input pattern is scored by using a state transition model represented by a parameter for evaluating a pattern characteristic amount and a parameter for evaluating a continuation length of a partial parameter.

【0031】また、請求項13記載の発明は、請求項1
2記載の学習方法において、状態遷移モデルは、特徴量
を評価するパラメータによる得点と継続長を評価するパ
ラメータによる得点との割合を調整可能になっているこ
とを特徴としている。
The invention according to claim 13 is the first invention.
2. In the learning method described in 2, the state transition model is characterized in that the ratio between the score based on the parameter for evaluating the characteristic amount and the score based on the parameter for evaluating the continuation length can be adjusted.

【0032】また、請求項14記載の発明は、請求項1
2または請求項13記載の学習方法において、特徴量を
評価するパラメータの平均ベクトルを、請求項7乃至請
求項11のいずれか一項に記載の学習方法を用いて調整
することを特徴としている。
The invention according to claim 14 is the first invention.
In the learning method according to the second or thirteenth aspect, an average vector of a parameter for evaluating a feature amount is adjusted using the learning method according to any one of the seventh to eleventh aspects.

【0033】また、請求項15記載の発明は、請求項1
2または請求項13記載の学習方法において、特徴量を
評価するパラメータの分散を、請求項7乃至請求項11
のいずれか一項に記載の学習方法を用いて調整すること
を特徴としている。
Further, the invention according to claim 15 provides the invention according to claim 1.
In the learning method according to the second or the thirteenth aspect, the variance of the parameter for evaluating the feature amount is determined.
The adjustment is performed using the learning method described in any one of the above.

【0034】また、請求項16記載の発明は、請求項1
2または請求項13記載の学習方法において、継続長を
評価するパラメータの平均ベクトルを、請求項7乃至請
求項11のいずれか一項に記載の学習方法を用いて調整
することを特徴としている。
The invention according to claim 16 is the first invention.
In the learning method according to the second or thirteenth aspect, the average vector of the parameter for evaluating the continuation length is adjusted using the learning method according to any one of the seventh to eleventh aspects.

【0035】また、請求項17記載の発明は、請求項1
2または請求項13記載の学習方法において、継続長を
評価するパラメータの分散を、請求項7乃至請求項11
のいずれか一項に記載の学習方法を用いて調整すること
を特徴としている。
The invention according to claim 17 is the first invention.
In the learning method according to the second or the thirteenth aspect, the variance of the parameter for evaluating the continuation length is determined.
The adjustment is performed using the learning method described in any one of the above.

【0036】また、請求項18記載の発明は、請求項1
3記載の学習方法において、特徴量を評価するパラメー
タによる得点と継続長を評価するパラメータによる得点
の割合を、請求項7乃至請求項11のいずれか一項に記
載の学習方法を用いて調整することを特徴としている。
The invention according to claim 18 is the first invention.
In the learning method according to the third aspect, a ratio between a score based on the parameter for evaluating the feature amount and a score based on the parameter for evaluating the continuation length is adjusted using the learning method according to any one of claims 7 to 11. It is characterized by:

【0037】また、請求項19記載の発明は、判別関数
を用いて入力パターンが属するクラスを求め、正解との
損失を最小化するために、認識モデルのパラメータを調
整するパターン認識装置において、各クラスに対する判
別関数を少なくとも一次微分可能でかつ確率的制約をも
つ関数に変換して正規化する正規化手段と、正規化手段
によって正規化された判別関数値を用いて正解に対する
損失を算出する損失算出手段と、損失算出手段で算出さ
れた損失を最小にすることで、認識モデルの最適なパラ
メータ調整量を算出する最適パラメータ調整量算出手段
と、最適パラメータ調整量算出手段によって算出された
最適なパラメータ調整量により認識モデルのパラメータ
を調整する調整手段とを有し、調整手段によって認識モ
デルのパラメータが最適なパラメータに調整されたとき
に、パラメータ調整された認識モデルを用いて入力パタ
ーンに対するパターン認識を行なうようになっているこ
とを特徴としている。
According to a nineteenth aspect of the present invention, there is provided a pattern recognition apparatus which obtains a class to which an input pattern belongs by using a discriminant function and adjusts parameters of a recognition model in order to minimize a loss from a correct answer. A normalizing means for converting a discriminant function for a class into a function having at least first differentiable and having a stochastic constraint to normalize the discriminant function, and a loss for calculating a loss for a correct answer using the discriminant function value normalized by the normalizing means Calculating means, an optimum parameter adjustment amount calculating means for calculating an optimum parameter adjustment amount of the recognition model by minimizing the loss calculated by the loss calculating means, and an optimum parameter adjustment amount calculated by the optimum parameter adjustment amount calculating means. Adjusting means for adjusting the parameters of the recognition model by the parameter adjustment amount, and adjusting the parameters of the recognition model by the adjusting means. When it is adjusted to the optimum parameters, it is characterized by being adapted to perform pattern recognition for the input pattern by using the recognition models parameter adjustment.

【0038】また、請求項20記載の発明は、判別関数
を用いて入力パターンが属するクラスを求め、正解との
損失を最小化するために、認識モデルのパラメータを調
整するパターン認識方法において、各クラスに対する判
別関数を少なくとも一次微分可能でかつ確率的制約をも
つ関数に変換して正規化した上で、正解に対する損失を
求め、正解に対する損失を最小にすることで、認識モデ
ルの最適なパラメータを求め、認識モデルのパラメータ
が最適なパラメータに調整されたときに、パラメータ調
整された認識モデルを用いて入力パターンに対するパタ
ーン認識を行なうようになっていることを特徴としてい
る。
According to a twentieth aspect of the present invention, in the pattern recognition method for determining a class to which an input pattern belongs by using a discriminant function and adjusting parameters of a recognition model in order to minimize a loss from a correct answer, After converting the discriminant function for the class to a function with at least first-order differentiable and stochastic constraints and normalizing it, find the loss for the correct answer and minimize the loss for the correct answer to obtain the optimal parameters of the recognition model. When the parameters of the recognition model are adjusted to the optimum parameters, the recognition of the input pattern is performed using the parameter-adjusted recognition model.

【0039】また、請求項21記載の発明は、各クラス
に対する判別関数を少なくとも一次微分可能でかつ確率
的制約をもつ関数に変換して正規化した上で、正解に対
する損失を求め、正解に対する損失を最小にすること
で、所定のモデルの最適なパラメータを求める処理をコ
ンピュータに実行させるためのプログラムを記録したコ
ンピュータ読取可能な記録媒体である。
According to a twenty-first aspect of the present invention, the discriminant function for each class is converted to a function having at least first-order differentiable and stochastic constraints and normalized, and the loss for the correct answer is obtained. Is a computer-readable recording medium on which a program for causing a computer to execute a process of obtaining an optimal parameter of a predetermined model by minimizing the parameter is recorded.

【0040】[0040]

【発明の実施の形態】以下、本発明の実施形態を図面に
基づいて説明する。図1は本発明に係る学習装置の構成
例を示す図である。図1を参照すると、この学習装置
は、判別関数を用いて入力パターンが属するクラスを求
め、正解との損失を最小化するために、所定のモデル1
00(例えば、前述あるいは後述の認識モデル)のパラメ
ータを調整(学習)するものであって、各クラスに対する
判別関数を少なくとも一次微分可能でかつ確率的制約を
もつ関数に変換して正規化する正規化手段11と、正規
化手段11によって正規化された判別関数値を用いて正
解に対する損失を算出する損失算出手段12と、損失算
出手段12で算出された損失を最小にするために、所定
のモデル100の最適なパラメータ調整量を算出する最
適パラメータ調整量算出手段13と、最適パラメータ調
整量算出手段13によって算出された最適なパラメータ
調整量により所定のモデル100のパラメータを調整す
る調整手段14とを有している。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a diagram showing a configuration example of a learning device according to the present invention. Referring to FIG. 1, the learning apparatus obtains a class to which an input pattern belongs using a discriminant function, and uses a predetermined model 1 in order to minimize a loss from a correct answer.
00 (for example, a recognition model described above or below) that adjusts (learns) the parameters, and converts a discriminant function for each class into a function having at least first-order differentiable and stochastic constraints to normalize it. Converting means 11, a loss calculating means 12 for calculating a loss for a correct answer using the discriminant function value normalized by the normalizing means 11, and a predetermined value for minimizing the loss calculated by the loss calculating means 12. An optimal parameter adjustment amount calculating unit 13 for calculating an optimal parameter adjustment amount of the model 100; an adjusting unit 14 for adjusting a parameter of a predetermined model 100 based on the optimal parameter adjustment amount calculated by the optimal parameter adjustment amount calculating unit 13; have.

【0041】ここで、損失算出手段12は、正規化手段
11によって正規化された判別関数値を入力パターンが
属するクラスへの可能性の分布として評価する尺度を用
いて、正解クラスに対する損失を求めるようになってい
る。
Here, the loss calculating means 12 obtains a loss for the correct answer class by using a scale for evaluating the discriminant function value normalized by the normalizing means 11 as a distribution of possibility to the class to which the input pattern belongs. It has become.

【0042】次に、このような構成の学習装置における
学習方法について説明する。この学習装置では、入力パ
ターンxをクラス数Uのクラス1〜Uのいずれかに分類
する。すなわち、まず、入力パターンxと所定のモデル
100のパラメータΛが与えられた時のクラスuに対す
る判別関数をgu(x,Λ),(u=1,・・・,U)とす
る。ここで、入力パターンxがクラスuに属している場
合には、判別関数guの値が大きくなるように設計され
ているものとする。
Next, a learning method in the learning device having such a configuration will be described. In this learning device, the input pattern x is classified into one of classes 1 to U of the number of classes U. That is, first, the discriminant function for the class u when the input pattern x and the parameter の of the predetermined model 100 are given is g u (x, Λ), (u = 1,..., U). Here, when the input pattern x belongs to a class u is assumed to be designed such that the value of the discriminant function g u increases.

【0043】図2はこのような所定のモデル100を説
明するための図である。図2を参照すると、クラス1,
クラス2,…,クラスUに対する判別関数をg1(x,
Λ),g2(x,Λ),…,gU(x,Λ)とするとき、パタ
ーンxが入力した場合の所定のモデル100の判別関数
値はg1,g2,…,gUとなる。ここで、例えば、入力
パターンxがクラス1に属している場合には、判別関数
値g1が最も大きくなるように、すなわち、g1>g2
…,gUとなるように、所定のモデル100が設計され
ているとする。
FIG. 2 is a diagram for explaining such a predetermined model 100. Referring to FIG. 2, class 1,
The discriminant function for class 2,..., Class U is g 1 (x,
Λ), g 2 (x, Λ),..., G U (x, Λ), the discriminant function values of the predetermined model 100 when the pattern x is input are g 1 , g 2 ,. Becomes Here, for example, when the input pattern x belongs to class 1, as the discriminant function value g 1 is largest, i.e., g 1> g 2,
.., G U are assumed to be a predetermined model 100.

【0044】この所定のモデル100(判別関数g
1(x,Λ)〜gU(x,Λ))のパラメータΛを学習するの
に、図1の学習装置では、まず、正規化手段11におい
て、i番目の判別関数値giに対して正規化された関数
値aiを次式(数7)により導出する。
The predetermined model 100 (discriminating function g)
1 (x, Λ) ~g U (x, Λ) for learning the parameters lambda in), the learning apparatus of FIG. 1, first, the normalization unit 11, with respect to i-th discriminant function values g i The normalized function value a i is derived by the following equation (Equation 7).

【0045】[0045]

【数7】 (Equation 7)

【0046】数7で表わされる関数値aiは、一次微分
可能な関数(指数関数)による表現であり、また、次式
(数8)で表わされるように確率的制約をもっている。
The function value a i expressed by the equation (7) is expressed by a function (exponential function) that can be linearly differentiated.
It has a probabilistic constraint as expressed by (Equation 8).

【0047】[0047]

【数8】 (Equation 8)

【0048】このように正規化手段11において、正規
化された関数値aiが導出されると、損失算出手段12
では、正解に対する損失を求める。数7,数8の関数値
i(i=1〜U)は、確率表現により、入力パターンx
が属するクラスの可能性の分布と解釈できる。従って、
損失算出手段12では、この分布を評価する尺度を損失
とし、損失E(x,Λ)を次式(数9)のように算出するこ
とができる。
When the normalized function value a i is derived in the normalizing means 11 as described above, the loss calculating means 12
Then, the loss for the correct answer is determined. The function values a i (i = 1 to U) of the equations (7) and (8) are converted into the input pattern x by the probability expression.
Can be interpreted as a distribution of the likelihood of the class to which it belongs. Therefore,
The loss calculating means 12 can calculate the loss E (x, Λ) as in the following equation (Equation 9), with the measure for evaluating this distribution being the loss.

【0049】[0049]

【数9】 (Equation 9)

【0050】ここで、tuは、正解がu番目に属する可
能性を表わす関数値であり、aiと同様に、数8と同様
の確率表現をもっている。
Here, t u is a function value representing the possibility that the correct answer belongs to the u-th, and has a probability expression similar to Equation 8 as in ai .

【0051】損失算出手段12で数9のように損失E
(x,Λ)が算出されると、最適パラメータ調整量算出手
段13は、算出された損失E(x,Λ)を最小にするよう
に、所定のモデル100の最適なパラメータ調整量ΔΛ
を算出する。そして、調整手段14では、最適パラメー
タ調整量算出手段13によって算出された最適なパラメ
ータ調整量ΔΛにより数5を用いて所定のモデル100
のパラメータを調整する。
The loss calculation means 12 calculates the loss E
When (x, Λ) is calculated, the optimal parameter adjustment amount calculating means 13 sets the optimum parameter adjustment amount ΔΛ of the predetermined model 100 so as to minimize the calculated loss E (x, Λ).
Is calculated. Then, the adjusting unit 14 uses the optimum parameter adjustment amount ΔΛ calculated by the optimum parameter adjustment amount calculating unit 13 to obtain a predetermined model 100
Adjust the parameters of.

【0052】このように、図1の学習装置では、確率的
な制約をもつ関数を用いて各クラスの判別関数値を正規
化することにより、扱うモデルによらずに、安定してモ
デルパラメータの調整を行ない、所定のモデル100
(例えば、認識モデル)を安定して局所最適状態に到達さ
せることができる。
As described above, in the learning apparatus of FIG. 1, by normalizing the discriminant function value of each class using a function having a probabilistic constraint, the model parameters can be stably set regardless of the model to be handled. After making adjustments, the model 100
(For example, a recognition model) can be stably reached to a local optimum state.

【0053】また、図1の学習装置では、入力パターン
が属するクラスへの可能性を分布として評価する尺度を
用いて、正解クラスに対する損失を求めることにより、
早い段階で所定のモデル(例えば認識モデル)を局所最
適状態に到達させることができる。すなわち、各クラス
の判別関数値を一つの分布と捉えて計算することによ
り、各クラスに対応するモデルパラメータの修正量を同
時に決定することができて、高速に所定のモデル(例え
ば、認識モデル)を局所最適状態に到達させることがで
きる。
Further, in the learning apparatus of FIG. 1, the loss for the correct answer class is obtained by using a scale for evaluating the possibility of the class to which the input pattern belongs as a distribution.
A predetermined model (for example, a recognition model) can reach a local optimum state at an early stage. That is, by calculating the discriminant function value of each class as one distribution, the correction amount of the model parameter corresponding to each class can be determined at the same time, and a predetermined model (for example, a recognition model) Can reach a local optimal state.

【0054】なお、図1の学習装置は、数7乃至数9に
おいて、全クラス数Uを考慮しているが、計算負荷を小
さくするために、正規化された判別関数値のうち、正解
に対する判別関数値と正解に対する判別関数値以外でも
っともらしい値をもつ少なくとも1つの判別関数値とに
対して、入力パターンが属する可能性の分布として評価
する尺度を用いて、正解クラスに対する損失を求めるこ
ともできる。
Although the learning apparatus of FIG. 1 takes into account the total number of classes U in Equations 7 to 9, in order to reduce the calculation load, the normalized discriminant function values for the correct answer are reduced. Finding the loss for the correct class using a measure that evaluates the distribution of the possibility that the input pattern belongs to the discriminant function value and at least one discriminant function value having a plausible value other than the discriminant function value for the correct answer. Can also.

【0055】図3は図1の学習装置の変形例を示す図で
あり、図3の学習装置では、図1の学習装置において、
計算負荷を小さくするため、正規化手段11の前段にク
ラス選択手段15がさらに設けられている。このクラス
選択手段15では、全クラス数Uのクラス1〜Uの中か
ら所定数U'のクラスを選択するようになっている。具
体的に、この場合のU'に含まれるクラスを求めるに
は、判別関数値g1〜gUの大きさを判断し、正解クラス
と正解クラス以外で得点の大きい順に選択したクラスの
合計がU'になるようにクラス選択操作を行なえばよ
い。
FIG. 3 is a diagram showing a modification of the learning apparatus of FIG. 1. In the learning apparatus of FIG. 3, the learning apparatus of FIG.
In order to reduce the calculation load, a class selection unit 15 is further provided before the normalization unit 11. The class selecting means 15 selects a predetermined number U 'of classes from classes 1 to U of the total number U of classes. Specifically, in order to obtain the class included in U ′ in this case, the magnitudes of the discriminant function values g 1 to g U are determined, and the sum of the correct class and the class selected in the order of the highest score other than the correct class is calculated as What is necessary is just to perform a class selection operation so that it may become U '.

【0056】このように、損失を正解と正解に近いいく
つかのクラスに限定して求めることにより、所定のモデ
ル100(例えば認識モデル)のパラメータ調整に要する
計算量を削減することができる。すなわち、損失の計算
に要するクラス数を制御できるので、パラメータ調整に
要する計算量を削減できる。
As described above, by determining the loss only for the correct answer and some classes close to the correct answer, it is possible to reduce the amount of calculation required for adjusting the parameters of the predetermined model 100 (for example, the recognition model). That is, since the number of classes required for calculating the loss can be controlled, the amount of calculation required for parameter adjustment can be reduced.

【0057】また、上述した本発明の学習装置および学
習方法において、後述のように、尺度に用いる正解の分
布には、正解が属するクラスにのみ可能性が存在する分
布を用いることもできる。
In the learning apparatus and the learning method of the present invention described above, as will be described later, the distribution of the correct answer used for the scale may be a distribution having a possibility only in the class to which the correct answer belongs.

【0058】また、上述した本発明の学習装置および学
習方法では、入力パターンxが可変長パターンであると
きに、可変長パターンに対する所定のモデル(例えば、
認識モデル)の局所最適化を高速に行なうことができ
る。具体的に、後述のように、入力パターンが可変長入
力パターンである場合に、所定のモデルとして、パター
ンの特徴量を評価するパラメータと部分パラメータの継
続長を評価するパラメータとで表現される状態遷移モデ
ルを用いて、可変長入力パターンを得点化することがで
きる。ここで、状態遷移モデルは、特徴量を評価するパ
ラメータによる得点と継続長を評価するパラメータによ
る得点との割合を調整可能になっている。
In the learning apparatus and the learning method of the present invention described above, when the input pattern x is a variable-length pattern, a predetermined model (for example,
Local optimization of the recognition model can be performed at high speed. Specifically, as described later, when the input pattern is a variable-length input pattern, a state represented by a parameter for evaluating the feature of the pattern and a parameter for evaluating the continuation length of the partial parameter as a predetermined model A variable-length input pattern can be scored using a transition model. Here, the state transition model can adjust the ratio between the score based on the parameter for evaluating the feature amount and the score based on the parameter for evaluating the duration.

【0059】また、上述した本発明の学習装置および学
習方法は、入力パターンxが可変長パターンだけでな
く、入力パターンxが静的なパターンに対する所定のモ
デル(例えば、認識モデル)の設計にも応用できる。
Further, the learning apparatus and the learning method of the present invention described above are applicable not only to the design of a predetermined model (for example, a recognition model) for a static pattern in which the input pattern x is not only a variable-length pattern but also an input pattern x. Can be applied.

【0060】また、上述した本発明の学習装置および学
習方法は、音声認識,文字認識などのパターン認識に適
用できる。図4,図5は本発明に係るパターン認識装置
の構成例を示す図である。なお、図4,図5のパターン
認識装置は、それぞれ図1,図3の学習装置を適用した
ものとなっている。従って、図4,図5において、図
1,図3に対応する箇所には同じ符号を付している。
The above-described learning apparatus and learning method of the present invention can be applied to pattern recognition such as voice recognition and character recognition. FIG. 4 and FIG. 5 are diagrams showing a configuration example of the pattern recognition device according to the present invention. Note that the pattern recognition devices of FIGS. 4 and 5 apply the learning device of FIGS. 1 and 3, respectively. Therefore, in FIG. 4 and FIG. 5, the same reference numerals are given to portions corresponding to FIG. 1 and FIG.

【0061】図4,図5のパターン認識装置では、図
1,図3の学習装置における所定のモデル100とし
て、認識モデル(例えば、後述のように、音声認識に用
いられる継続時間長制御型状態遷移(DST)モデル)
が用いられる。
In the pattern recognition apparatus shown in FIGS. 4 and 5, the predetermined model 100 in the learning apparatus shown in FIGS. 1 and 3 is a recognition model (for example, as described later, a state length control type used for voice recognition). Transition (DST) model)
Is used.

【0062】すなわち、図4,図5のパターン認識装置
は、判別関数を用いて入力パターンxが属するクラスを
求め、正解との損失を最小化するために、認識モデル1
00のパラメータを調整(学習)する学習装置を適用した
ものであって、各クラスに対する判別関数を少なくとも
一次微分可能でかつ確率的制約をもつ関数に変換して正
規化する正規化手段11と、正規化手段11によって正
規化された判別関数値を用いて正解に対する損失を算出
する損失算出手段12と、損失算出手段12で算出され
た損失を最小にすることで、認識モデル100の最適な
パラメータ調整量を算出する最適パラメータ調整量算出
手段13と、最適パラメータ調整量算出手段13によっ
て算出された最適なパラメータ調整量により認識モデル
100のパラメータを調整する調整手段14とを有し、
調整手段14によって認識モデル100のパラメータが
最適なパラメータに調整されたときに、パラメータ調整
された認識モデル100を用いて、未知の入力パターン
xに対するパターン認識を行なうように構成されてい
る。
That is, the pattern recognition apparatus shown in FIGS. 4 and 5 obtains the class to which the input pattern x belongs by using the discriminant function, and minimizes the loss from the correct answer.
A learning device that adjusts (learns) the parameters of 00, and converts a discriminant function for each class into a function having at least first-order differentiable and stochastic constraints and normalizes the discriminant function; A loss calculating unit 12 that calculates a loss for a correct answer using the discriminant function value normalized by the normalizing unit 11 and an optimal parameter of the recognition model 100 by minimizing the loss calculated by the loss calculating unit 12. An optimal parameter adjustment amount calculation unit for calculating an adjustment amount; and an adjustment unit for adjusting the parameters of the recognition model 100 based on the optimum parameter adjustment amount calculated by the optimum parameter adjustment amount calculation unit.
When the parameters of the recognition model 100 are adjusted to the optimum parameters by the adjustment means 14, the recognition of the unknown input pattern x is performed using the parameter-adjusted recognition model 100.

【0063】また、図4,図5のパターン認識装置で
は、認識モデル100への入力パターンxとして所定の
特徴パターンを生成する(例えば、入力音声から音声特
徴パターンを抽出する)特徴抽出手段17が設けられて
いる。
In the pattern recognition apparatus shown in FIGS. 4 and 5, the feature extraction means 17 generates a predetermined feature pattern as the input pattern x to the recognition model 100 (for example, extracts a voice feature pattern from an input voice). Is provided.

【0064】図4,図5のパターン認識装置では、パラ
メータΛで表現可能なモデル(認識モデル)として、音声
パターンのような可変長パターンを扱うことが可能であ
る。具体的に、例えば、特許第2804265号に記載
の継続時間長制御型状態遷移(DST)モデルを基本モ
デルとして以下に説明する。
The pattern recognition apparatuses shown in FIGS. 4 and 5 can handle a variable-length pattern such as a voice pattern as a model (recognition model) that can be expressed by the parameter Λ. Specifically, for example, a description will be given below using a duration length control type state transition (DST) model described in Japanese Patent No. 2804265 as a basic model.

【0065】DSTモデルの個数は、クラスの数Uと同
じであり、音声パターンxをu番目のモデルuで測った
ときの得点を判別関数の値gu(x,Λ)とし、次式(数
10)で表わす。
The number of DST models is the same as the number U of classes, and the score when the voice pattern x is measured by the u-th model u is defined as the value g u (x, 値) of the discriminant function. It is expressed by Equation 10).

【0066】[0066]

【数10】 (Equation 10)

【0067】数10において、xは、特徴抽出手段17
により生成された音声特徴パターンである。特徴抽出手
段17における特徴抽出には、よく知られたLPC(線
形予測)分析などを用いることができる。例えば、特徴
抽出条件を標本化周波数:8kHz、高域強調:一次差
分、256点ハミング窓、移動幅:16ms、LPC分
析次数:20とし、10次元メルケプストラム係数+対
数パワーの一次差分+対数パワーという特徴量をフレー
ム単位で抽出する。なお、特徴抽出条件としては、上記
のものに限定されるものではなく、周波数分析などの任
意の抽出手法を用いることができる。
In the equation (10), x is the characteristic extracting means 17
Is a voice feature pattern generated by the above. A well-known LPC (linear prediction) analysis or the like can be used for the feature extraction in the feature extraction unit 17. For example, the feature extraction conditions are as follows: sampling frequency: 8 kHz, high-frequency emphasis: first-order difference, 256-point Hamming window, moving width: 16 ms, LPC analysis order: 20, 10-dimensional mel-cepstral coefficient + first-order difference of logarithmic power + logarithmic power Is extracted for each frame. Note that the feature extraction conditions are not limited to those described above, and any extraction method such as frequency analysis can be used.

【0068】また、数10において、r(・)は、照合に
より得られた音声パターンとモデルの各状態との対応関
係を表し、r(n)は、第n状態と対応した部分パターン
の終了フレーム番号とする。
In Equation 10, r (·) represents the correspondence between the voice pattern obtained by the matching and each state of the model, and r (n) represents the end of the partial pattern corresponding to the n-th state. Frame number.

【0069】また、数10において、Snは、特徴量を
評価するパラメータ(特徴量に関する第n状態の得点)で
あり、次式(数11)のように定義される。
[0069] Further, in the equation 10, S n is a parameter for evaluating the characteristic quantity (scores of the n state related features), is defined as follows (number 11).

【0070】[0070]

【数11】 [Equation 11]

【0071】数11において、Tnはバイアス値であ
り、Dは各状態における局所距離を表わしている。な
お、Dには、次式(数12)の重み付き2乗ユークリッ
ド距離を用いることとする。
In Equation 11, T n is a bias value, and D represents a local distance in each state. The weighted square Euclidean distance of the following equation (Equation 12) is used for D.

【0072】[0072]

【数12】 (Equation 12)

【0073】数12において、μn=(μnk),σ2 n
(σ2 nk),(k=1,・・・,K)は、それぞれ、第
n状態の平均,分散である。なお、kはK次元ベクトル
の要素番号を表わしている。また、パターンxはMフレ
ームからなり、xm=(xmk),(m=1,・・・,
M)は、フレーム番号mの音声特徴量を表わしている。
In Equation 12, μ n = (μ nk ), σ 2 n =
2 nk ) and (k = 1,..., K) are the mean and variance of the n-th state, respectively. Note that k represents an element number of a K-dimensional vector. The pattern x is composed of M frames, and x m = (x mk ), (m = 1,...,
M) represents the audio feature amount of the frame number m.

【0074】また、数10において、Rnは、継続長を
評価するパラメータ(第n状態の継続時間に関する距離)
であり、次式(数13)のように表わされる。
In Equation 10, R n is a parameter for evaluating the duration (distance relating to the duration of the n-th state)
And is represented by the following equation (Equation 13).

【0075】[0075]

【数13】 (Equation 13)

【0076】数13において、Jは、重み付き2乗ユー
クリッド距離であり、次式(数14)のように表わされ
る。
In Expression 13, J is a weighted squared Euclidean distance, and is expressed by the following expression (Expression 14).

【0077】[0077]

【数14】 [Equation 14]

【0078】ここで、τn,ζn 2は、それぞれ、各状態
の継続時間長の平均,分散である。また、lnは各状態
に対応付けられた部分パターンの時間長である。
Here, τ n and ζ n 2 are the average and the variance of the duration of each state, respectively. Further, l n is the length of time of the partial pattern associated with each state.

【0079】また、数10において、zn(0≦zn
1)は、SnとRnとから得られた得点の割合を調整する
重みであり、znの値が大きいほど、継続時間評価に関
する得点の影響が小さくなる。
Further, in Expression 10, z n (0 ≦ z n
1) is a weight to adjust proportion of scores obtained from the S n and R n, as the value of z n is large, the influence of the score on evaluation duration decreases.

【0080】数10の判別関数値は、特許第28042
65号に示されているように、動的計画法に継続時間評
価に関する得点を組み込みながら状態探索を行なうこと
により、求めることができる。
The discriminant function value of Equation 10 is disclosed in Japanese Patent No. 280402.
As shown in No. 65, it can be obtained by performing a state search while incorporating a score regarding the duration evaluation into the dynamic programming.

【0081】すなわち、数9で定義した損失E(x,Λ)
の最小化を行うため、上記認識モデルgu(x,Λ)の
パラメータを最適パラメータ調整量算出手段13と調整
手段14とを用いて確率的降下法により調整(学習)す
る。以下では、認識モデルg u(x,Λ)の各パラメー
タにクラスを表すuを加えて説明することにする。
That is, the loss E (x, Λ) defined by equation 9
To minimize the recognition model gu(X, Λ)
Adjust parameters with optimal parameter adjustment amount calculating means 13
Adjustment (learning) by the stochastic descent method using the means 14
You. In the following, the recognition model g uEach parameter of (x, Λ)
The description will be made by adding u representing the class to the data.

【0082】まず、モデルパラメータの中から、特徴量
に関する平均ベクトルを対象とする。この場合、数9の
損失関数E(x,Λ)からパラメータの修正量は次式
(数15)のように計算できる。
First, an average vector related to a feature amount is targeted from among the model parameters. In this case, the amount of parameter correction can be calculated from the loss function E (x, Λ) of Equation 9 as in the following Equation (Equation 15).

【0083】[0083]

【数15】 (Equation 15)

【0084】数15において、xc(n)kはn番目の状態
に対応付けられた音声特徴量のk次元目の要素を示す。
In Expression 15, x c (n) k indicates the k- th element of the audio feature amount associated with the n-th state.

【0085】同様に、特徴量に関する分散の修正量は次
式(数16)のように計算できる。
Similarly, the variance correction amount related to the feature amount can be calculated as in the following equation (Equation 16).

【0086】[0086]

【数16】 (Equation 16)

【0087】次に、継続長に関するパラメータについて
も、修正量を計算する。継続長に関する平均ベクトル,
分散ベクトルについて求めると、それぞれ、数17,数
18のように計算できる。
Next, the correction amount is calculated for the parameter relating to the continuation length. Mean vector for duration,
When the variance vector is obtained, it can be calculated as in Equations 17 and 18, respectively.

【0088】[0088]

【数17】 [Equation 17]

【0089】[0089]

【数18】 (Equation 18)

【0090】続いて、特徴量と継続長の評価割合を決定
するパラメータについても、修正量を求めると、次式
(数19)のように計算できる。
Subsequently, the parameter for determining the evaluation ratio of the feature amount and the duration can also be calculated as in the following equation (Equation 19) by obtaining the correction amount.

【0091】[0091]

【数19】 [Equation 19]

【0092】数15乃至数19が計算できれば、各モデ
ルパラメータは、数5を用いて調整できる。この時、正
解の分布をどのように与えるかが問題となるが、正解が
属するクラスpにのみ可能性が存在する次式(数20)
の分布tuを用いることができる。
If equations 15 to 19 can be calculated, each model parameter can be adjusted using equation 5. At this time, how to give the distribution of the correct answer becomes a problem, but the following equation (Equation 20) exists only in the class p to which the correct answer belongs.
It can be used for distribution t u.

【0093】[0093]

【数20】 (Equation 20)

【0094】数15乃至数20から、モデルの各パラメ
ータ(特徴量を評価するパラメータの平均ベクトル,特
徴量を評価するパラメータの分散,継続長を評価するパ
ラメータの平均ベクトル,継続長を評価するパラメータ
の分散,特徴量を評価するパラメータによる得点と継続
長を評価するパラメータによる得点との割合)は、前述
した本発明の学習方法を用いて(すなわち、調整手段1
4を用いて)、次のように調整することができる。
From Equations 15 to 20, the parameters of the model (the average vector of the parameter for evaluating the feature, the variance of the parameter for evaluating the feature, the average vector of the parameter for evaluating the duration, and the parameter for evaluating the duration) (The ratio between the score of the parameter for evaluating the feature amount and the score of the parameter for evaluating the continuation length) using the learning method of the present invention described above (that is, the adjusting means 1).
4) can be adjusted as follows.

【0095】すなわち、特徴量を評価するパラメータの
平均ベクトルは、次式(数21)によって調整できる。
That is, the average vector of the parameter for evaluating the characteristic amount can be adjusted by the following equation (Equation 21).

【0096】[0096]

【数21】 (Equation 21)

【0097】また、特徴量を評価するパラメータの分散
は、次式(数22)によって調整できる。
The variance of the parameter for evaluating the feature can be adjusted by the following equation (Equation 22).

【0098】[0098]

【数22】 (Equation 22)

【0099】また、継続長を評価するパラメータの平均
ベクトルは、次式(数23)によって調整できる。
The average vector of the parameter for evaluating the continuation length can be adjusted by the following equation (Equation 23).

【0100】[0100]

【数23】 (Equation 23)

【0101】また、継続長を評価するパラメータの分散
は、次式(数24)によって調整できる。
The variance of the parameter for evaluating the continuation length can be adjusted by the following equation (Equation 24).

【0102】[0102]

【数24】 (Equation 24)

【0103】また、特徴量を評価するパラメータによる
得点と継続長を評価するパラメータによる得点との割合
は、次式(数25)によって調整できる。
The ratio between the score obtained by the parameter for evaluating the characteristic amount and the score obtained by the parameter for evaluating the continuation length can be adjusted by the following equation (Equation 25).

【0104】[0104]

【数25】 (Equation 25)

【0105】このように、本発明のパターン認識装置お
よびパターン認識方法では、入力パターンxが可変長パ
ターンであるときに、可変長パターンに対する認識モデ
ルの局所最適化を高速に行ない、かつ高精度に入力パタ
ーンxに対するパターン認識を行なうことができる。ま
た、可変長パターンだけでなく、静的なパターンに対す
る認識モデルの設計にも応用できる。
As described above, in the pattern recognition apparatus and the pattern recognition method of the present invention, when the input pattern x is a variable length pattern, local optimization of a recognition model for the variable length pattern is performed at high speed and with high accuracy. Pattern recognition for the input pattern x can be performed. Further, the present invention can be applied to design of a recognition model for not only a variable-length pattern but also a static pattern.

【0106】図6は図1,図3,図4あるいは図5の学
習装置あるいはパターン認識装置のハードウェア構成例
を示す図である。図6を参照すると、図1,図3,図4
あるいは図5の学習装置あるいはパターン認識装置は、
例えばワークステーションやパーソナルコンピュータ等
で実現され、全体を制御するCPU21と、CPU21
の制御プログラム等が記憶されているROM22と、C
PU21のワークエリア等として使用されるRAM23
と、データを記憶するハードディスク24と、パターン
入力部(または音声入力部)25とを有している。
FIG. 6 is a diagram showing an example of a hardware configuration of the learning device or the pattern recognition device shown in FIG. 1, FIG. 3, FIG. 4 or FIG. Referring to FIG. 6, FIGS.
Alternatively, the learning device or the pattern recognition device of FIG.
For example, a CPU 21 that is realized by a workstation, a personal computer, or the like and controls the whole,
ROM 22 storing the control program of
RAM 23 used as a work area of PU 21
And a hard disk 24 for storing data, and a pattern input unit (or a voice input unit) 25.

【0107】ここで、所定のモデル100は、例えばR
AM23などに設定され、CPU21によって読み出さ
れ使用されるようになっている。また、CPU21は、
図1,図3,図4あるいは図5の正規化手段11,損失
算出手段12,最適パラメータ調整量算出手段13,調
整手段14,クラス選択手段15,特徴抽出手段17の
機能を有している。
Here, the predetermined model 100 is, for example, R
It is set in the AM 23 or the like, and is read and used by the CPU 21. Further, the CPU 21
It has the functions of the normalizing means 11, the loss calculating means 12, the optimal parameter adjustment amount calculating means 13, the adjusting means 14, the class selecting means 15, and the feature extracting means 17 shown in FIG. 1, FIG. 3, FIG. .

【0108】なお、CPU21におけるこのような正規
化手段11,損失算出手段12,最適パラメータ調整量
算出手段13,調整手段14,クラス選択手段15,特
徴抽出手段17等としての機能は、例えばソフトウェア
パッケージ(具体的には、CD−ROM等の情報記録媒
体)の形で提供することができ、このため、図6の例で
は、情報記録媒体30がセットさせるとき、これを駆動
する媒体駆動装置31が設けられている。
The functions of the CPU 21 such as the normalizing means 11, the loss calculating means 12, the optimum parameter adjustment amount calculating means 13, the adjusting means 14, the class selecting means 15, the feature extracting means 17 and the like are, for example, software packages. (Specifically, an information recording medium such as a CD-ROM) can be provided. For this reason, in the example of FIG. 6, when the information recording medium 30 is set, the medium driving device 31 drives the information recording medium 30. Is provided.

【0109】換言すれば、本発明の学習装置,パターン
認識装置は、イメージスキャナ,ディスプレイ等を備え
た汎用の計算機システムにCD−ROM等の情報記録媒
体に記録されたプログラムを読み込ませて、この汎用計
算機システムのマイクロプロセッサに学習処理,パター
ン認識処理を実行させる装置構成においても実施するこ
とが可能である。この場合、本発明の学習処理,パター
ン認識処理を実行するためのプログラム(すなわち、ハ
ードウェアシステムで用いられるプログラム)は、媒体
に記録された状態で提供される。プログラムなどが記録
される情報記録媒体としては、CD−ROMに限られる
ものではなく、ROM,RAM,フレキシブルディス
ク,メモリカード等が用いられても良い。媒体に記録さ
れたプログラムは、ハードウェアシステムに組み込まれ
ている記憶装置、例えばハードディスク装置にインスト
ールされることにより、このプログラムを実行して、本
発明の学習機能,パターン認識機能を実現することがで
きる。
In other words, the learning apparatus and the pattern recognition apparatus of the present invention allow a general-purpose computer system having an image scanner, a display, and the like to read a program recorded on an information recording medium such as a CD-ROM. The present invention can also be implemented in an apparatus configuration in which a microprocessor of a general-purpose computer system executes a learning process and a pattern recognition process. In this case, a program for executing the learning process and the pattern recognition process of the present invention (that is, a program used in the hardware system) is provided in a state recorded on a medium. The information recording medium on which the program or the like is recorded is not limited to a CD-ROM, but may be a ROM, a RAM, a flexible disk, a memory card, or the like. The program recorded on the medium is installed in a storage device incorporated in the hardware system, for example, a hard disk device, so that the program can be executed to realize the learning function and the pattern recognition function of the present invention. it can.

【0110】また、本発明の学習機能,パターン認識機
能を実現するためのプログラムは、媒体の形で提供され
るのみならず、ネットワークからダウンロードされて提
供されるものであっても良い。
The program for realizing the learning function and the pattern recognition function of the present invention may be provided not only in the form of a medium but also downloaded from a network.

【0111】[0111]

【発明の効果】以上に説明したように、請求項1乃至請
求項18,請求項21記載の発明によれば、判別関数を
用いて入力パターンが属するクラスを求め、正解との損
失を最小化するために、所定のモデルのパラメータを調
整する場合に、各クラスに対する判別関数を少なくとも
一次微分可能でかつ確率的制約をもつ関数に変換して正
規化した上で、正解に対する損失を求め、正解に対する
損失を最小にすることで、所定のモデルの最適なパラメ
ータを求めるので、扱うモデルによらずに、安定してモ
デルパラメータの調整を行ない、所定のモデルの局所最
適状態に到達させることができる。
As described above, according to the present invention, the class to which the input pattern belongs is obtained by using the discriminant function, and the loss from the correct answer is minimized. In order to adjust the parameters of the predetermined model, the discriminant function for each class is converted to a function having at least first-order differentiable and stochastic constraints and normalized, and the loss to the correct answer is obtained. , The optimum parameters of the predetermined model are obtained, so that the model parameters can be adjusted stably regardless of the model to be handled, and the local optimum state of the predetermined model can be reached. .

【0112】特に、請求項2,請求項4,請求項9,請
求項11記載の発明によれば、正規化された判別関数値
を入力パターンが属するクラスへの可能性の分布として
評価する尺度を用いて正解クラスに対する損失を求める
ので、早い段階で所定のモデル(例えば認識モデル)の
局所最適状態に到達させることができる。すなわち、各
クラスの判別関数値を一つの分布と捉えて計算すること
により、各クラスに対応するモデルパラメータの修正量
を同時に決定することができて、高速に所定のモデル
(例えば、認識モデル)の局所最適状態に到達させるこ
とができる。
In particular, according to the second, fourth, ninth, and eleventh aspects of the present invention, a scale for evaluating a normalized discriminant function value as a distribution of possibility to a class to which an input pattern belongs. Is used to determine the loss for the correct answer class, so that a local optimal state of a predetermined model (for example, a recognition model) can be reached at an early stage. That is, by calculating the discriminant function value of each class as one distribution, the correction amount of the model parameter corresponding to each class can be determined at the same time, and a predetermined model (for example, a recognition model) Can reach the local optimal state of

【0113】また、請求項3,請求項10記載の発明に
よれば、損失を正解のクラスと正解に近いいくつかのク
ラスとに限定して求めることにより、所定のモデル(例
えば認識モデル)のパラメータ調整に要する計算量を削
減することができる。すなわち、損失の計算に要するク
ラス数を制御できるので、パラメータ調整に要する計算
量に削減できる。
Further, according to the third and tenth aspects of the present invention, the loss is obtained by limiting the loss to the correct class and some classes close to the correct one to obtain a predetermined model (for example, a recognition model). The amount of calculation required for parameter adjustment can be reduced. That is, since the number of classes required for calculating the loss can be controlled, the amount of calculation required for parameter adjustment can be reduced.

【0114】また、請求項5,請求項6,請求項12,
請求項13記載の発明によれば、入力パターンが可変長
入力パターンである場合に、所定のモデルとして、パタ
ーンの特徴量を評価するパラメータと部分パラメータの
継続長を評価するパラメータとで表現される状態遷移モ
デルを用いて、可変長入力パターンを得点化するので、
入力パターンxが可変長パターンであるときに、可変長
パターンに対する認識モデルの局所最適化を高速に行な
い、かつ高精度に入力パターンxに対するパターン認識
を行なうことができる。また、可変長パターンだけでな
く、静的なパターンに対する認識モデルの設計にも応用
できる。
Further, claim 5, claim 6, claim 12,
According to the thirteenth aspect, when the input pattern is a variable-length input pattern, the predetermined model is represented by a parameter for evaluating the characteristic amount of the pattern and a parameter for evaluating the continuation length of the partial parameter. Using a state transition model to score variable-length input patterns,
When the input pattern x is a variable-length pattern, local optimization of a recognition model for the variable-length pattern can be performed at high speed, and pattern recognition for the input pattern x can be performed with high accuracy. Further, the present invention can be applied to design of a recognition model for not only a variable-length pattern but also a static pattern.

【0115】また、請求項14乃至請求項18記載の発
明によれば、調整可能なモデルパターンを同一の損失を
用いて調整することにより、効率的にパラメータの調整
を行なうことができる。
Further, according to the present invention, the parameters can be adjusted efficiently by adjusting the adjustable model patterns using the same loss.

【0116】また、請求項19,請求項20記載の発明
によれば、各クラスに対する判別関数を少なくとも一次
微分可能でかつ確率的制約をもつ関数に変換して正規化
した上で、正解に対する損失を求め、正解に対する損失
を最小にすることで、認識モデルの最適なパラメータを
求め、認識モデルのパラメータが最適なパラメータに調
整されたときに、パラメータ調整された認識モデルを用
いて入力パターンに対するパターン認識を行なうように
なっているので、パターン認識精度を向上させることが
できる。
According to the nineteenth and twentieth aspects of the present invention, the discriminant function for each class is converted to a function having at least first-order differentiable and stochastic constraints, and is normalized. Is determined, and the optimal parameter of the recognition model is determined by minimizing the loss to the correct answer. When the parameters of the recognition model are adjusted to the optimal parameters, the pattern for the input pattern is determined using the parameter-adjusted recognition model. Since recognition is performed, pattern recognition accuracy can be improved.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明に係る学習装置の構成例を示す図であ
る。
FIG. 1 is a diagram showing a configuration example of a learning device according to the present invention.

【図2】所定のモデルを説明するための図である。FIG. 2 is a diagram for explaining a predetermined model.

【図3】図1の学習装置の変形例を示す図である。FIG. 3 is a diagram showing a modification of the learning device of FIG. 1;

【図4】本発明に係るパターン認識装置の構成例を示す
図である。
FIG. 4 is a diagram showing a configuration example of a pattern recognition device according to the present invention.

【図5】図4のパターン認識装置の変形例を示す図であ
る。
FIG. 5 is a diagram showing a modification of the pattern recognition device of FIG. 4;

【図6】図1または図3の学習装置あるいは図4または
図5のパターン認識装置のハードウェア構成例を示す図
である。
FIG. 6 is a diagram illustrating an example of a hardware configuration of the learning device of FIG. 1 or 3 or the pattern recognition device of FIG. 4 or 5;

【符号の説明】[Explanation of symbols]

11 正規化手段 12 損失算出手段 13 最適パラメータ調整量算出手段 14 調整手段 15 クラス選択手段 17 特徴抽出手段 100 所定のモデル(認識モデル) 21 CPU 22 ROM 23 RAM 24 ハードディスク 25 パターン入力部または音声入力部 30 記録媒体 31 媒体駆動装置 DESCRIPTION OF SYMBOLS 11 Normalization means 12 Loss calculation means 13 Optimum parameter adjustment amount calculation means 14 Adjustment means 15 Class selection means 17 Feature extraction means 100 Predetermined model (recognition model) 21 CPU 22 ROM 23 RAM 24 Hard disk 25 Pattern input unit or voice input unit Reference Signs List 30 recording medium 31 medium driving device

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G10L 15/14 G10L 3/00 535Z 15/16 539 Fターム(参考) 5B049 DD00 DD03 DD05 EE03 EE08 EE31 FF03 FF04 FF09 5B056 BB01 BB71 BB91 5D015 HH23 JJ00 5L096 BA16 BA17 CA22 EA17 FA34 GA09 GA30 KA04 9A001 GG05 HH21 JJ74 KK09 ──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) G10L 15/14 G10L 3/00 535Z 15/16 539 F term (Reference) 5B049 DD00 DD03 DD05 EE03 EE08 EE31 FF03 FF04 FF09 5B056 BB01 BB71 BB91 5D015 HH23 JJ00 5L096 BA16 BA17 CA22 EA17 FA34 GA09 GA30 KA04 9A001 GG05 HH21 JJ74 KK09

Claims (21)

【特許請求の範囲】[Claims] 【請求項1】 判別関数を用いて入力パターンが属する
クラスを求め、正解との損失を最小化するために、所定
のモデルのパラメータを調整する学習装置において、各
クラスに対する判別関数を少なくとも一次微分可能でか
つ確率的制約をもつ関数に変換して正規化する正規化手
段と、前記正規化手段によって正規化された判別関数値
を用いて正解に対する損失を算出する損失算出手段と、
損失算出手段で算出された損失を最小にすることで、所
定のモデルの最適なパラメータ調整量を算出する最適パ
ラメータ調整量算出手段と、最適パラメータ調整量算出
手段によって算出された最適なパラメータ調整量により
所定のモデルのパラメータを調整する調整手段とを有し
ていることを特徴とする学習装置。
1. A learning apparatus for determining a class to which an input pattern belongs by using a discriminant function and adjusting a parameter of a predetermined model in order to minimize a loss from a correct answer. Normalization means for converting to a function having a probable and stochastic constraint and normalizing the loss function, and a loss calculation means for calculating a loss for a correct answer using the discriminant function value normalized by the normalization means,
An optimal parameter adjustment amount calculating unit that calculates an optimal parameter adjustment amount of a predetermined model by minimizing the loss calculated by the loss calculating unit; and an optimal parameter adjustment amount calculated by the optimal parameter adjustment amount calculating unit. And an adjusting means for adjusting a parameter of a predetermined model by using the learning device.
【請求項2】 請求項1記載の学習装置において、前記
損失算出手段は、前記正規化手段によって正規化された
判別関数値を入力パターンが属するクラスへの可能性の
分布として評価する尺度を用いて、正解クラスに対する
損失を求めることを特徴とする学習装置。
2. The learning apparatus according to claim 1, wherein the loss calculation means uses a scale for evaluating the discriminant function value normalized by the normalization means as a distribution of the possibility of a class to which the input pattern belongs. A learning device for determining a loss for a correct answer class.
【請求項3】 請求項1記載の学習装置において、前記
損失算出手段は、前記正規化手段によって正規化された
判別関数値のうち、正解に対する判別関数値と正解に対
する判別関数値以外でもっともらしい値をもつ少なくと
も1つの判別関数値とに対して、入力パターンが属する
可能性の分布として評価する尺度を用いて、正解クラス
に対する損失を求めることを特徴とする学習装置。
3. The learning device according to claim 1, wherein the loss calculating means is plausible among the discriminant function values for the correct answer and the discriminant function values for the correct answer among the discriminant function values normalized by the normalizing means. A learning apparatus for determining a loss for a correct answer class using at least one discriminant function value having a value and a scale that is evaluated as a distribution of a possibility that an input pattern belongs to.
【請求項4】 請求項2または請求項3記載の学習装置
において、前記尺度に用いる正解の分布には、正解が属
するクラスにのみ可能性が存在する分布が用いられるこ
とを特徴とする学習装置。
4. The learning device according to claim 2, wherein the distribution of the correct answer used for the scale is a distribution having a possibility only in the class to which the correct answer belongs. .
【請求項5】 請求項1乃至請求項4のいずれか一項に
記載の学習装置において、入力パターンが可変長入力パ
ターンである場合に、前記所定のモデルとして、パター
ンの特徴量を評価するパラメータと部分パラメータの継
続長を評価するパラメータとで表現される状態遷移モデ
ルを用いて、可変長入力パターンを得点化することを特
徴とする学習装置。
5. The learning apparatus according to claim 1, wherein, when the input pattern is a variable-length input pattern, a parameter for evaluating a feature of the pattern is used as the predetermined model. A learning device, wherein a variable-length input pattern is scored using a state transition model expressed by a parameter for evaluating the continuation length of a partial parameter.
【請求項6】 請求項5記載の学習装置において、前記
状態遷移モデルは、前記特徴量を評価するパラメータに
よる得点と継続長を評価するパラメータによる得点との
割合を調整可能になっていることを特徴とする学習装
置。
6. The learning apparatus according to claim 5, wherein the state transition model is capable of adjusting a ratio between a score based on the parameter for evaluating the feature amount and a score based on the parameter for evaluating the duration. Characteristic learning device.
【請求項7】 判別関数を用いて入力パターンが属する
クラスを求め、正解との損失を最小化するために、所定
のモデルのパラメータを調整する学習方法において、各
クラスに対する判別関数を少なくとも一次微分可能でか
つ確率的制約をもつ関数に変換して正規化した上で、正
解に対する損失を求め、正解に対する損失を最小にする
ことで、前記所定のモデルの最適なパラメータを求める
ことを特徴とする学習方法。
7. A learning method for determining a class to which an input pattern belongs by using a discriminant function and adjusting parameters of a predetermined model in order to minimize a loss from a correct answer, wherein a discriminant function for each class is at least a first derivative. After converting to a function having a probable and stochastic constraint and normalizing, a loss for the correct answer is obtained, and by minimizing the loss for the correct answer, an optimal parameter of the predetermined model is obtained. Learning method.
【請求項8】 請求項7記載の学習方法において、正解
との損失を最小化するために、確率的降下法によって所
定のモデルのパラメータを求めることを特徴とする学習
方法。
8. The learning method according to claim 7, wherein a parameter of a predetermined model is obtained by a stochastic descent method in order to minimize a loss from a correct answer.
【請求項9】 請求項7記載の学習方法において、前記
正規化された判別関数値を入力パターンが属するクラス
への可能性の分布として評価する尺度を用いて正解クラ
スに対する損失を求めることを特徴とする学習方法。
9. The learning method according to claim 7, wherein a loss for a correct answer class is obtained by using a scale for evaluating the normalized discriminant function value as a distribution of possibility to a class to which an input pattern belongs. And learning method.
【請求項10】 請求項7記載の学習方法において、前
記正規化された判別関数値のうち、正解に対する判別関
数値と正解に対する判別関数値以外でもっともらしい値
をもつ少なくとも1つの判別関数値とに対して、入力パ
ターンが属する可能性の分布として評価する尺度を用い
て、正解クラスに対する損失を求めることを特徴とする
学習方法。
10. The learning method according to claim 7, wherein, among the normalized discriminant function values, at least one discriminant function value having a plausible value other than the discriminant function value for the correct answer and the discriminant function value for the correct answer. A learning method for determining a loss for a correct answer class using a scale that is evaluated as a distribution of a possibility that an input pattern belongs.
【請求項11】 請求項9または請求項10記載の学習
方法において、前記尺度に用いる正解の分布には、正解
が属するクラスにのみ可能性が存在する分布を用いるこ
とを特徴とする学習方法。
11. The learning method according to claim 9, wherein the distribution of the correct answer used for the scale is a distribution having a possibility only in the class to which the correct answer belongs.
【請求項12】 請求項7乃至請求項11のいずれか一
項に記載の学習方法において、入力パターンが可変長入
力パターンである場合に、前記所定のモデルとして、パ
ターンの特徴量を評価するパラメータと部分パラメータ
の継続長を評価するパラメータとで表現される状態遷移
モデルを用いて、可変長入力パターンを得点化すること
を特徴とする学習方法。
12. The learning method according to claim 7, wherein when the input pattern is a variable-length input pattern, a parameter for evaluating a feature of the pattern is used as the predetermined model. A learning method characterized in that a variable-length input pattern is scored using a state transition model represented by a parameter for evaluating the continuation length of a partial parameter.
【請求項13】 請求項12記載の学習方法において、
前記状態遷移モデルは、前記特徴量を評価するパラメー
タによる得点と継続長を評価するパラメータによる得点
との割合を調整可能になっていることを特徴とする学習
方法。
13. The learning method according to claim 12, wherein
The learning method, wherein the state transition model is capable of adjusting a ratio between a score based on the parameter for evaluating the feature amount and a score based on the parameter for evaluating the duration.
【請求項14】 請求項12または請求項13記載の学
習方法において、前記特徴量を評価するパラメータの平
均ベクトルを、請求項7乃至請求項11のいずれか一項
に記載の学習方法を用いて調整することを特徴とする学
習方法。
14. The learning method according to claim 12, wherein an average vector of the parameter for evaluating the feature amount is calculated using the learning method according to any one of claims 7 to 11. A learning method characterized by adjusting.
【請求項15】 請求項12または請求項13記載の学
習方法において、前記特徴量を評価するパラメータの分
散を、請求項7乃至請求項11のいずれか一項に記載の
学習方法を用いて調整することを特徴とする学習方法。
15. The learning method according to claim 12, wherein a variance of a parameter for evaluating the feature amount is adjusted using the learning method according to any one of claims 7 to 11. Learning method characterized by doing.
【請求項16】 請求項12または請求項13記載の学
習方法において、前記継続長を評価するパラメータの平
均ベクトルを、請求項7乃至請求項11のいずれか一項
に記載の学習方法を用いて調整することを特徴とする学
習方法。
16. The learning method according to claim 12, wherein an average vector of the parameter for evaluating the continuation length is determined by using the learning method according to claim 7. A learning method characterized by adjusting.
【請求項17】 請求項12または請求項13記載の学
習方法において、前記継続長を評価するパラメータの分
散を、請求項7乃至請求項11のいずれか一項に記載の
学習方法を用いて調整することを特徴とする学習方法。
17. The learning method according to claim 12, wherein a variance of the parameter for evaluating the continuation length is adjusted using the learning method according to any one of claims 7 to 11. Learning method characterized by doing.
【請求項18】 請求項13記載の学習方法において、
前記特徴量を評価するパラメータによる得点と継続長を
評価するパラメータによる得点の割合を、請求項7乃至
請求項11のいずれか一項に記載の学習方法を用いて調
整することを特徴とする学習方法。
18. The learning method according to claim 13, wherein
12. A learning method comprising: adjusting a ratio of a score based on a parameter for evaluating the feature amount and a score based on a parameter for evaluating a continuation length by using the learning method according to any one of claims 7 to 11. Method.
【請求項19】 判別関数を用いて入力パターンが属す
るクラスを求め、正解との損失を最小化するために、認
識モデルのパラメータを調整するパターン認識装置にお
いて、各クラスに対する判別関数を少なくとも一次微分
可能でかつ確率的制約をもつ関数に変換して正規化する
正規化手段と、前記正規化手段によって正規化された判
別関数値を用いて正解に対する損失を算出する損失算出
手段と、損失算出手段で算出された損失を最小にするこ
とで、認識モデルの最適なパラメータ調整量を算出する
最適パラメータ調整量算出手段と、最適パラメータ調整
量算出手段によって算出された最適なパラメータ調整量
により認識モデルのパラメータを調整する調整手段とを
有し、調整手段によって認識モデルのパラメータが最適
なパラメータに調整されたときに、パラメータ調整され
た認識モデルを用いて入力パターンに対するパターン認
識を行なうようになっていることを特徴とするパターン
認識装置。
19. A pattern recognition apparatus for obtaining a class to which an input pattern belongs by using a discriminant function and adjusting a parameter of a recognition model in order to minimize a loss from a correct answer. Normalization means for converting the function into a function having a probable and stochastic constraint and normalizing the loss function; loss calculation means for calculating a loss for a correct answer using the discriminant function value normalized by the normalization means; By calculating the optimal parameter adjustment amount of the recognition model by minimizing the loss calculated in step (a), an optimal parameter adjustment amount is calculated by the optimal parameter adjustment amount calculated by the optimal parameter adjustment amount calculation unit. Adjusting means for adjusting parameters, whereby the parameters of the recognition model are adjusted to optimal parameters by the adjusting means. A pattern recognition device configured to perform pattern recognition on an input pattern by using a recognition model adjusted for parameters when the recognition is performed.
【請求項20】 判別関数を用いて入力パターンが属す
るクラスを求め、正解との損失を最小化するために、認
識モデルのパラメータを調整するパターン認識方法にお
いて、各クラスに対する判別関数を少なくとも一次微分
可能でかつ確率的制約をもつ関数に変換して正規化した
上で、正解に対する損失を求め、正解に対する損失を最
小にすることで、前記認識モデルの最適なパラメータを
求め、認識モデルのパラメータが最適なパラメータに調
整されたときに、パラメータ調整された認識モデルを用
いて入力パターンに対するパターン認識を行なうように
なっていることを特徴とするパターン認識方法。
20. A pattern recognition method for determining a class to which an input pattern belongs using a discriminant function and adjusting parameters of a recognition model in order to minimize a loss from a correct answer, wherein a discriminant function for each class is at least a first derivative. After converting to a function having a probable and stochastic constraint and normalizing, the loss for the correct answer is obtained, and the loss for the correct answer is minimized, thereby obtaining the optimal parameters of the recognition model. A pattern recognition method comprising: performing pattern recognition on an input pattern using a recognition model adjusted for parameters when the parameters are adjusted to optimal parameters.
【請求項21】 各クラスに対する判別関数を少なくと
も一次微分可能でかつ確率的制約をもつ関数に変換して
正規化した上で、正解に対する損失を求め、正解に対す
る損失を最小にすることで、所定のモデルの最適なパラ
メータを求める処理をコンピュータに実行させるための
プログラムを記録したコンピュータ読取可能な記録媒
体。
21. A discriminant function for each class is converted to a function having at least first-order differentiability and a stochastic constraint and normalized, and then a loss for a correct answer is determined. And a computer-readable recording medium on which a program for causing a computer to execute a process of obtaining an optimal parameter of the model is recorded.
JP2000090724A 2000-03-27 2000-03-27 Device and method for study, device and method for recognizing pattern, and recording medium Pending JP2001272994A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000090724A JP2001272994A (en) 2000-03-27 2000-03-27 Device and method for study, device and method for recognizing pattern, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000090724A JP2001272994A (en) 2000-03-27 2000-03-27 Device and method for study, device and method for recognizing pattern, and recording medium

Publications (1)

Publication Number Publication Date
JP2001272994A true JP2001272994A (en) 2001-10-05

Family

ID=18606295

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000090724A Pending JP2001272994A (en) 2000-03-27 2000-03-27 Device and method for study, device and method for recognizing pattern, and recording medium

Country Status (1)

Country Link
JP (1) JP2001272994A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016194628A (en) * 2015-04-01 2016-11-17 日本電信電話株式会社 Voice recognition equipment, voice recognition method and program
KR20190046099A (en) * 2017-10-25 2019-05-07 서울대학교산학협력단 Apparatus and Method for Data Processing Based on Deep Neural Network
US11244159B2 (en) 2019-04-24 2022-02-08 Hitachi, Ltd. Article recognition system and article recognition method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016194628A (en) * 2015-04-01 2016-11-17 日本電信電話株式会社 Voice recognition equipment, voice recognition method and program
KR20190046099A (en) * 2017-10-25 2019-05-07 서울대학교산학협력단 Apparatus and Method for Data Processing Based on Deep Neural Network
KR102073808B1 (en) * 2017-10-25 2020-03-02 서울대학교 산학협력단 Apparatus and Method for Data Processing Based on Deep Neural Network
US11244159B2 (en) 2019-04-24 2022-02-08 Hitachi, Ltd. Article recognition system and article recognition method

Similar Documents

Publication Publication Date Title
JP2690027B2 (en) Pattern recognition method and apparatus
US8965762B2 (en) Bimodal emotion recognition method and system utilizing a support vector machine
EP2216775A1 (en) Speaker recognition
KR100307623B1 (en) Method and apparatus for discriminative estimation of parameters in MAP speaker adaptation condition and voice recognition method and apparatus including these
US20030200086A1 (en) Speech recognition apparatus, speech recognition method, and computer-readable recording medium in which speech recognition program is recorded
JPH09127972A (en) Vocalization discrimination and verification for recognitionof linked numeral
JP2002500779A (en) Speech recognition system using discriminatively trained model
EP1465154B1 (en) Method of speech recognition using variational inference with switching state space models
JP2004512544A (en) Discriminatively trained mixed models in continuous speech recognition.
WO2008001486A1 (en) Voice processing device and program, and voice processing method
JP3014677B2 (en) Markov model discriminator, method and system for training a Markov model
US9147133B2 (en) Pattern recognition device, pattern recognition method and computer program product
US20030023438A1 (en) Method and system for the training of parameters of a pattern recognition system, each parameter being associated with exactly one realization variant of a pattern from an inventory
JP2021082269A (en) Method and device for training classification model and classification method
US7072829B2 (en) Speech recognition from concurrent visual and audible inputs
US8078462B2 (en) Apparatus for creating speaker model, and computer program product
WO2007105409A1 (en) Reference pattern adapter, reference pattern adapting method, and reference pattern adapting program
McDermott et al. A derivation of minimum classification error from the theoretical classification risk using Parzen estimation
CN112633413A (en) Underwater target identification method based on improved PSO-TSNE feature selection
JP2001272994A (en) Device and method for study, device and method for recognizing pattern, and recording medium
US20050021337A1 (en) HMM modification method
JPWO2020003413A1 (en) Information processing equipment, control methods, and programs
EP1083544B1 (en) Pattern recognizing device and method, and providing medium
JP2570448B2 (en) Standard pattern learning method
KR100795947B1 (en) Biometric System Using a Set of Teeth Image and Method Thereof and Recording Medium Thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050111

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070301

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070830

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080708