JP5427140B2 - Speech recognition method, speech recognition apparatus, and speech recognition program - Google Patents
Speech recognition method, speech recognition apparatus, and speech recognition program Download PDFInfo
- Publication number
- JP5427140B2 JP5427140B2 JP2010171020A JP2010171020A JP5427140B2 JP 5427140 B2 JP5427140 B2 JP 5427140B2 JP 2010171020 A JP2010171020 A JP 2010171020A JP 2010171020 A JP2010171020 A JP 2010171020A JP 5427140 B2 JP5427140 B2 JP 5427140B2
- Authority
- JP
- Japan
- Prior art keywords
- speech
- speech recognition
- feature amount
- reliability
- recognition processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Description
本発明は、様々な音質の音声データを効率良く音声認識する音声認識方法、音声認識装置及び音声認識プログラムに関する。 The present invention relates to a speech recognition method, a speech recognition apparatus, and a speech recognition program for efficiently recognizing speech data of various sound qualities.
近年、音声データを記録するメモリ素子が安価になることに伴い大量の音声データを容易に入手することが可能になった。それらの音声データを音声認識する際に、音声データの品質によって認識精度や処理時間が大きく変動する。 In recent years, it has become possible to easily obtain a large amount of audio data as a memory element for recording audio data becomes cheaper. When recognizing such audio data, the recognition accuracy and processing time greatly vary depending on the quality of the audio data.
そこで、従来から音声認識結果に信頼度を付与することで、音声認識誤りに起因する不具合を抑制する方法が検討されている。例えば、特許文献1が音声認識結果に信頼度を付与する従来技術として知られている。図1に特許文献1の音声認識装置900の機能構成を示す。音声認識装置900は、音響分析部120、音響モデル格納部140、辞書・言語モデル格納部150、探索部160、信頼度計算部190を備える。
In view of this, conventionally, a method for suppressing a defect caused by a speech recognition error by giving a reliability to the speech recognition result has been studied. For example, Patent Document 1 is known as a prior art that gives reliability to a speech recognition result. FIG. 1 shows a functional configuration of a speech recognition apparatus 900 disclosed in Patent Document 1. The speech recognition apparatus 900 includes an
音響分析部120は、入力音声信号110を、数十msのフレームと呼ばれる単位で例えばメル周波数ケプストラム係数(MFCC)分析して音響特徴パラメータ系列130を生成する。探索部160は、音響特徴パラメータ系列130について、音響モデル格納部140と辞書・言語モデル格納部150とを用いて音声認識結果候補の探索を行う。探索の結果、上位〜N位までの音声認識結果170と、各音声認識結果に対するスコア180が出力される。
The
信頼度計算部190は、音声認識結果170とスコア180に基づいて複数の音声認識結果170にそれぞれ対応する信頼度スコア195を計算して出力する。その信頼度スコア195は、例えば音声認識結果として得られたNベスト候補及びそれらのスコアの単純なスコア差と加算平均から求められる。
The
この信頼度スコア195を参照することで、その信頼度スコア195に対応する音声認識結果170を廃棄したり、発話者に対して音声認識結果を確認したりする。このような処理を行うことで、誤認識による不具合の発生を抑制していた。
By referring to the
しかし、従来の音声認識装置900では、信頼度スコアを、音声認識処理を行った後の音声認識結果や音声認識結果に付随するスコアから計算していた。従って、信頼度スコアを得るのに音声認識処理の処理時間を必要としていた。S/N比が悪い等の理由により認識精度の低いものの中には、例え探索時のビーム幅を広げたり、教師なし適応を行ったとしても、誤認識ばかりで、認識精度を向上することができない利用不能な音声データも存在する。よって、音声認識処理を行った後のスコアから信頼度スコアを計算する場合、利用不能な音声データに余分な処理時間をかけてしまうという問題がある。また、大量の音声ファイルに対して音声認識処理を行う場合に、音声認識精度の低い音声ファイルの処理に時間がかかり、他の音声認識精度の高い音声ファイルの処理が進まず、音声認識処理全体の処理効率を低下させるという問題がある。また、言語モデルを用いた音声認識結果に基づく処理のため、信頼度スコアの値が言語モデルに依存してしまうという問題もある。 However, in the conventional speech recognition apparatus 900, the reliability score is calculated from the speech recognition result after the speech recognition processing and the score accompanying the speech recognition result. Therefore, it takes time for speech recognition processing to obtain a reliability score. Among those with low recognition accuracy due to reasons such as poor S / N ratio, even if the beam width at the time of search is widened or unsupervised adaptation is performed, it is possible to improve recognition accuracy only by misrecognition. There are some voice data that cannot be used. Therefore, when the reliability score is calculated from the score after the voice recognition process is performed, there is a problem that extra processing time is required for the unusable voice data. Also, when performing speech recognition processing on a large number of audio files, it takes time to process an audio file with low speech recognition accuracy, and processing of other audio files with high speech recognition accuracy does not proceed. There is a problem of lowering the processing efficiency. In addition, since the processing is based on the speech recognition result using the language model, there is a problem that the reliability score value depends on the language model.
この発明は、このような問題点に鑑みてなされたものであり、音声認識処理を行うこと無く短い処理時間で信頼度スコアが計算可能であり、言語モデルに依存しない信頼度スコアを出力する音声認識装置と音声認識方法と、音声認識プログラムを提供することを目的とする。 The present invention has been made in view of such a problem, and is capable of calculating a reliability score in a short processing time without performing a voice recognition process, and outputting a reliability score independent of a language model. An object is to provide a recognition device, a speech recognition method, and a speech recognition program.
上記の課題を解決するために、本発明に係る音声認識方法は、音声ディジタル信号の音声特徴量をフレーム単位で分析して音声特徴量系列を求め、フレーム毎の音声特徴量系列を用いて、その音声特徴量系列に対するモノフォンHMMの各状態に属するGMMから得られる出力確率bs(ot)と、その各状態sの出現確率P(s)との積が最も高いものを求め、最も高い積P(s^)bs^(ot)の対数または出力確率bs^(ot)の対数と、その入力に対する音声モデルの状態に属するGMMまたはポーズモデルHMMの各状態に属するGMMから得られる最も高い出力確率bg^(ot)の対数との差を当該フレームの事前信頼度とし、その事前信頼度を平均化して音声ファイル単位の信頼度スコアを求め、音声特徴量系列を用いて、信頼度スコアに基づき音声認識処理を行う。 In order to solve the above problems, a speech recognition method according to the present invention obtains a speech feature amount sequence by analyzing speech feature amounts of a speech digital signal in units of frames, and uses a speech feature amount sequence for each frame, The highest product of the output probability b s (o t ) obtained from the GMM belonging to each state of the monophone HMM for the speech feature quantity sequence and the appearance probability P (s) of each state s is obtained, and the highest From the logarithm of the product P (s ^) b s ^ (o t ) or the logarithm of the output probability b s ^ (o t ) and the GMM belonging to each state of the speech model or pose model HMM belonging to the state of the speech model for that input the difference between the logarithm of the highest output probability obtained b g ^ (o t) and pre reliability of the frame, obtains a confidence score of the audio file units by averaging the pre-reliability, audio feature Using columns, performs speech recognition processing based on the confidence scores.
また、本発明に係る音声認識装置は、入力される音声ディジタル信号の音声特徴量をフレーム単位で分析して音声特徴量系列を出力する特徴量分析部と、フレーム毎の音声特徴量系列を入力として、その入力に対するモノフォンHMMの各状態に属するGMMから得られる出力確率bs(ot)と、その各状態sの出現確率P(s)との積が最も高いものを求め、最も高い積P(s^)bs^(ot)の対数または出力確率bs^(ot)の対数と、その入力に対する音声モデルの状態に属するGMMまたはポーズモデルHMMの各状態に属するGMMから得られる最も高い出力確率bg^(ot)の対数との差を当該フレームの事前信頼度とし、その事前信頼度を平均化して音声ファイル単位の信頼度スコアを出力する事前信頼度スコア計算部と、音声特徴量系列を入力として、信頼度スコアに基づき音声認識処理を行う音声認識処理部とを備える。 The speech recognition apparatus according to the present invention also includes a feature amount analysis unit that analyzes a speech feature amount of an input speech digital signal in units of frames and outputs a speech feature amount sequence, and inputs a speech feature amount sequence for each frame. And find the highest product of the output probability b s (o t ) obtained from the GMM belonging to each state of the monophone HMM for that input and the appearance probability P (s) of each state s. Obtained from the logarithm of P (s ^) b s ^ (o t ) or the logarithm of output probability b s ^ (o t ) and the GMM belonging to each state of the speech model or the pause model HMM for the input. the highest difference between the logarithm of the output probability b g ^ (o t) and pre reliability of the frame to be pre reliability of outputting the confidence score of the audio file units by averaging the pre-reliability It includes a score calculation unit, an input voice feature amount sequence, and a voice recognition processing unit that performs speech recognition processing based on the confidence scores.
本発明は、音声認識処理を行う前に、音声認識の結果として得られる音声認識結果に対する信頼度を事前に推定し、求められた信頼度に基づき音声認識処理を行う。そのため、利用不能な音声データに対する処理時間を削減することができるという効果を奏する。また、信頼度の高い音声データ、つまり、音声認識精度の高いことが期待できる音声データの処理を優先的に行い、音声認識処理全体の処理効率を向上させることができるという効果を奏する。さらに、信頼度を求める際に、言語モデルを用いないため、言語モデルに依存しない(事前)信頼度を求めることができるという効果を奏する。 In the present invention, before performing the speech recognition processing, the reliability of the speech recognition result obtained as a result of speech recognition is estimated in advance, and the speech recognition processing is performed based on the obtained reliability. As a result, it is possible to reduce the processing time for unavailable audio data. Further, it is possible to preferentially process voice data with high reliability, that is, voice data that can be expected to have high voice recognition accuracy, thereby improving the processing efficiency of the entire voice recognition process. Furthermore, since the language model is not used when obtaining the reliability, there is an effect that (prior) reliability that does not depend on the language model can be obtained.
以下、図面を参照して、この発明の実施の形態を説明する。複数の図面中同一のものには同じ参照符号を付し、説明は繰り返さない。実施例の説明の前に、この発明の基本的な考え方について説明する。
[この発明の基本的な考え方]
一般的な信頼度尺度は、以下の単語事後確率P(W^|O)で表現される。
Embodiments of the present invention will be described below with reference to the drawings. The same reference numerals are given to the same components in a plurality of drawings, and the description will not be repeated. Prior to the description of the embodiments, the basic concept of the present invention will be described.
[Basic concept of this invention]
A general reliability measure is expressed by the following word posterior probability P (W ^ | O).
なお、Oは音響特徴量系列であり(O=(o1,o2,…,oT))、Wは音声認識結果単語系列であり、P(W)は音声認識の結果に基づき求まる音声認識結果単語系列の出現確率であり、”^”は尤度の最も高い単語、状態、及び、尤度の高い単語系列や状態系列を示す。 O is an acoustic feature quantity sequence (O = (o 1 , o 2 ,..., O T )), W is a speech recognition result word sequence, and P (W) is a speech obtained based on the speech recognition result. It is the appearance probability of the recognition result word sequence, and “^” indicates the word or state with the highest likelihood, and the word sequence or state sequence with the highest likelihood.
ここで、大語彙の辞書を含む言語モデルを用いた音声認識結果単語系列Wを得るためには音声認識処理にかかる膨大な計算が必要となる。この計算量を減らすために、本発明では、言語モデルは使用せず、音声認識結果単語系列Wの代わりに状態系列Sを用いることにする。よって、単語事後確率P(W^|O)は以下の式により近似される。 Here, in order to obtain a speech recognition result word sequence W using a language model including a dictionary of large vocabularies, enormous calculations related to speech recognition processing are required. In order to reduce the amount of calculation, in the present invention, the language model is not used, and the state series S is used instead of the speech recognition result word series W. Therefore, the word posterior probability P (W ^ | O) is approximated by the following expression.
なお、状態系列Sの種類は、とりうる全ての状態sj(但し、j=1,2,…,J)から生じうる全ての状態系列からなることが望ましいが、計算量を削減するために、音声認識で用いられている高速化手法を導入し、可能性の低い状態を予め計算対象から外してもよい。 The type of state series S is preferably all state series that can be generated from all possible states s j (where j = 1, 2,..., J), but in order to reduce the amount of calculation. Alternatively, a high-speed method used in speech recognition may be introduced, and a low possibility state may be excluded from the calculation target in advance.
さらに、高速化するために、状態系列S内の各状態sjは、モノフォンに含まれる状態のみに限定する。ここで、モノフォンとは、環境独立音素モデルのことであり、前後の音素環境に制約を持つ環境依存音素モデル(例えばトライフォン)に対して、前後の音素の制約がない音素モデルであり、その種類は少ない。例えば、音素の数を30個とした場合、モノフォン音響モデル中の音素モデルの数は30個であるが、トライフォンの場合の数は303個(27000個)である。また、モノフォンは、音声以外の部分、つまり、非音声部分のモデルであるポーズモデルを含むものとする。モノフォンの音素モデルは、1以上(通常3個程度)の状態の確率連鎖によって構築され、モノフォンHMM(Hidden Markov Model)として表される。モノフォンHMMは、例えば、図2に示すようにleft−to−right型HMMで表される。図2は、3つの状態s1(第1状態)、s2(第2状態)、s3(第3状態)を並べたものであり、状態の確率連鎖(状態遷移)としては、自己遷移a11、a22、a33と、次状態へのa12、a23、a34からなる。各状態sは、1以上の基底分布からなる混合分布(以下、混合正規分布GMM:Gaussian Mixture Modelを含めて混合分布とする)から構成され、例えば、図3に示すように、混合正規分布Mとして表現される。混合正規分布Mは、例えば3つの(基底)正規分布、N(μs,1,Σs,1),N(μs,2,Σs,2),N(μs,3,Σs,3)で構成される。ここでμs,mは状態sに属する正規分布mの平均ベクトル、Σsmは状態sに属する正規分布mの共分散行列を示す。 Furthermore, in order to increase the speed, each state s j in the state sequence S is limited to only states included in the monophone. Here, the monophone is an environment-independent phoneme model, which is a phoneme model that has no restriction on the preceding and following phonemes, compared to an environment-dependent phoneme model (for example, a triphone) that has restrictions on the preceding and following phoneme environments. There are few types. For example, when the 30 number of phonemes, the number of phoneme models in monophone acoustic model is 30, the number of cases of triphone is 30 3 (27000 pieces). The monophone includes a pose model that is a model of a part other than the voice, that is, a non-voice part. A phone model of a monophone is constructed by a probability chain of one or more (usually about three) states, and is represented as a monophone HMM (Hidden Markov Model). The monophone HMM is represented by, for example, a left-to-right type HMM as shown in FIG. FIG. 2 shows three states s 1 (first state), s 2 (second state), and s 3 (third state) arranged side by side, and the state probability chain (state transition) is self-transition. a 11 , a 22 , a 33 and a 12 , a 23 , a 34 to the next state. Each state s is composed of a mixed distribution composed of one or more basis distributions (hereinafter, mixed normal distribution GMM: mixed distribution including Gaussian Mixture Model). For example, as shown in FIG. Is expressed as The mixed normal distribution M is, for example, three (basic) normal distributions, N (μ s, 1 , Σ s, 1 ), N (μ s, 2 , Σ s, 2 ), N (μ s, 3 , Σ s). , 3 ). Here, μ s, m represents an average vector of the normal distribution m belonging to the state s, and Σ sm represents a covariance matrix of the normal distribution m belonging to the state s.
さらに、式(2)において計算量を減らすために、多くの音声認識デコーダが遷移確率を無視するのと同様に(参考文献1参照)、本発明においても遷移確率を無視し、モノフォンHMMの各状態に属するGMM(以下、単に「モノフォンGMM」という)から得られる出力確率のみを用いて、フレーム毎の信頼度を推定する。
[参考文献1]J. R. Glass, "A probabilistic framework for segmentbased speech recognition", Computer Speech and Language, Elsevier, 2003, Vol.17, No.2-3, pp.137-152
よって、式(2)の状態事後確率P(S^|O)は、時刻tにおける音響特徴量otに対するフレーム毎の状態事後確率P(s^|ot)から近似的に以下のように、計算される。
Furthermore, in order to reduce the amount of calculation in equation (2), in the same way as many speech recognition decoders ignore the transition probability (see Reference 1), the present invention also ignores the transition probability, and each monophone HMM The reliability for each frame is estimated using only the output probability obtained from the GMM belonging to the state (hereinafter simply referred to as “monophone GMM”).
[Reference 1] JR Glass, "A probabilistic framework for segmentbased speech recognition", Computer Speech and Language, Elsevier, 2003, Vol.17, No.2-3, pp.137-152
Therefore, the state posterior probability P of formula (2) (S ^ | O ) , the state posterior probability P of each frame with respect to the acoustic feature quantity o t at time t (s ^ | o t) approximately as follows from Calculated.
なお、Tは総フレーム数を表す。さらに、フレーム毎の状態事後確率P(s^|ot)は、以下のように状態sの出力確率bs(ot)からフレーム毎に計算される。 T represents the total number of frames. Further, the state posterior probability P (s ^ | o t ) for each frame is calculated for each frame from the output probability b s (o t ) of the state s as follows.
なお、s^は時刻tにおいてP(s)・bs(ot)の値が最も高いときの状態(以下「最尤状態s^」という)であり、Msは状態sに属する混合分布数であり、ws,mは正規分布mの混合重み係数であり、Ns,m(・)は正規分布mのガウス分布関数を意味し、Ns,m(ot|μs,mΣs,m)は、時刻tの音響特徴量otに対する状態sに属する正規分布mの出力確率を意味する。なおws,mは音響モデル学習の結果で決まるものであり、0≦ws,m≦1の範囲を取る値である。例えば、混合分布数Msが16であるとすると平均すると1/16の値となる。 S ^ is a state when the value of P (s) · b s (o t ) is the highest at time t (hereinafter referred to as “maximum likelihood state s ^”), and M s is a mixed distribution belonging to the state s. W s, m is a mixture weight coefficient of the normal distribution m, N s, m (·) means a Gaussian distribution function of the normal distribution m, and N s, m (o t | μ s, m sigma s, m) denotes the output probability of the normal distribution m belonging to the state s for the acoustic feature quantity o t at time t. Note that w s, m is determined by the result of acoustic model learning, and takes a range of 0 ≦ w s, m ≦ 1. For example, assuming that the mixed distribution number Ms is 16, the average value is 1/16.
参考文献2では、モノフォンは音素環境依存モデル(トライフォン)の近似モデルであるという仮定に基づき、モノフォンを用いて音響尤度計算量を削減することで高速化を行っている。本発明においても同様に、式(4)の計算において、モノフォンのみを用いることで高速化を実現する。
[参考文献2]A.Lee, T.Kawahara, K.Shikano, "Gaussian mixture selection using context-independent HMM", in Proceedings of ICASSP, 2001, vol.1, pp.69-72
式(4)の分母ΣsP(s)bs(ot)は、ポーズ以外の全ての音素の特徴量から学習した音声GMMからなる音声モデルを使って、以下のように近似される。
In
[Reference 2] A. Lee, T. Kawahara, K. Shikano, "Gaussian mixture selection using context-independent HMM", in Proceedings of ICASSP, 2001, vol.1, pp.69-72
The denominator Σ s P (s) b s (o t ) of Equation (4) is approximated as follows using a speech model composed of speech GMM learned from all phoneme features other than pauses.
gは前記音声モデルに属する状態であり、全ての音素の音響特徴、言い換えると、全ての状態から学習される。ここで、この音声モデルはただ1つの状態gのみを持つように構築すると、音声フレームにおいて、gの出現確率P(g)は1となる。よって、 g is a state belonging to the speech model, and is learned from the acoustic features of all phonemes, in other words, from all states. Here, if this speech model is constructed to have only one state g, the appearance probability P (g) of g is 1 in the speech frame. Therefore,
従って、式(4)と式(6)’から、フレーム毎の状態事後確率P(s^|ot)は以下の式により近似的に計算される。 Therefore, from Equation (4) and Equation (6) ′, the state posterior probability P (s ^ | o t ) for each frame is approximately calculated by the following equation.
ここで、通常、音声認識では確率値を対数スコア領域に変換したものを計算に用いるため、フレーム毎の事前信頼度c(ot)は、式(7)で近似的に求めたフレーム毎の状態事後確率P(s^|ot)を、以下の式のように、対数スコア領域にしたものとする。 Here, normally, since speech recognition uses a probability value converted to a logarithmic score region for calculation, the prior reliability c (o t ) for each frame is approximately calculated for each frame obtained by Equation (7). The state posterior probability P (s ^ | o t ) is assumed to be a logarithmic score area as in the following equation.
フレーム毎の事前信頼度c(ot)は、前記音声モデルをUBM(Universal Background Model)と考え、状態出現確率P(s^)を無視すると、例えば参考文献3に見られるような話者照合でしばしば用いられる尤度比を対数化したものと等価となる。本発明では、状態出現確率P(s^)が導入されることによって、最尤状態s^の推定に状態の出現頻度ひいては音素毎の出現頻度が考慮されている。
[参考文献3]
D. A. Reynolds, T. F. Quatieri, and R. B. Dunn, “Speaker verification using adapted gaussian mixture models,” Digital Signal Processing, 2000, vol.10, pp.19-41
信頼度スコアCはフレーム毎の事前信頼度c(ot)から計算される。その際、異なる長さの音声データの比較を可能とするために、総フレーム数Tによって、以下のように、正規化される。
Pre-reliability c (o t ) for each frame is the speaker verification as seen in
[Reference 3]
DA Reynolds, TF Quatieri, and RB Dunn, “Speaker verification using adapted gaussian mixture models,” Digital Signal Processing, 2000, vol.10, pp.19-41
The reliability score C is calculated from the prior reliability c (o t ) for each frame. At that time, in order to enable comparison of audio data of different lengths, normalization is performed as follows according to the total number of frames T.
本発明は、このような考え方に基づき、音声認識結果を用いずに、モノフォン及び音声データを用いて、信頼度スコアを求める。
以下、本発明の実施の形態について、詳細に説明する。
Based on such a concept, the present invention obtains a reliability score using a monophone and voice data without using a voice recognition result.
Hereinafter, embodiments of the present invention will be described in detail.
<音声認識装置100>
図4及び図5を用いて実施例1に係る音声認識装置100を説明する。音声認識装置100は、A/D変換部10と、特徴量分析部20と、事前信頼度スコア計算部30と、音声認識処理部40と、音響モデルパラメータメモリ50と、言語モデルパラメータメモリ60とを具備する。音声認識装置100は、例えばROM、RAM、CPU等で構成されるコンピュータに所定のプログラムが読み込まれて、CPUがそのプログラムを実行することで実現されるものである。
<
The
A/D変換部10は、音声信号x(u)を、例えばサンプリング周波数16kHzで離散値化して音声ディジタル信号x(v)に変換する(ステップS10)。但し、uは連続時間を、vは離散時間を表す。なお、音声ディジタル信号x(v)が直接入力される場合は、A/D変換部10は不要である。
The A /
特徴量分析部20は、音声ディジタル信号x(v)を入力として、例えば320個の音声ディジタル信号x(v)を1フレーム(例えば、20ms)とし、このフレーム毎に、その音声特徴量otを分析し、音声特徴量系列Oを出力する(ステップS20)。音声特徴量としては、例えば、MFCC(Mel-Frequenct Cepstrum Coefficient)の1〜12元と、その変化量であるΔMFCC等の動的パラメータや、パワーやΔパワー等を用いる。また、ケプストラム平均正規化(CMN)等の処理を行っても良い。
The feature
事前信頼度スコア計算部30は、音声特徴量系列Oを入力として、フレーム毎の音声特徴量otに対するモノフォンGMMから得られる出力確率bs(ot)とそのGMMの属する状態sの出現確率P(s)の積が最も高いもの(以下「モノフォン最尤値P(s^)bs^(ot)」という)を求める。さらに、事前信頼度スコア計算部30は、入力otに対する音声モデルの状態に属するGMMまたはポーズモデルHMMの各状態に属するGMM(以下「音声/ポーズGMM」という)から得られる出力確率が最も高いもの(以下「音声/ポーズ最尤値bg^(ot)」という)を求める。なお、この音声モデルとは前述の通り、ポーズ以外の全ての音素の特徴量から学習される。さらに、求めたモノフォン最尤値P(s^)bs^(ot)の対数と音声/ポーズ最尤値bg^(ot)の対数との差を当該フレームの事前信頼度c(ot)とし(式(8)参照)、その事前信頼度c(ot)を平均化して音声ファイル単位の信頼度スコアCを求め、出力する(ステップS30)。
Pre confidence
音声認識処理部40は、音声特徴量系列Oと信頼度スコアCを入力として、信頼度スコアに基づき音声認識処理を行う。例えば、信頼度スコアCに応じて音声認識処理を行うか否かを判断し(ステップS40a)、音声認識処理を行うと判断した場合には、音響モデルパラメータメモリ50に記録された音響モデルと、言語モデルパラメータメモリ60に記録された言語モデルとを参照して、音声特徴量系列Oについて音声認識処理を行い、その音声認識結果Wと信頼度スコアCを出力する(ステップS40b)。
The speech
なお、ステップS40a、s40bの音声認識処理過程は、音声ファイルの全フレームについて処理が終了するまで繰り返される。 Note that the voice recognition process in steps S40a and s40b is repeated until the process is completed for all frames of the voice file.
音声認識装置100によれば、事前信頼度スコア計算部30が、フレーム毎に事前信頼度c(ot)を付与して、これを平均化して(つまり1フレーム当たりの平均事前信頼度を計算して)、音声ファイル単位の信頼度スコアCを計算する。音声特徴量系列Oに基づいた信頼度スコアCは、従来の音声認識結果から信頼度スコアを求める方法と比べて計算量が少なくて済む。また、複数の音声ファイルを処理する場合に、信頼度スコアCの値に応じて音声認識処理を行うか否かを判断をすることで、信頼度Cが低い、つまり音声認識精度が低い音声ファイルの音声認識処理に時間がかかるという問題も解決される。次に、実施例1の主要部である事前信頼度スコア計算部30のより具体的な構成例を示してさらに詳しく説明する。
According to the
<事前信頼度スコア計算部30>
図6を用いて、事前信頼度スコア計算部30を説明する。事前信頼度スコア計算部30は、モノフォン最尤検出手段32と、音声/ポーズ最尤検出手段33と、事前信頼度算出手段34と、信頼度スコア算出手段35とを備える。
<Pre-reliability
The prior reliability
図7に、モノフォンの出力確率とポーズモデルと音声モデルの出力確率の時間経過を模式的に示す。横方向は時間経過をフレームtで表す。縦方向はフレームt毎の複数のモノフォンと音声モデルのそれぞれの状態を表す。例えば、各モノフォンは、それぞれ3つの状態から成り、モノフォン「*−a+*」は状態a1,a2,a3から成る。太い丸の状態がモノフォン最尤値P(s^)bs^(ot)に対応するモノフォン最尤状態s^を表す。斜線入り丸の状態が音声/ポーズ最尤値bg^(ot)に対応する音声/ポーズ最尤状態g^を表す。モノフォン最尤状態s^と、音声/ポーズ最尤状態g^が、一致する場合(s^=g^)には斜線入りの太い丸で示す。 FIG. 7 schematically shows a time course of the output probability of the monophone, the output probability of the pause model, and the speech model. In the horizontal direction, the passage of time is represented by a frame t. The vertical direction represents the state of each of a plurality of monophones and voice models for each frame t. For example, each monophone consists of three states, and the monophone “* -a + *” consists of states a 1 , a 2 , and a 3 . The thick circle state represents the monophone maximum likelihood state s ^ corresponding to the monophone maximum likelihood value P (s ^) b s ^ (o t ). The state of the circle with diagonal lines represents the speech / pause maximum likelihood state 対 応 corresponding to the speech / pause maximum likelihood value b ^ (o t ). When the monophone maximum likelihood state ^ and the speech / pause maximum likelihood state ^ coincide (s ^ = g ^), the state is indicated by a thick circle with diagonal lines.
時刻t1〜t3では、モノフォン最尤状態s^は、それぞれポーズモデルの第1状態p1〜第3状態p3である。同様に音声/ポーズ最尤状態g^は、それぞれポーズモデルの第1状態p1〜第3状態p3である。このことから、時刻t1〜t3は非音声状態である。例えば、時刻t1では、式(8)を用いて、モノフォン「*−pause+*」の第1状態p1の出現確率P(p1)と、状態p1に属するGMMの出力確率bp1(ot1)の積の対数と、ポーズモデルの状態p1に属するGMMの出力確率bp1(ot1)の対数との差を事前信頼度c(ot1)とする。つまり以下のように求められる。
c(ot1)=log(P(p1)bp1(ot1))−logbp1(ot1)
At times t 1 to t 3 , the monophone maximum likelihood state s ^ is the first state p 1 to the third state p 3 of the pose model, respectively. Similarly, the speech / pause maximum likelihood state ^ is the first state p 1 to the third state p 3 of the pose model, respectively. Therefore, the times t 1 to t 3 are in a non-voice state. For example, at the time t 1 , using the expression (8), the appearance probability P (p 1 ) of the first state p 1 of the monophone “* -pause + *” and the output probability b p1 of the GMM belonging to the state p 1 ( The difference between the logarithm of the product of o t1 ) and the logarithm of the output probability b p1 (o t1 ) of the GMM belonging to the state p 1 of the pose model is defined as a prior reliability c (o t1 ). In other words, it is obtained as follows.
c (o t1 ) = log (P (p 1 ) b p1 (o t1 )) − logb p1 (o t1 )
時刻t4では、モノフォン最尤状態s^は、モノフォン「*−a+*」の第3状態a3であり、音声/ポーズ最尤状態g^が音声モデルの状態gであることから音声状態であると考えられる。式(8)を用いて、モノフォン「*−a+*」の第3状態a3の出現確率P(a3)と、状態a3に属するGMMの出力確率ba3(ot4)の積の対数と、音声モデルの状態gに属するGMMの出力確率bg(ot4)の対数との差を事前信頼度c(ot4)とする。つまり以下のように求められる。
c(ot4)=log(P(a3)ba3(ot4))−logbg(ot4)
At time t 4, monophones maximum likelihood state s ^ is the third state a 3 of monophones "* -a + *", in the voice state from that voice / pause maximum likelihood state g ^ is the state g of voice model It is believed that there is. Using equation (8), the logarithm of the product of the appearance probability P (a 3 ) of the third state a 3 of the monophone “* -a + *” and the output probability b a3 (o t4 ) of the GMM belonging to the state a 3 And the logarithm of the output probability b g (o t4 ) of the GMM belonging to the state g of the speech model is defined as a prior reliability c (o t4 ). In other words, it is obtained as follows.
c (o t4 ) = log (P (a 3 ) b a3 (o t4 )) − logb g (o t4 )
また、時刻t19では、モノフォン最尤状態s^は、モノフォン「*−i+*」の第2状態i2であり、音声/ポーズ最尤状態g^がポーズモデルの第3状態p3である。このとき、式(8)を用いて、モノフォン「*−i+*」の第2状態i2の出現確率P(i2)と、状態i2に属するGMMの出力確率bi2(ot19)の積の対数と、ポーズモデルの第3状態p3に属するGMMの出力確率bp3(ot19)の対数との差を事前信頼度c(ot19)とする。つまり以下のように求められる。
c(ot19)=log(P(i2)bi2(ot19))−logbp3(ot19)
なお、図7は、一部の時間しか示していない。音声ファイルの長さは例えば数分(例えば30,000フレーム)程度である。以下、各手段の処理を具体的に説明する。
In addition, at time t 19, monophones maximum likelihood state s ^ is, monophones "* -i + *" is the second state i 2 of, is the third state p 3 of the voice / pause maximum likelihood state g ^ pose model . At this time, using the expression (8), the appearance probability P (i 2 ) of the second state i 2 of the monophone “* −i + *” and the output probability b i2 (o t19 ) of the GMM belonging to the state i 2 The difference between the logarithm of the product and the logarithm of the output probability b p3 (o t19 ) of the GMM belonging to the third state p 3 of the pose model is defined as a prior reliability c (o t19 ). In other words, it is obtained as follows.
c (o t19 ) = log (P (i 2 ) b i2 (o t19 )) − logb p3 (o t19 )
FIG. 7 shows only a part of the time. The length of the audio file is, for example, about several minutes (for example, 30,000 frames). Hereinafter, the processing of each means will be specifically described.
(モノフォン最尤検出手段32)
モノフォン最尤検出手段32は、フレームt毎の音声特徴量otに対する各モノフォンGMMから得られる出力確率bs(ot)とそのGMMが属する状態sの出現確率P(s)の積P(s)bs(ot)から、モノフォン最尤値P(s^)bs^(ot)を求め、その対数log(P(s^)bs^(ot))を事前信頼度算出手段34に出力する。なお、モノフォン最尤検出手段32は、音響モデルパラメータメモリ50を参照して、各モノフォンGMMと各状態sの出現確率P(s)を取得することができる。また、モノフォン最尤検出手段32は、各モノフォンGMMと各状態sの出現確率P(s)を予め音響モデルパラメータメモリ50から取得しておき、記憶しておいてもよい。
(Monophone maximum likelihood detection means 32)
Monophones maximum likelihood detecting means 32, output probability obtained from each monophones GMM for the speech feature quantity o t for each frame t b s (o t) and the product P of the probability P (s) of the GMM belongs state s ( s) b s (from o t), monophones maximum likelihood value P (s ^) b s ^ (o t) the request, the log-log (P (s ^) bs ^ (ot)) a pre-reliability calculation means 34. Note that the monophone maximum likelihood detection unit 32 can obtain the appearance probability P (s) of each monophone GMM and each state s with reference to the acoustic
なお、モノフォン最尤状態s^の出現確率P(s^)は、音響モデルの学習データと目的の音声認識対象である評価音声データにおける各状態の出現確率には差がないと仮定することで、以下の式(10)により、近似的に求めてもよい。 It should be noted that the appearance probability P (s ^) of the monophone maximum likelihood state s ^ is assumed that there is no difference between the appearance probability of each state in the learning data of the acoustic model and the evaluation speech data that is the target speech recognition target. Approximately, the following equation (10) may be used.
式(10)の分母は音響モデルの学習データにおける各状態sの出現頻度の和を表し、分子は音響モデルの学習データにおける最尤状態s^の出現頻度を表す。音響モデルの学習時に得られる各状態sの出現頻度の期待値Γ(s)を、音響モデルパラメータメモリ50に保存しておけば、それを利用することで容易に実現することができる。
The denominator of Equation (10) represents the sum of the appearance frequencies of each state s in the acoustic model learning data, and the numerator represents the appearance frequency of the maximum likelihood state s ^ in the acoustic model learning data. If the expected value Γ (s) of the appearance frequency of each state s obtained at the time of learning the acoustic model is stored in the acoustic
(音声/ポーズ最尤検出手段33)
音声/ポーズ最尤検出手段33は、フレームt毎の音声特徴量otに対する音声/ポーズGMMから得られる出力確率から、音声/ポーズ最尤値bg^(ot)を求め、その対数logbg^(ot)を事前信頼度算出手段34に出力する。なお、音声/ポーズ最尤検出手段33は、音響モデルパラメータメモリ50を参照して、音声/ポーズGMMを取得することができる。また、音声/ポーズ最尤検出手段33は、音声/ポーズGMMを予め音響モデルパラメータメモリ50から取得しておき、記憶しておいてもよい。
(Voice / pause maximum likelihood detection means 33)
Voice / Pause maximum
(事前信頼度算出手段34)
事前信頼度算出手段34は、モノフォン最尤値の対数log(P(s^)bs^(ot))と音声/ポーズ最尤値の対数logbg^(ot)とを入力され、以下の式(11)によりその差を当該フレームの事前信頼度c(ot)として求め、信頼度スコア算出手段35に出力する。
(Advance reliability calculation means 34)
Prior reliability calculation means 34 is input with logarithm log (P (s ^) b s ^ (o t )) of monophone maximum likelihood value and logarithmic logb g ^ (o t ) of speech / pause maximum likelihood value, The difference is obtained as the prior reliability c (o t ) of the frame by the following equation (11), and is output to the reliability score calculation means 35.
(信頼度スコア算出手段35)
信頼度スコア算出手段35は、フレーム毎の事前信頼度c(ot)を入力され、式(9)により、フレーム毎の事前信頼度c(ot)を平均化して音声ファイル単位のもの(言い換えると、事前信頼度c(ot)を音声ファイルの継続時間T(総フレーム数)の間累積して平均したもの)を信頼度スコアCとして求め、出力する。
(Reliability score calculation means 35)
The reliability score calculation means 35 receives the prior reliability c (o t ) for each frame, averages the prior reliability c (o t ) for each frame according to the equation (9), and is based on the audio file unit ( In other words, the prior reliability c (o t ) obtained by accumulating and averaging the duration T (total number of frames) of the audio file is obtained as the reliability score C and output.
このように、事前信頼度スコア計算部30は、フレーム単位の事前信頼度c(ot)を音声ファイルの総フレーム数Tで平均することで音声ファイル単位の信頼度を表す信頼度スコアCを計算する。なお、音声ファイル単位の信頼度スコアCを求めるので精緻な処理を必要としない。また、このような構成とすることで、入力音声信号の品質や音響モデル等との整合性によって処理速度が変化することなく、安定した処理速度で事前信頼度計算を行うことができる。次に音声認識処理部40の詳細を説明する。
Thus, pre
<音声認識処理部40>
音声認識処理部40は、特徴量分析部20が出力する音声特徴量系列O(=o1,o2,…,oT)と信頼度スコアCを入力として、音響モデルパラメータメモリ50及び言語モデルパラメータ60を参照して、音声認識処理を行い、音声認識結果Wを出力する。この時、信頼度スコアCを同時に出力しても良い。ここでの音声認識処理は、音響モデルパラメータメモリ50に記録された全ての音響モデルを用いた認識処理が行われる。音声認識処理部40は、信頼度スコアCの値に応じて音声認識処理の実行の有無を切り替える。
<Voice
The speech
例えば、音声認識処理部40は、信頼度スコアCが一定値Cth以下の場合に音声認識処理を停止する。信頼度スコアCは音声ファイル毎に計算される値であるので、音声認識処理部40は音声ファイル単位で音声認識処理の実行の有無を切り替える。一定値Cthは、例えば、音響モデルの学習データに対する信頼度スコア分布から算出する方法が考えられる。信頼度スコア分布の平均値μ、標準偏差σとした場合に、例えばCth=μ−2σとする。また、例えば、音声認識処理部40は、複数の音声ファイルの信頼度スコアCを求め蓄積しておき、上位N個(例えば、全音声認識対象音声ファイル中の20%に当たる個数等)の音声ファイルのみを音声認識処理する構成としてもよい。
For example, the speech
<効果>
以上述べたように、この発明の音声認識装置によれば、音声特徴量に基づいた事前信頼度を求め、フレーム毎の事前信頼度を平均化して音声ファイル単位の信頼度スコアを計算する。従って、従来の音声認識装置よりも軽い処理で信頼度スコアが求められる。また、音声特徴量に基づく処理なので、言語モデルに依存しない信頼度スコアを得ることができる。また、求められた信頼度スコアの値に応じて音声認識処理を行うか否かを判断することで、例えばS/N比が悪い等の理由により音声認識精度の低い音声ファイルの音声認識処理に時間がかかる問題も解決できる。また、従来は単語やキーワード単位、あるいは、発話(文)単位での信頼度計算であったのに対し、本実施例の音声認識装置100は、複数発話からなる音声ファイル単位での信頼度スコアを計算することができる。
<Effect>
As described above, according to the speech recognition apparatus of the present invention, the prior reliability based on the speech feature amount is obtained, the prior reliability for each frame is averaged, and the reliability score for each audio file is calculated. Therefore, the reliability score is obtained by processing that is lighter than that of the conventional speech recognition apparatus. Further, since the processing is based on the speech feature amount, a reliability score that does not depend on the language model can be obtained. Further, by determining whether or not to perform speech recognition processing according to the value of the obtained reliability score, for example, for speech recognition processing of a speech file with low speech recognition accuracy due to a poor S / N ratio or the like. It can solve time-consuming problems. In contrast to the conventional calculation of reliability in units of words or keywords, or in units of utterances (sentences), the
<変形例1>
図4及び図6を用いて、実施例1と異なる部分のみ説明する。実施例1とは、事前信頼度スコア計算部30’の処理内容が異なる。
<Modification 1>
Only parts different from the first embodiment will be described with reference to FIGS. 4 and 6. The processing content of the prior reliability
<事前信頼度スコア計算部30’>
事前信頼度スコア計算部30’は、モノフォン最尤検出手段32’と、音声/ポーズ最尤検出手段33’と、事前信頼度算出手段34と、信頼度スコア算出手段35とを備える。モノフォン最尤検出手段32’と音声/ポーズ最尤検出手段33’の処理が実施例1と異なる。事前信頼度スコア計算部30’では、二種以上の音響モデル中に含まれるモノフォン及び音声モデルに基づいて計算したフレーム毎の事前信頼度を平均化して音声ファイル単位の信頼度スコアCを計算する。図8に、二種以上の音響モデルを、男性音響モデルと女性音響モデルとした場合の出力確率の時間経過の一例を示す。
<Pre-reliability score calculation unit 30 '>
The prior reliability
(モノフォン最尤検出手段32’)
モノフォン最尤検出手段32’は、まず、フレームt毎の音声特徴量otに対する男性モノフォンHMMの状態smに属するGMM(以下「男性モノフォンGMM」という)から得られる出力確率bsm(ot)とそのGMMが属する状態smの出現確率P(sm)の積P(sm)bsm(ot)から、最も高い値(以下、「男性モノフォン最尤値P(s^m)bs^m(ot)」という)を求める。次に、音声特徴量otに対する女性モノフォンHMMの状態sfに属するGMM(以下「女性モノフォンGMM」という)から得られる出力確率bsf(ot)とそのGMMが属する状態sfの出現確率P(sf)の積P(sf)bsf(ot)から、最も高い値(以下、「女性モノフォン最尤値P(s^f)bs^f(ot)」という)を求める。男性モノフォン最尤値P(s^m)bs^m(ot)と女性モノフォン最尤値P(s^f)bs^f(ot)のうち、大きい方をモノフォン最尤値P(s^)bs^(ot)とし、その対数を事前信頼度算出手段34に出力する。
(Monophone maximum likelihood detection means 32 ')
Monophones maximum likelihood detecting means 32 'is first output probability obtained from GMM belonging to the state s m Male monophone HMM for speech features o t for each frame t (hereinafter referred to as "male monophones GMM") b sm (o t ) And the appearance probability P (s m ) of the state s m to which the GMM belongs, P (s m ) b sm (o t ), the highest value (hereinafter referred to as “male monophone maximum likelihood value P (s ^ m )” b s ^ m (o t ) ”). Then, the probability of occurrence of the output probability b sf (o t) and its GMM belongs state s f obtained from GMM belonging to the state s f of women monophones HMM for the speech feature quantity o t (hereinafter referred to as "women monophones GMM") from P product P (s f) b sf ( o t) of (s f), the highest value (hereinafter referred to as "women monophones maximum likelihood value P (s ^ f) b s ^ f (o t) " hereinafter) a Ask. Men monophones maximum likelihood value P (s ^ m) b s ^ m (o t) and women monophones maximum likelihood value P (s ^ f) b s ^ f (o t) of the, the larger the monophones maximum likelihood value P (S ^) b s ^ (o t ) and the logarithm thereof is output to the prior reliability calculation means 34.
(音声/ポーズ最尤検出手段33’)
音声/ポーズ最尤検出手段33’は、まずフレームt毎の音声特徴量otに対する男性音声/ポーズGMMから得られる出力確率から、男性音声/ポーズ最尤値bg^m(ot)を求める。次に、まずフレームt毎の音声特徴量otに対する女性音声/ポーズGMMから得られる出力確率から、女性音声/ポーズ最尤値bg^f(ot)を求める。男性音声/ポーズ最尤値bg^m(ot)と女性音声/ポーズ最尤値bg^f(ot)のうち、大きい方を音声/ポーズ最尤値bg^(ot)とし、その対数を事前信頼度算出手段34に出力する。
(Speech / pause maximum likelihood detection means 33 ')
Voice / Pause maximum likelihood detection unit 33 ', the output probability is first obtained from a male voice / pause GMM for the speech feature quantity o t for each frame t, male voice / pause maximum likelihood value b g ^ m a (o t) Ask. Then, first, the output probability obtained from female voice / pause GMM for the speech feature quantity o t for each frame t, obtaining the female voice / pause maximum likelihood value b g ^ f (o t) . Of the male voice / pause maximum likelihood value b g ^ m (o t ) and the female voice / pause maximum likelihood value b g ^ f (o t ), the larger one is the voice / pause maximum likelihood value b g ^ (o t ). And the logarithm is output to the prior reliability calculation means 34.
事前信頼度算出手段34は、モノフォン最尤値の対数log(P(s^)bs^(ot))と音声/ポーズ最尤値の対数logbg^(ot)から式(11)によりその差を当該フレームの事前信頼度c(ot)として求める。信頼度スコア算出手段35は、フレーム毎の事前信頼度c(ot)を入力され、式(9)により、フレーム毎の事前信頼度c(ot)を平均化して音声ファイル単位のものを信頼度スコアCとして求める。 The prior reliability calculation means 34 calculates the logarithm log (P (s ^) b s ^ (o t )) of the monophon maximum likelihood value and the logarithmic logb g ^ (o t ) of the speech / pause maximum likelihood value to obtain the equation (11). The difference is obtained as the prior reliability c (o t ) of the frame. The reliability score calculation means 35 receives the prior reliability c (o t ) for each frame, averages the prior reliability c (o t ) for each frame according to the equation (9), and obtains the one for each audio file. Obtained as a reliability score C.
このような構成とすることによって、後段の音声認識処理が複数の音響モデルを用いる場合でも、同様に複数の種別の音響モデルを事前信頼度スコア計算に用いることで、信頼度スコアCを音声認識処理に合わせて精度よく求めることができる。なお、事前信頼度スコア計算部30’に用いる音響モデルの種別は三種以上の複数であっても良い。
With such a configuration, even when the subsequent speech recognition process uses a plurality of acoustic models, the reliability score C is recognized by using a plurality of types of acoustic models in the prior reliability score calculation. It can be accurately determined according to the processing. Note that there may be three or more types of acoustic models used in the prior reliability
また、信頼度スコアCは、音声特徴量系列に対する二種以上の音声モデル又はポーズモデルの最尤状態の出力確率を比較し、出力確率が大きい種別のモノフォンに限定して計算された値であっても良い。つまり、前記した例のように男性と女性のモノフォンの最尤値P(s^m)bs^m(ot)とP(s^f)bs^f(ot)を全てのフレームについて求めるのでは無く、音声モデル又はポーズモデルの出力確率が女性(男性)よりも男性(女性)が高くなるフレームは、男性(女性)モノフォンに限定して計算する方法も考えられる。 The reliability score C is a value calculated by comparing the output probabilities of the maximum likelihood states of two or more types of speech models or pause models with respect to the speech feature amount series, and limited to monophones of a type having a large output probability. May be. In other words, all of the frame maximum likelihood value P of monophones of men and women (s ^ m) b s ^ m and (o t) P the (s ^ f) b s ^ f (o t) as of the above-mentioned example The frame in which the output probability of the speech model or the pose model is higher for the male (female) than the female (male) may be limited to the male (female) monophone.
すなわち、音声/ポーズ最尤検出手段33”は、男性と女性の音声/ポーズ最尤値bg^m(ot)とbg^f(ot)のうち大きい方を音声/ポーズ最尤値bg^(ot)とするものである。そして、モノフォン最尤検出手段32”は、その判定結果を入力としてどちらか一方のモノフォン最尤値P(s^)bs^(ot)を求める。この例の場合、全ての種別のモノフォンの出力確率bs(ot)とその状態の出現確率P(s)の積P(s)bs(ot)を計算しないので、計算量を削減する効果が期待できる。 That is, the speech / pause maximum likelihood detection means 33 ″ uses the larger one of the speech / pause maximum likelihood values b g ^ m (o t ) and b g ^ f (o t ) of the male and female voice / pause maximum likelihood. The value b g ^ (o t ) is set, and the monophone maximum likelihood detection unit 32 ″ receives the determination result as an input, and either of the monophone maximum likelihood values P (s ^) b s ^ (o t ) In this example, since the product P (s) b s (o t ) of the output probability b s (o t ) of all types of monophones and the appearance probability P (s) of the state is not calculated, the amount of calculation is reduced. Can be expected.
<その他の変形例>
特徴量分析部20の前段に、図示しない音声区間判定部を設けても良い。例えば、音声区間判定部は、パワーが所定値以下のフレームが所定時間以上継続したときに、音声区間ではないと判断する。そして、非音声区間と判定した場合には、その区間に対するそれ以降の処理を停止するように指示信号を出力する。このような構成とすることで、非音声区間の音声認識処理を省略することができる。なお、大きな雑音等は、音声区間判定部で省略することはできないが、モノフォン最尤検出手段32及び音声/ポーズ最尤検出手段33において、音声か非音声(ポーズ)か判定するため、誤認識を防ぐことができる。
<Other variations>
A speech section determination unit (not shown) may be provided in the preceding stage of the feature
モノフォン最尤検出手段32で用いる各状態sの出現頻度、または、出現確率は、実際の音声認識処理には用いないため、この情報を保持しない音響モデルパラメータメモリ50も存在する。その場合には、全ての出現頻度を1として(P(s)=1)、式(8)によりフレーム毎の事前信頼度c(ot)を求めてもよい。また、一部の状態についてのみ出現頻度または出現確率が保存されている音響モデルパラメータメモリ50も存在する。その場合には、保存されている一部の状態の出現頻度または出現確率の平均値を求め、求めた平均値を他の状態(出現頻度または出現確率の保存されていない状態)の出現頻度または出現確率として代用してもよい。
Since the appearance frequency or the appearance probability of each state s used in the monophone maximum likelihood detection means 32 is not used in the actual speech recognition processing, there is also an acoustic
また、事前信頼度スコア計算部において、複数の音響モデルを用いる場合、発話区間を推定し、発話区間毎に最適な音響モデルを推定する構成としてもよい。例えば、参考文献4のように、音声/ポーズGMMを用いて事前に性別を推定し、推定した性別に適合する音響モデル(男性音響モデルまたは女性音響モデル)を用いる構成とする。
[参考文献4]S. Kobashikawa, A. Ogawa, Y. Yamaguchi, and S. Takahashi,“Rapid unsupervised adaptation using frame independent output probabilities of gender and context independent phoneme models”, INTERSPEECH, 2009, pp.1615-1618.
モノフォン最尤検出手段32及び音声/ポーズ最尤検出手段33は、それぞれ対数log(P(s^)bs^(ot))及び対数logbg^(ot)に代えて、P(s^)bs^(ot)及びbg^(ot)を出力し、事前信頼度算出手段34において、対数log(P(s^)bs^(ot))及びlogbg^(ot)を求めてもよい。
Moreover, when using a some acoustic model in a prior reliability score calculation part, it is good also as a structure which estimates an utterance area and estimates the optimal acoustic model for every utterance area. For example, as in Reference Document 4, a gender is estimated in advance using a voice / pause GMM, and an acoustic model (male acoustic model or female acoustic model) that matches the estimated gender is used.
[Reference 4] S. Kobashikawa, A. Ogawa, Y. Yamaguchi, and S. Takahashi, “Rapid unsupervised adaptation using frame independent output probabilities of gender and context independent phoneme models”, INTERSPEECH, 2009, pp.1615-1618.
The monophone maximum likelihood detection means 32 and the speech / pause maximum likelihood detection means 33 replace the logarithm log (P (s ^) b s ^ (o t )) and logarithm logb g ^ (o t ), respectively. ^) B s ^ (o t ) and b g ^ (o t ) are output, and the prior reliability calculation means 34 outputs the logarithm log (P (s ^) b s ^ (o t )) and logb g ^ ( o t ) may be determined.
なお、前記方法及び装置において説明した処理は、記載の順に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されるとしてもよい。 Note that the processes described in the method and apparatus are not only executed in time series according to the order of description, but may also be executed in parallel or individually as required by the processing capability of the apparatus that executes the processes. Good.
<実験結果>
本実験の音響分析条件は、標本化周波数16kHz、窓幅20msecのハミング窓、窓シフト10msecで、特徴量は25次元(MFCC12、ΔMFCC12、ΔPOWER)であり、評価タスクは、話者48名(男性17名、女性31名)による計240通話(合計19.81時間、17,672発話)で、発話内容は1対1対話における自由発話である。音響モデルは、男女別不特定話者モデルで、総状態数は1,958、総分布数は男性26,567、女性29,836である。性別選択は参考文献4と同様に音声/ポーズGMMを用いて事前に行った。言語モデルは、対話音声の書き起こしをベースに構築した単語trigramであり、語彙サイズは59,676単語である。デコーダには、音声認識エンジンVoiceRex(参考文献5参照)を用いた。
[参考文献5]H. Masataki, D. Shibata, Y. Nakazawa, S. Kobashikawa, A. Ogawa, and K. Ohtsuki, “VoiceRex - Spontaneous speech recognition technology for contact-center conversations,” NTT Tech. Rev., 2007, vol. 5, no. 1, pp. 22-27
<Experimental result>
The acoustic analysis conditions of this experiment are a sampling frequency of 16 kHz, a Hamming window with a window width of 20 msec, a window shift of 10 msec, a feature amount of 25 dimensions (MFCC12, ΔMFCC12, ΔPOWER), and an evaluation task of 48 speakers (male) A total of 240 calls (total of 19.81 hours, 17,672 utterances) by 17 people and 31 women), the utterance contents are free utterances in a one-to-one dialogue. The acoustic model is an unspecified speaker model by gender, the total number of states is 1,958, the total number of distributions is 26,567 men and 29,836 women. Gender selection was performed in advance using voice / pause GMM as in Reference 4. The language model is a word trigram constructed based on the transcription of dialogue voice, and the vocabulary size is 59,676 words. A voice recognition engine VoiceRex (see Reference 5) was used as the decoder.
[Reference 5] H. Masataki, D. Shibata, Y. Nakazawa, S. Kobashikawa, A. Ogawa, and K. Ohtsuki, “VoiceRex-Spontaneous speech recognition technology for contact-center conversations,” NTT Tech. Rev., 2007, vol. 5, no. 1, pp. 22-27
提案する事前信頼度推定による認識対象データ選択の有効性を示すために、通話単位でのデータ選択率に対する選択された通話音声の平均認識率(文字単位) で評価し、理想条件:認識精度が高い順に選択した理想条件、平均認識率:実験に用いた全通話音声の平均認識率、従来技術:音声認識処理後の音声認識結果を用いた事後的な信頼度スコアの高い順に選択、提案技術:提案する事前信頼度の高い順に選択(実施例1の音声認識装置100)、の4条件で比較を行った。また、従来技術は、参考文献6のように音声認識結果のNベストに基づき信頼度を推定している手法を採用した。さらに、事前信頼度推定の速度に関しては、音声認識処理を含む従来技術との比較により評価を行った。
[参考文献6]B. Rueber, “Obtaining confidence measures from sentence probabilities”, In EUROSPEECH-1997, pp.739-742
In order to show the effectiveness of the proposed recognition target data selection based on the pre-reliability estimation, the average recognition rate (character unit) of the selected call voice against the data selection rate per call unit is evaluated, and the ideal condition: recognition accuracy is Ideal conditions selected in descending order, average recognition rate: average recognition rate of all call voices used in the experiment, conventional technology: selection in descending order of reliability score using speech recognition results after speech recognition processing, proposed technology : Comparison was made under the four conditions of selection in the order of proposed prior reliability (
[Reference 6] B. Rueber, “Obtaining confidence measures from sentence probabilities”, In EUROSPEECH-1997, pp.739-742
提案手法による認識対象データの選択の効果を、図9に示す。実施例1の音声認識装置100は、理想条件には及ばないものの、全ての選択率で平均認識率よりも高い認識率を示しており、選択が認識率の改善に効果を示している。さらに、音声認識処理後の事後的な信頼度に基づく手法(従来技術)と同等の性能を示した。また、事前信頼度推定の処理時間は、従来技術との比で、僅か0.0184であり、50倍以上の速度向上を実現した。限られた計算資源の下で全ての通話音声を認識処理できない場合においては、図9に示すような事後的な信頼度による選択は実現できないため、提案する事前信頼度に基づく選択が有効であると言える。
The effect of selecting recognition target data by the proposed method is shown in FIG. Although the
本稿では、環境独立音素モデル及び音声モデルを用いた高速な事前信頼度推定に基づき、認識対象音声データを音声認識処理前に選択する手法を提案した。実験の結果、音声認識処理後の事後的な信頼度推定に比べておよそ54倍の速度で同等の選択性能を実現した。 In this paper, we proposed a method for selecting recognition target speech data before speech recognition based on fast prior reliability estimation using environment-independent phoneme model and speech model. As a result of the experiment, the same selection performance was realized at a speed about 54 times faster than the ex-post reliability estimation after the speech recognition processing.
<音声認識装置200>
図4を用いて実施例2に係る音声認識装置200について、実施例1と異なる部分のみを説明する。音声認識装置200は、事前信頼度スコア計算部230の処理内容が実施例1と異なる。
<Voice recognition apparatus 200>
Only the parts different from the first embodiment of the speech recognition apparatus 200 according to the second embodiment will be described with reference to FIG. The speech recognition apparatus 200 is different from the first embodiment in the processing content of the prior reliability score calculation unit 230.
<事前信頼度スコア計算部230>
図10を用いて、事前信頼度スコア計算部230を説明する。事前信頼度スコア計算部230は、モノフォン最尤検出手段232と、音声/ポーズ最尤検出手段33と、事前信頼度算出手段234と、信頼度スコア算出手段35とを備え、モノフォン最尤検出手段232と事前信頼度算出手段234の処理内容が実施例1と異なる。
<Pre-reliability score calculation unit 230>
The prior reliability score calculation unit 230 will be described with reference to FIG. The prior reliability score calculation unit 230 includes a monophone maximum
(モノフォン最尤検出手段232)
モノフォン最尤検出手段232は、フレームt毎の音声特徴量otに対する各モノフォンGMMから得られる出力確率bs(ot)とそのGMMが属する状態sの出現確率P(s)の積P(s)bs(ot)から、モノフォン最尤値P(s^)bs^(ot)を求め、モノフォン最尤状態s^に属するGMMから得られる出力確率bs^(ot)の対数logbs^(ot)を事前信頼度算出手段34に出力する。
(Monophone maximum likelihood detection means 232)
Monophones maximum
(事前信頼度算出手段234)
事前信頼度算出手段234は、モノフォン最尤状態s^に属するGMMから得られる出力確率bs^(ot)の対数logbs^(ot)と音声/ポーズ最尤値の対数logbg^(ot)とを入力され、式(12)によりその差を当該フレームの事前信頼度c(ot)として求め、信頼度スコア算出手段35に出力する。
(Advance reliability calculation means 234)
The prior reliability calculation means 234 calculates the logarithm logb s ^ (o t ) of the output probability b s ^ (o t ) obtained from the GMM belonging to the monophone maximum likelihood state s ^ and the log logb g ^ of the speech / pause maximum likelihood value. (O t ) is input, and the difference is obtained as the prior reliability c (o t ) of the frame by Expression (12), and is output to the reliability score calculation means 35.
式(11)に代えて、式(12)を用いても、実施例1と同様に事前信頼度c(ot)を求めることができる。 Even if the equation (12) is used instead of the equation (11), the prior reliability c (o t ) can be obtained as in the first embodiment.
なお、式(12)が以下の観点からも、事前信頼度として有効であることがわかる。図11に、音声特徴量と尤度との関係を示す。尤度は、尤もらしさを表す値であり、出力確率値で代用しても良い。横軸が音声特徴量、縦軸が尤度である。図中に、音響モデル中に含まれる音声モデル(破線)とモノフォンの音素モデル「*−a+*」,「*−i+*」,「*−u+*」のそれぞれの分布を表す。なお、−は左側依存、+は右側依存を表し、*はどのような音素でもよいことを表す。図11では、簡略化のため音素モデルの状態数を1、混合分布数を1として表現している。 In addition, it turns out that Formula (12) is effective as prior reliability also from the following viewpoints. FIG. 11 shows the relationship between the voice feature quantity and the likelihood. Likelihood is a value representing likelihood, and an output probability value may be substituted. The horizontal axis is the voice feature amount, and the vertical axis is the likelihood. In the figure, the respective distributions of the speech model (broken line) and monophone phoneme models “* -a + *”, “* -i + *”, “* -u + *” included in the acoustic model are shown. Note that-represents left side dependence, + represents right side dependence, and * represents any phoneme. In FIG. 11, the number of states of the phoneme model is represented as 1 and the number of mixture distributions is represented as 1 for simplification.
音声モデルに用いるGMMは、全ての音声すなわち全ての音素の学習データに基づき学習されたモデルである。そのため、その分布は、音声特徴量に対する尤度の値が比較的なだらかな分布となる。それに対して、モノフォンは、各音素の学習データで学習されたモデルである。そのため、当該音素に対応する音声特徴量に対する尤度の値が急峻な分布である。 The GMM used for the speech model is a model learned based on learning data of all speech, that is, all phonemes. Therefore, the distribution is a distribution in which the likelihood value with respect to the voice feature amount is relatively gentle. On the other hand, the monophone is a model learned from learning data of each phoneme. Therefore, the likelihood value for the speech feature amount corresponding to the phoneme has a steep distribution.
従って、ある音声特徴量に対する音声モデルの尤度と、同じ音声特徴量に対するモノフォンの尤度を比較することで、音声ファイルの信頼度を判定することが可能である。つまり、雑音の影響を受けずに収録された音素aの音声特徴量ot clean(a)に対するモノフォン「*−a+*」の尤度bs(ot clean(a))は大きな値を示す。一方、同じ音声特徴量ot clean(a)に対する音声モデルの尤度bg(ot clean(a))は相対的に小さな値を示す。その結果、それらの値の間には大きな差が生じる。 Therefore, it is possible to determine the reliability of the audio file by comparing the likelihood of the audio model for a certain audio feature amount and the likelihood of the monophone for the same audio feature amount. In other words, the likelihood of monophones "* -a + *" for the audio feature of the phoneme a which was recorded without being affected by the noise o t clean (a) b s (o t clean (a)) shows a large value . On the other hand, the likelihood b g of speech model for the same speech features o t clean (a) (o t clean (a)) shows a relatively small value. As a result, there is a large difference between these values.
これに対して、雑音の影響を強く受けて収録された音素aの音声特徴量ot noisy(a)は、本来の特徴量とは異なるのでモノフォンでの尤度bs(ot noisy(a))と、音声モデルにおける尤度bg(ot noisy(a))との間の差が小さくなる。 On the other hand, the audio feature amount of the phoneme a which was recorded strongly affected by the noise o t noisy (a) is, the likelihood b s (o t noisy (a in monophones is different from the original feature value )) and the difference between the likelihood b g (o t noisy (a )) in the speech model is reduced.
このように音声特徴量に対するモノフォンの尤度bs(ot)と、音声モデルの尤度bg(ot)との差を見ることで、収録音声の品質を評価することができる。よって式(12)により事前信頼度c(ot)を求めることができることがわかる。 Thus the speech features for monophone likelihood b s (o t), by looking at the difference between the speech model likelihood b g (o t), it is possible to evaluate the quality of the recorded voice. Therefore, it can be seen that the prior reliability c (o t ) can be obtained from the equation (12).
このような構成とすることで、実施例1と同様の効果を得ることができる。また、実施例1で用いる式(11)では第1項に、最尤状態s^の出現確率P(s^)(<1)を含むため、事前信頼度c(ot)の値が小さくなり、負の領域になる可能性が高い。実施例2で用いる式(12)では、第1項と第2項とも同様の出力確率の対数スコアであり、かつ前述の通り音声モデルの分布がモノフォンの分布に比べてなだらかなことから、第2項の値は第1項に比べて小さくなり、正の領域になる可能性が高い。すなわち、事前信頼度c(ot)、ひいては信頼度スコアCの値の取り得る値の範囲が制限される。従って、後段で音声認識処理制御を行う場合、音声認識処理を制御する閾値Cthの設定が容易になる。 By adopting such a configuration, the same effect as in the first embodiment can be obtained. Further, in the expression (11) used in the first embodiment, since the first term includes the appearance probability P (s ^) (<1) of the maximum likelihood state s ^, the value of the prior reliability c (o t ) is small. This is likely to be a negative region. In the expression (12) used in the second embodiment, the first term and the second term are similar log probabilities of output probabilities, and the distribution of the speech model is gentle compared to the distribution of the monophone as described above. The value of the second term is smaller than that of the first term and is likely to be a positive region. In other words, the range of possible values of the value of the prior reliability c (o t ) and the reliability score C is limited. Therefore, when performing voice recognition processing control at a later stage, setting of the threshold value C th for controlling the voice recognition processing becomes easy.
<音声認識装置300>
図12を用いて実施例3に係る音声認識装置300を説明する。音声認識装置300は、認識処理制御部380を備える点、及び音声認識装置340の処理内容が音声認識装置100、200と異なる。
<認識処理制御部380>
認識処理制御部380は、制御信号としてビーム探索幅N(C)を出力する。その一例を式(13)に示す。
<
A
<Recognition
The recognition
図13に信頼度スコアCとビーム探索幅N(C)との関係を例示する。横軸は信頼度スコアCであり、縦軸はビーム探索幅N(C)である。
図13に示すように式(13)は、所定の範囲の信頼度スコアC(Cmin〜Cmax)に対応するビーム探索幅N(C)(Nmin〜Nmax)を、信頼度スコアCの値で比例配分する考えである。ここでは、比例係数が負の値なので、信頼度スコアCが小でビーム探索幅N(C)が大であり、Cが大でN(C)が小となる関係である。もちろん、信頼度スコアCとビーム探索幅N(C)との関係は、非線形な関数で表せる関係であっても良い。また、制御信号としてビーム探索幅N(C)を用いる場合、ビーム探索幅は、個数ビーム幅に限定したものではなく、例えばスコアビーム幅、単語終端スコアビーム幅や、単語終端個数ビーム幅等であっても良い。
FIG. 13 illustrates the relationship between the reliability score C and the beam search width N (C). The horizontal axis is the reliability score C, and the vertical axis is the beam search width N (C).
As shown in FIG. 13, the equation (13) expresses the beam search width N (C) (N min to N max ) corresponding to the reliability score C (C min to C max ) in a predetermined range, and the reliability score C It is an idea of proportionally distributing with the value of. Here, since the proportionality coefficient is a negative value, the reliability score C is small and the beam search width N (C) is large, and C is large and N (C) is small. Of course, the relationship between the reliability score C and the beam search width N (C) may be a relationship that can be expressed by a non-linear function. Further, when the beam search width N (C) is used as the control signal, the beam search width is not limited to the number beam width. For example, the score search width, the word end score beam width, the word end number beam width, etc. There may be.
ここで、例えばCmax=μ+σ、Cmin=μ―σとして、Nmaxを通常用いるビーム幅の1.5倍、Nminを通常用いるビーム幅の半分等としても良い。また、平均音質が極端に悪い場合(例えばC<Cmin)には、ビーム探索幅を拡大しても精度向上が望めず処理時間ばかり掛かるので、ビーム探索幅を小さく、例えばNminにしても良い。また、制御信号に認識対象外指示信号を含ませて音声認識処理を行わせないようにしても良い。また、音声認識処理を停止させる信号とビーム探索幅の制御信号を並存させても良い。 Here, for example, C max = μ + σ, C min = μ−σ, N max may be 1.5 times the beam width normally used, N min may be half the beam width normally used, and the like. In addition, when the average sound quality is extremely low (for example, C <C min ), even if the beam search width is increased, the accuracy cannot be improved and it takes much processing time. Therefore, the beam search width is reduced, for example, N min. good. Further, the speech recognition process may not be performed by including the non-recognition instruction signal in the control signal. Further, a signal for stopping the speech recognition process and a control signal for the beam search width may coexist.
<音声認識処理部340>
音声認識処理部340は、音声認識処理を停止させる信号か、ビーム探索幅の制御信号の少なくとも一方に基づき、前記音声特徴量系列を入力として音声認識処理を行う。例えば、認識処理制御部380から音声認識処理を停止させる信号を受信した場合には、対応する音声ファイルについては、音声認識処理を停止させる。また、ビーム探索幅N(C)の制御信号を受信した場合には、そのビーム探索幅N(C)に基づき、音声認識処理を行う。
<Voice
The speech
<効果>
このように、認識処理制御部380を備えた音声認識装置300は、複数の音声ファイルの音声認識処理の効率化と、認識精度の向上を図ることができる。なお、認識処理制御部380の機能は、音声認識処理部40に持たせても良い。
<Effect>
As described above, the
<音声認識装置400>
図14及び図15を用いて実施例4に係る音声認識装置400を説明する。
音声認識装置400は、音声ファイル処理部401と、ソート音声認識処理部440と、を備える点で音声認識装置100、200と異なる。
<
A
The
<音声ファイル処理部401>
音声ファイル処理部401は、複数の音声ファイルの信頼度スコアCの高い順番に複数の音声ファイルを並び替える(ステップS401)。
<ソート音声認識処理部440>
ソート音声認識処理部440は、信頼度スコアCの高い順番に音声認識処理を行う(ステップS440)。
<Audio
The audio
<Sort voice
The sorted speech
<効果>
このような構成とすることで、実施例1と同様の効果を得ることができる。さらに、このように信頼度スコアCの大きさ順に音声認識処理を実行することで、複数の音声ファイルの音声認識処理を行う場合の処理効率を向上させることができる。例えば、全音声ファイルに対して音声認識処理を行うことが、計算機資源や処理時間の関係等によって難しい場合には、信頼度スコアCが小さい音声ファイルは音声認識処理が行われず、音声認識精度が高い事が期待される信頼度スコアCが大きな音声ファイルにのみ音声認識処理が行われることになり、高精度な音声認識結果を収集することが可能になる。なお、音声ファイル処理部401の機能は、ソート音声認識処理部440の機能に含めても良い。なお、実施例3の音声認識装置300と音声ファイル処理部401及びソート音声認識処理部440を組み合わせても、同様の効果をえることができる。
<Effect>
By adopting such a configuration, the same effect as in the first embodiment can be obtained. Furthermore, by executing the speech recognition processing in the order of the reliability score C in this way, it is possible to improve the processing efficiency when performing speech recognition processing of a plurality of speech files. For example, when it is difficult to perform speech recognition processing on all speech files due to the relationship between computer resources and processing time, speech recognition processing is not performed on speech files with a low reliability score C, and speech recognition accuracy is high. The voice recognition process is performed only on a voice file having a high reliability score C that is expected to be high, and it is possible to collect a highly accurate voice recognition result. Note that the function of the voice
<音声認識装置500>
図16及び図17を用いて実施例5に係る音声認識装置500を説明する。
音声認識装置500は、教師なし適応制御部501と、教師なし適応部502と、適応後音響モデルパラメータメモリ503と、第2認識処理部504とを備える点で音声認識装置100、200と異なる。
<
A
The
<教師なし適応制御部501>
教師なし適応制御部501は、事前信頼度Cを入力として、その事前信頼度Cの値が一定範囲内(例えばC>Cth2であり、Cth2>Cthとする。ここで、Cth2は、前述の信頼度スコア分布の平均値μ、標準偏差σを用いて、例えばCth2=μ―σ等としてもよい)か否かを判定して教師なし適応制御信号pを出力する(ステップS501)。事前信頼度Cの値が一定範囲内でない場合、その音声ファイルの処理を終了する(ステップS501のNO)。教師なし適応制御信号とは、音声認識処理部40が出力する音声認識結果を適応用ラベルとして用いるか否かを制御する信号である。
<Unsupervised
The unsupervised
<教師なし適応部502>
教師なし適応部502は、教師なし適応制御信号pが、音声認識処理部40が出力する音声認識結果Wを適応用ラベルとして用いることを指示していた場合、音声認識結果Wを適応用ラベルとして音響モデルパラメータメモリ50に記録された音響モデルを学習して、適応後音響モデルを生成する(ステップS502)。適応後音響モデルは、適応後音響モデルパラメータメモリ503に記録される。
<
The
<第2認識処理部504>
第2認識処理部504は、適応後音響モデルパラメータメモリ503に記録された適応後音響モデルを用いて音声特徴量系列Oの音声認識処理を行い、音声認識結果W’を出力する(ステップS504)。なお、このとき、事前信頼度スコア計算部30で求めた信頼度スコアCを一緒に出力してもよい。
<Second
The second
<効果>
このような構成とすることで実施例1と同様の効果を得ることができる。さらに、音声認識装置500は、事前信頼度Cの値が一定範囲内にある場合に限って、音声認識結果Wを適応用ラベルとして音響モデルを学習し、さらに音声認識処理を行う。事前信頼度スコアCが低く音声ファイルの認識精度の低い場合には、そのときの音声認識処理結果Wは、教師なし適応における適応用ラベルとしてふさわしくなく、教師なし適応による音響モデルの精度向上が期待できない。そのような場合に、教師なし適応や第2音声認識処理を省略することで、その計算時間を削減できる。また、信頼度スコアCが高く音声ファイルの認識精度の高い音声認識結果Wを適応用ラベルとして音響モデルを学習するので、音響モデルの精度を自動的に向上させることができる。なお、実施例3、4の音声認識装置300、400と教師なし適応制御部501、教師なし適応部502、適応後音響モデルパラメータメモリ503及び第2認識処理部504を組み合わせても、同様の効果をえることができる。
<Effect>
By adopting such a configuration, the same effect as in the first embodiment can be obtained. Furthermore, the
<プログラム>
また、前記装置における処理手段をコンピュータによって実現する場合、各装置が有すべき機能の処理内容はプログラムによって記述される。そして、このプログラムをコンピュータで実行することにより、各装置における処理手段がコンピュータ上で実現される。
<Program>
Further, when the processing means in the device is realized by a computer, the processing contents of the functions that each device should have are described by a program. Then, by executing this program on the computer, the processing means in each apparatus is realized on the computer.
この処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、例えば、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリ等どのようなものでもよい。具体的には、例えば、磁気記録装置として、ハードディスク装置、フレキシブルディスク、磁気テープ等を、光ディスクとして、DVD(Digital Versatile Disc)、DVD−RAM(Random Access Memory)、CD−ROM(Compact Disc Read Only Memory)、CD−R(Recordable)/RW(ReWritable)等を、光磁気記録媒体として、MO(Magneto Optical disc)等を、半導体メモリとしてEEP−ROM(Electronically Erasable and Programmable-Read Only Memory)等を用いることができる。 The program describing the processing contents can be recorded on a computer-readable recording medium. As the computer-readable recording medium, for example, any recording medium such as a magnetic recording device, an optical disk, a magneto-optical recording medium, and a semiconductor memory may be used. Specifically, for example, as a magnetic recording device, a hard disk device, a flexible disk, a magnetic tape or the like, and as an optical disk, a DVD (Digital Versatile Disc), a DVD-RAM (Random Access Memory), a CD-ROM (Compact Disc Read Only). Memory), CD-R (Recordable) / RW (ReWritable), etc., magneto-optical recording medium, MO (Magneto Optical disc), etc., semiconductor memory, EEP-ROM (Electronically Erasable and Programmable-Read Only Memory), etc. Can be used.
また、このプログラムの流通は、例えば、そのプログラムを記録したDVD、CD−ROM等の可搬型記録媒体を販売、譲渡、貸与等することによって行う。さらに、このプログラムをサーバコンピュータの記録装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することにより、このプログラムを流通させる構成としてもよい。 The program is distributed by selling, transferring, or lending a portable recording medium such as a DVD or CD-ROM in which the program is recorded. Further, the program may be distributed by storing the program in a recording device of a server computer and transferring the program from the server computer to another computer via a network.
また、各手段は、コンピュータ上で所定のプログラムを実行させることにより構成することにしてもよいし、これらの処理内容の少なくとも一部をハードウェア的に実現することとしてもよい。 Each means may be configured by executing a predetermined program on a computer, or at least a part of these processing contents may be realized by hardware.
100、200、300、400、500、900 音声認識装置
20 特徴量分析部
30、30’、230 事前信頼度スコア計算部
40、340 音声認識処理部
50 音響モデルパラメータメモリ
60 言語モデルパラメータメモリ
380 認識処理制御部
401 音声ファイル処理部
440 ソート音声認識処理部
501 教師なし適応制御部
502 教師なし適応部
503 適応後音響モデルパラメータメモリ
504 第2認識処理部
100, 200, 300, 400, 500, 900
Claims (11)
前記フレーム毎の音声特徴量系列を用いて、その音声特徴量系列に対するモノフォンHMMの各状態に属するGMMから得られる出力確率bs(ot)と、その各状態sの出現確率P(s)との積が最も高いものを求め、最も高い積P(s^)bs^(ot)の対数と、その入力に対する音声モデルの状態に属するGMMまたはポーズモデルHMMの各状態に属するGMMから得られる最も高い出力確率bg^(ot)の対数との差を当該フレームの事前信頼度とし、その事前信頼度を平均化して音声ファイル単位の信頼度スコアを求める事前信頼度スコア計算過程と、
前記音声特徴量系列を用いて、前記信頼度スコアに基づき音声認識処理を行う音声認識処理過程と、を備える、
ことを特徴とする音声認識方法。 A feature amount analysis process for obtaining a speech feature amount sequence by analyzing a speech feature amount of a speech digital signal in units of frames;
Using the speech feature amount sequence for each frame, the output probability b s (o t ) obtained from the GMM belonging to each state of the monophone HMM for the speech feature amount sequence, and the appearance probability P (s) of each state s Is obtained from the logarithm of the highest product P (s ^) b s ^ (o t ) and the GMM belonging to each state of the speech model or pose model HMM for the input speech model. A prior reliability score calculation process in which a difference from the logarithm of the highest obtained output probability b g ^ (o t ) is used as the prior reliability of the frame, and the prior reliability is averaged to obtain a reliability score for each audio file. When,
Using the speech feature amount sequence, a speech recognition processing step of performing speech recognition processing based on the reliability score,
A speech recognition method characterized by the above.
前記フレーム毎の音声特徴量系列を用いて、その入力に対するモノフォンHMMの各状態に属するGMMから得られる出力確率bs(ot)と、その各状態sの出現確率P(s)との積が最も高いときの出力確率bs^(ot)の対数と、その入力に対する音声モデルの状態に属するGMMまたはポーズモデルHMMの各状態に属するGMMから得られる最も高い出力確率bg^(ot)の対数との差を当該フレームの事前信頼度とし、その事前信頼度を平均化して音声ファイル単位の信頼度スコアを求める事前信頼度スコア計算過程と、
前記音声特徴量系列を用いて、前記信頼度スコアに基づき音声認識処理を行う音声認識処理過程と、を備える、
ことを特徴とする音声認識方法。 A feature amount analysis process for obtaining a speech feature amount sequence by analyzing a speech feature amount of a speech digital signal in units of frames;
The product of the output probability b s (o t ) obtained from the GMM belonging to each state of the monophone HMM for the input and the appearance probability P (s) of each state s using the speech feature amount sequence for each frame. Is the logarithm of the output probability b s ^ (o t ) when is the highest and the highest output probability b g ^ (o obtained from the GMM belonging to each state of the speech model HMM or the pose model HMM for the input. a prior reliability score calculation process in which a difference between the logarithm of t ) is defined as a prior reliability of the frame, and the prior reliability is averaged to obtain a reliability score for each audio file;
Using the speech feature amount sequence, a speech recognition processing step of performing speech recognition processing based on the reliability score,
A speech recognition method characterized by the above.
前記信頼度スコアを用いて、音声認識処理を停止させる信号か、ビーム探索幅の制御信号の少なくとも一方を求める認識処理制御過程を、さらに備え、
前記音声認識処理過程は、音声認識処理を停止させる信号か、ビーム探索幅の制御信号の少なくとも一方に基づき、前記音声特徴量系列の音声認識処理を行う、
ことを特徴とする音声認識方法。 In the voice recognition method according to claim 1 or 2,
A recognition processing control step for obtaining at least one of a signal for stopping speech recognition processing or a control signal for beam search width using the reliability score ;
The speech recognition processing step performs speech recognition processing of the speech feature amount series based on at least one of a signal for stopping speech recognition processing or a control signal for beam search width.
A speech recognition method characterized by the above.
複数の音声ファイルの前記信頼度スコアから、信頼度スコアの高い順番に前記複数の音声ファイルを並び替える音声ファイル処理過程と、
信頼度スコアの高い順番で音声認識処理を行うソート音声認識処理過程と、
をさらに備えることを特徴とする音声認識方法。 The speech recognition method according to any one of claims 1 to 3,
From the confidence scores of the plurality of audio files, and the audio file processing step of rearranging a plurality of audio files with high confidence score order,
Sort voice recognition processing process that performs voice recognition processing in order of high reliability score ;
A speech recognition method, further comprising:
前記信頼度スコアを用いて、その信頼度スコアの値が一定範囲内か否かを判定して教師なし適応制御信号を求める教師なし適応制御過程と、
前記音声認識の結果と前記教師なし適応制御信号を用いて、前記音声認識結果を適応用ラベルとして音響モデルを学習して適応後音響モデルを生成する教師なし適応過程と、
前記適応後音響モデルが生成された場合に、その適応後音響モデルを用いて前記音声特徴量系列の音声認識処理を行う第2認識処理過程と、
をさらに備えることを特徴とする音声認識方法。 In the voice recognition method according to any one of claims 1 to 4,
Using said confidence score, and unsupervised adaptive control process of obtaining the no adaptive control signals teacher determines whether the value of the confidence scores or within a predetermined range,
Using the speech recognition result and the unsupervised adaptive control signal, learning an acoustic model using the speech recognition result as an adaptation label and generating an adapted acoustic model;
A second recognition process for performing speech recognition processing of the speech feature amount sequence using the post-adaptation acoustic model when the post-adaptation acoustic model is generated;
A speech recognition method, further comprising:
前記フレーム毎の音声特徴量系列を入力として、その入力に対するモノフォンHMMの各状態に属するGMMから得られる出力確率bs(ot)と、その各状態sの出現確率P(s)との積が最も高いものを求め、最も高い積P(s^)bs^(ot)の対数と、その入力に対する音声モデルの状態に属するGMMまたはポーズモデルHMMの各状態に属するGMMから得られる最も高い出力確率bg^(ot)の対数との差を当該フレームの事前信頼度とし、その事前信頼度を平均化して音声ファイル単位の信頼度スコアを出力する事前信頼度スコア計算部と、
前記音声特徴量系列を入力として、前記信頼度スコアに基づき音声認識処理を行う音声認識処理部とを備える、
ことを特徴とする音声認識装置。 A feature amount analysis unit that analyzes a speech feature amount of an input speech digital signal in units of frames and outputs a speech feature amount sequence;
The product of the output probability b s (o t ) obtained from the GMM belonging to each state of the monophone HMM with respect to the input speech feature quantity sequence for each frame and the appearance probability P (s) of each state s Which is obtained from the logarithm of the highest product P (s ^) b s ^ (o t ) and the GMM belonging to each state of the speech model or pose model HMM for the input. A prior reliability score calculator that outputs a reliability score for each audio file by averaging the prior reliability as a difference between the logarithm of the high output probability b g ^ (o t ) and the prior reliability of the frame;
A speech recognition processing unit that performs speech recognition processing based on the reliability score using the speech feature amount series as an input;
A speech recognition apparatus characterized by that.
前記フレーム毎の音声特徴量系列を入力として、その入力に対するモノフォンHMMの各状態に属するGMMから得られる出力確率bs(ot)と、その各状態sの出現確率P(s)との積が最も高いときの出力確率bs^(ot)の対数と、その入力に対する音声モデルの状態に属するGMMまたはポーズモデルHMMの各状態に属するGMMから得られる最も高い出力確率bg^(ot)の対数との差を当該フレームの事前信頼度とし、その事前信頼度を平均化して音声ファイル単位の信頼度スコアを出力する事前信頼度スコア計算部と、
前記音声特徴量系列を入力として、前記信頼度スコアに基づき音声認識処理を行う音声認識処理部とを備える、
ことを特徴とする音声認識装置。 A feature amount analysis unit that analyzes a speech feature amount of an input speech digital signal in units of frames and outputs a speech feature amount sequence;
The product of the output probability b s (o t ) obtained from the GMM belonging to each state of the monophone HMM with respect to the input speech feature quantity sequence for each frame and the appearance probability P (s) of each state s Is the logarithm of the output probability b s ^ (o t ) when is the highest and the highest output probability b g ^ (o obtained from the GMM belonging to each state of the speech model HMM or the pose model HMM for the input. a prior reliability score calculation unit that sets a difference between the logarithm of t ) as a prior reliability of the frame, averages the prior reliability, and outputs a reliability score for each audio file;
A speech recognition processing unit that performs speech recognition processing based on the reliability score using the speech feature amount series as an input;
A speech recognition apparatus characterized by that.
前記信頼度スコアを入力として、音声認識処理を停止させる信号か、ビーム探索幅の制御信号の少なくとも一方を求める認識処理制御部を、さらに備え、
前記音声認識処理部は、音声認識処理を停止させる信号か、ビーム探索幅の制御信号の少なくとも一方に基づき、前記音声特徴量系列を入力として音声認識処理を行う、
ことを特徴とする音声認識装置。 In the voice recognition device according to claim 6 or 7,
A recognition processing control unit for obtaining at least one of a signal for stopping speech recognition processing or a control signal for beam search width, using the reliability score as an input;
The speech recognition processing unit performs speech recognition processing using the speech feature amount series as an input based on at least one of a signal for stopping speech recognition processing or a control signal for beam search width,
A speech recognition apparatus characterized by that.
複数の音声ファイルの前記信頼度スコアから、信頼度スコアの高い順番に前記複数の音声ファイルを並び替える音声ファイル処理部と、
信頼度スコアの高い順番で音声認識処理を行うソート音声認識処理部と、
をさらに備えることを特徴とする音声認識装置。 The speech recognition apparatus according to any one of claims 6 to 8,
From the confidence scores of the plurality of audio files, and the audio file processing unit that rearranges the plurality of audio files with high confidence score order,
Sort voice recognition processing unit that performs voice recognition processing in order of high reliability score ;
A speech recognition apparatus further comprising:
前記信頼度スコアを入力として、その信頼度スコアの値が一定範囲内か否かを判定して教師なし適応制御信号を出力する教師なし適応制御部と、
前記音声認識の結果と前記教師なし適応制御信号を入力として、前記音声認識結果を適応用ラベルとして音響モデルを学習して適応後音響モデルを生成する教師なし適応部と、
前記適応後音響モデルが生成された場合に、その適応後音響モデルを用いて前記音声特徴量系列の音声認識処理を行う第2認識処理部と、
をさらに備えることを特徴とする音声認識装置。 The speech recognition apparatus according to any one of claims 6 to 9,
Wherein the confidence scores as inputs, and unsupervised adaptive controller that outputs without adaptive control signals teacher determines whether the value of the confidence scores or within a predetermined range,
An unsupervised adaptation unit that receives the speech recognition result and the unsupervised adaptive control signal as input, learns an acoustic model using the speech recognition result as an adaptation label, and generates a post-adaptation acoustic model;
A second recognition processing unit for performing speech recognition processing of the speech feature amount sequence using the post-adaptation acoustic model when the post-adaptation acoustic model is generated;
A speech recognition apparatus further comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010171020A JP5427140B2 (en) | 2010-07-29 | 2010-07-29 | Speech recognition method, speech recognition apparatus, and speech recognition program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010171020A JP5427140B2 (en) | 2010-07-29 | 2010-07-29 | Speech recognition method, speech recognition apparatus, and speech recognition program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012032538A JP2012032538A (en) | 2012-02-16 |
JP5427140B2 true JP5427140B2 (en) | 2014-02-26 |
Family
ID=45846027
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010171020A Expired - Fee Related JP5427140B2 (en) | 2010-07-29 | 2010-07-29 | Speech recognition method, speech recognition apparatus, and speech recognition program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5427140B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6679898B2 (en) | 2015-11-24 | 2020-04-15 | 富士通株式会社 | KEYWORD DETECTION DEVICE, KEYWORD DETECTION METHOD, AND KEYWORD DETECTION COMPUTER PROGRAM |
CN109273012B (en) * | 2018-09-06 | 2023-01-31 | 河海大学 | Identity authentication method based on speaker recognition and digital voice recognition |
CN111833867B (en) * | 2020-06-08 | 2023-12-05 | 北京嘀嘀无限科技发展有限公司 | Voice instruction recognition method and device, readable storage medium and electronic equipment |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000056793A (en) * | 1998-08-12 | 2000-02-25 | Fuji Xerox Co Ltd | Speech recognition device |
JP5315976B2 (en) * | 2008-12-19 | 2013-10-16 | カシオ計算機株式会社 | Speech recognition apparatus, speech recognition method, and program |
-
2010
- 2010-07-29 JP JP2010171020A patent/JP5427140B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2012032538A (en) | 2012-02-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10157610B2 (en) | Method and system for acoustic data selection for training the parameters of an acoustic model | |
US8280733B2 (en) | Automatic speech recognition learning using categorization and selective incorporation of user-initiated corrections | |
US7693713B2 (en) | Speech models generated using competitive training, asymmetric training, and data boosting | |
US8046221B2 (en) | Multi-state barge-in models for spoken dialog systems | |
US8775184B2 (en) | Evaluating spoken skills | |
US9613624B1 (en) | Dynamic pruning in speech recognition | |
US8000971B2 (en) | Discriminative training of multi-state barge-in models for speech processing | |
KR20050082249A (en) | Method and apparatus for domain-based dialog speech recognition | |
JP4758919B2 (en) | Speech recognition apparatus and speech recognition program | |
JP6996570B2 (en) | Urgency estimation device, urgency estimation method, program | |
JP5427140B2 (en) | Speech recognition method, speech recognition apparatus, and speech recognition program | |
JP4922377B2 (en) | Speech recognition apparatus, method and program | |
JP4729078B2 (en) | Voice recognition apparatus and method, program, and recording medium | |
JP4852129B2 (en) | Speech recognition apparatus, method and program | |
Nouza et al. | Fast keyword spotting in telephone speech | |
JP5166195B2 (en) | Acoustic analysis parameter generation method and apparatus, program, and recording medium | |
Breslin et al. | Continuous asr for flexible incremental dialogue | |
JP4843646B2 (en) | Voice recognition apparatus and method, program, and recording medium | |
JP4981850B2 (en) | Voice recognition apparatus and method, program, and recording medium | |
JP6526602B2 (en) | Speech recognition apparatus, method thereof and program | |
JP2013114202A (en) | Speech recognition method, device for the same and program | |
JP5235849B2 (en) | Speech recognition apparatus, method and program | |
JP5369079B2 (en) | Acoustic model creation method and apparatus and program thereof | |
JP5066668B2 (en) | Speech recognition apparatus and program | |
JP7259988B2 (en) | DETECTION DEVICE, METHOD AND PROGRAM THEREOF |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20121101 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20131015 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20131106 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20131119 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20131129 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 Ref document number: 5427140 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |