JP2001125593A - Speech recognition method and device, and medium recorded with speech recognition program - Google Patents

Speech recognition method and device, and medium recorded with speech recognition program

Info

Publication number
JP2001125593A
JP2001125593A JP30818099A JP30818099A JP2001125593A JP 2001125593 A JP2001125593 A JP 2001125593A JP 30818099 A JP30818099 A JP 30818099A JP 30818099 A JP30818099 A JP 30818099A JP 2001125593 A JP2001125593 A JP 2001125593A
Authority
JP
Japan
Prior art keywords
likelihood
distribution
dictionary
speech recognition
approximate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP30818099A
Other languages
Japanese (ja)
Other versions
JP3534665B2 (en
Inventor
Akira Tsuruta
彰 鶴田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP30818099A priority Critical patent/JP3534665B2/en
Publication of JP2001125593A publication Critical patent/JP2001125593A/en
Application granted granted Critical
Publication of JP3534665B2 publication Critical patent/JP3534665B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a speech recognition device capable of reducing the calculation volume of likelihood calculation thereby increasing the processing speed. SOLUTION: The speech recognition device includes an auxiliary selection dictionary 4a generated from each partial space, a likelihood calculation part 3 which calculates an approximate likelihood of each distribution constituting the state of an HMM 'Hidden Markov Model) on the basis of an input vector and contents stored in the auxiliary selection dictionary 4a and calculates a likelihood of the input vector to a distribution which is extracted by using the approximate likelihood, and a dictionary search part 5 which performs voice recognition on the basis of the likelihood calculated by the calculation part 3. Since the likelihood calculation part 3 calculates the likehood of the input vector to only the distribution which is extracted by using the approximate likelihood, the calculation volume of likelihood calculation is reduced to increase the processing speed of speech recognition.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、音声認識技術に関
し、特に、隠れマルコフモデル(以下、HMM(Hidden
Markov Model)と呼ぶ)を用いた音声認識装置、音
声認識方法および音声認識プログラムを記録した媒体に
関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a speech recognition technology, and more particularly, to a Hidden Markov Model (HMM).
Markov Model), a speech recognition method, and a medium recording a speech recognition program.

【0002】[0002]

【従来の技術】近年、パーソナルコンピュータやワード
プロセッサ等の情報処理装置において、音声によって文
章の入力等を可能とするために音声認識装置の開発が盛
んに行われている。音声認識の中でも、話者の個人差等
に起因するスペクトルそのものの変動に対しても高い認
識精度が得られるHMMを用いた音声認識が特に盛んに
研究・開発されている。
2. Description of the Related Art In recent years, in information processing apparatuses such as personal computers and word processors, voice recognition apparatuses have been actively developed in order to enable input of sentences by voice. Among voice recognitions, voice recognition using an HMM, which can obtain high recognition accuracy even with a change in spectrum itself due to individual differences of speakers, has been actively researched and developed.

【0003】HMMを用いた音声認識においては、大量
の音声データから得られる音声の統計的特徴をモデル化
したものが使用される。このHMMを用いた音声認識に
ついては、中川聖一著“確率モデルによる音声認識”等
に詳細に説明されているので、これらの参考書を参照さ
れたい。
[0003] In speech recognition using HMM, a model of statistical features of speech obtained from a large amount of speech data is used. The speech recognition using the HMM is described in detail in Seiichi Nakagawa, “Speech Recognition by Stochastic Model,” and the like, so please refer to these reference books.

【0004】[0004]

【発明が解決しようとする課題】HMMを用いた音声認
識装置の開発において、多くは大語彙、不特定話者およ
び連続音声の認識を目指しており、ソフトウェア処理の
みによって実時間処理が可能な音声認識装置を構築する
ためには、音声認識処理の高速化が必要である。
In the development of a speech recognition apparatus using an HMM, many aim at recognition of large vocabulary, unspecified speakers and continuous speech, and speech which can be processed in real time only by software processing. In order to construct a recognition device, it is necessary to speed up speech recognition processing.

【0005】連続分布HMMを用いた音声認識装置にお
いて、HMMの出力確率の計算は、言語空間探索と同様
に多くの計算量を要する処理である。このHMMの出力
確率の計算は、総分布数(=(HMMの数)×(HMM
の状態数)×(状態内混合分布数))に比例する。一般
に、連続分布HMMを用いた音声認識においては、学習
データが十分であれば、分布数が多いほど認識率が高く
なるが計算量が多くなる。逆に、分布数が少ないほど認
識率が低くなるが計算量は少なくなる。したがって、認
識率を低下させずに、実際に計算する総分布数を削減し
て計算量を少なくする手法が重要となる。
[0005] In a speech recognition apparatus using a continuous distribution HMM, the calculation of the output probability of the HMM is a process requiring a large amount of calculation as in the case of language space search. The calculation of the output probability of the HMM is based on the total number of distributions (= (number of HMMs) × (HMM
(The number of states in the state) × (the number of mixed distributions in the state)). Generally, in speech recognition using a continuous distribution HMM, if the learning data is sufficient, the larger the number of distributions, the higher the recognition rate but the amount of calculation. Conversely, the smaller the number of distributions, the lower the recognition rate but the amount of calculation. Therefore, it is important to reduce the amount of calculation by reducing the total number of distributions actually calculated without lowering the recognition rate.

【0006】本発明の第1の目的は、尤度計算の計算量
を削減して、処理速度を向上させることが可能な音声認
識装置、音声認識方法および音声認識プログラムを記録
した媒体を提供することである。
A first object of the present invention is to provide a speech recognition apparatus, a speech recognition method, and a medium in which a speech recognition program is recorded, which can reduce the amount of calculation of likelihood calculation and improve the processing speed. That is.

【0007】第2の目的は、認識性能が高い音声認識装
置、音声認識方法および音声認識プログラムを記録した
媒体を提供することである。
A second object is to provide a speech recognition device, a speech recognition method, and a medium on which a speech recognition program is recorded, having high recognition performance.

【0008】[0008]

【課題を解決するための手段】本発明のある局面に従え
ば、音声認識装置は、部分空間毎に作成された予備選択
辞書と、入力ベクトルと予備選択辞書に格納された内容
とに基づいてHMMの状態を構成する各分布の近似尤度
を計算し、近似尤度を用いて選択された分布について入
力ベクトルとの尤度を計算するための尤度計算手段と、
尤度計算手段によって計算された尤度に基づいて音声の
認識を行う認識手段とを含む。
According to one aspect of the present invention, a speech recognition apparatus is provided based on a preselection dictionary created for each subspace, an input vector, and contents stored in the preselection dictionary. A likelihood calculating means for calculating the approximate likelihood of each distribution constituting the state of the HMM, and calculating the likelihood of the distribution selected using the approximate likelihood with the input vector;
Recognizing means for recognizing speech based on the likelihood calculated by the likelihood calculating means.

【0009】尤度計算手段は、近似尤度を用いて選択さ
れた分布についてのみ入力ベクトルとの尤度を計算する
ので、尤度計算の計算量を削減することができ、音声認
識の処理速度を向上させることが可能となる。
Since the likelihood calculating means calculates the likelihood with the input vector only for the distribution selected using the approximate likelihood, the amount of calculation of the likelihood calculation can be reduced, and the processing speed of speech recognition can be reduced. Can be improved.

【0010】本発明の別の局面に従えば、予備選択辞書
は特徴空間毎に作成される。予備選択辞書は特徴空間毎
に作成されるので、より詳細な近似尤度を計算すること
ができ、認識性能が高い音声認識装置を提供することが
可能となる。
[0010] According to another aspect of the present invention, a preselection dictionary is created for each feature space. Since the preliminary selection dictionary is created for each feature space, more detailed approximate likelihood can be calculated, and a speech recognition device with high recognition performance can be provided.

【0011】本発明のさらに別の局面に従えば、予備選
択辞書は、部分空間毎に作成されたクラスタ代表分布を
正規分布で表現し、平均値および分散が格納される。
According to still another aspect of the present invention, the preliminary selection dictionary expresses a cluster representative distribution created for each subspace by a normal distribution, and stores an average value and a variance.

【0012】予備選択辞書は、部分空間毎に作成された
クラスタ代表分布が正規分布で表現されているので、近
似尤度の計算が容易となり、さらに処理速度の向上を図
ることが可能となる。
In the preliminary selection dictionary, since the cluster representative distribution created for each subspace is represented by a normal distribution, it is easy to calculate the approximate likelihood, and it is possible to further improve the processing speed.

【0013】本発明のさらに別の局面に従えば、予備選
択辞書は、部分空間毎に作成された多層の辞書を含む。
According to still another aspect of the present invention, the preselection dictionary includes a multi-layer dictionary created for each subspace.

【0014】たとえば、予備選択辞書は、第1層の辞書
と第2層の辞書とを含み、第1層の辞書を用いて近似尤
度を計算した後、第2層の辞書を用いてさらに詳細に近
似尤度を計算することによって、近似尤度の計算量を削
減することが可能となる。
For example, the pre-selection dictionary includes a first-layer dictionary and a second-layer dictionary, calculates an approximate likelihood using the first-layer dictionary, and further uses the second-layer dictionary. By calculating the approximate likelihood in detail, the amount of calculation of the approximate likelihood can be reduced.

【0015】本発明のさらに別の局面に従えば、尤度計
算手段は、音声データを学習して得られた各分布の出力
確率分布が格納される詳細辞書と、入力ベクトルと予備
選択辞書に格納された内容とに基づいてHMMを構成す
る各分布の近似尤度を計算するための近似尤度計算手段
と、近似尤度計算手段によって計算された近似尤度に基
づいて、詳細尤度を計算する分布を選択するための分布
選択手段と、分布選択手段によって選択された分布の詳
細尤度を詳細辞書を用いて計算するための詳細尤度計算
手段とを含む。
According to still another aspect of the present invention, the likelihood calculating means includes a detailed dictionary in which the output probability distribution of each distribution obtained by learning the speech data is stored, an input vector and a preselection dictionary. An approximate likelihood calculating means for calculating an approximate likelihood of each distribution constituting the HMM based on the stored contents, and a detailed likelihood based on the approximate likelihood calculated by the approximate likelihood calculating means. A distribution selecting means for selecting a distribution to be calculated, and a detailed likelihood calculating means for calculating a detailed likelihood of the distribution selected by the distribution selecting means using a detailed dictionary.

【0016】詳細尤度計算手段は、分布選択手段によっ
て選択された分布の詳細尤度を詳細辞書を用いて計算す
るので、詳細尤度を計算する分布数を削減することがで
き、音声認識の処理速度を向上させることが可能とな
る。
Since the detailed likelihood calculating means calculates the detailed likelihood of the distribution selected by the distribution selecting means using the detailed dictionary, it is possible to reduce the number of distributions for calculating the detailed likelihood, and to reduce the likelihood of speech recognition. Processing speed can be improved.

【0017】本発明のさらに別の局面に従えば、予備選
択辞書は、詳細辞書に格納される各分布が特徴空間毎に
分類されて作成される。
According to still another aspect of the present invention, the preliminary selection dictionary is created by classifying each distribution stored in the detailed dictionary for each feature space.

【0018】予備選択辞書は、詳細辞書に格納される各
分布が特徴空間毎に分類されて作成されるので、詳細な
近似尤度を計算することができ、認識性能が高い音声認
識装置を提供することが可能となる。
Since the preselection dictionary is created by classifying each distribution stored in the detailed dictionary for each feature space, a detailed approximate likelihood can be calculated, and a speech recognition apparatus with high recognition performance is provided. It is possible to do.

【0019】本発明のさらに別の局面に従えば、予備選
択辞書は、詳細辞書に格納される各分布が部分空間毎に
分類された後に、音声データがどのクラスタに属するか
を分類し、各クラスタに属する音声データの特徴パラメ
ータの値から計算して作成される。
According to still another aspect of the present invention, the pre-selection dictionary classifies which cluster the audio data belongs to after each distribution stored in the detailed dictionary is classified for each subspace. It is created by calculating from the value of the feature parameter of the audio data belonging to the cluster.

【0020】予備選択辞書は、詳細辞書に格納される各
分布が部分空間毎に分類された後に、音声データがどの
クラスタに属するかを分類し、各クラスタに属する音声
データの特徴パラメータの値から計算して作成されるの
で、各分布の分類がさらに正確に行なわれるようにな
り、認識性能の高い音声認識装置を提供することが可能
となる。
The pre-selection dictionary classifies which cluster the audio data belongs to after each distribution stored in the detailed dictionary is classified for each subspace, and determines from the value of the characteristic parameter of the audio data belonging to each cluster. Since it is calculated and created, each distribution can be classified more accurately, and a speech recognition device with high recognition performance can be provided.

【0021】本発明のさらに別の局面に従えば、分布選
択手段は、近似尤度計算手段によって計算された近似尤
度の中から尤度の大きい近似尤度を有する分布を選択す
る。
According to still another aspect of the present invention, the distribution selecting means selects a distribution having a high likelihood from the approximate likelihoods calculated by the approximate likelihood calculating means.

【0022】分布選択手段は、近似尤度計算手段によっ
て計算された近似尤度の中から尤度の大きい近似尤度を
有する分布を選択するので、詳細尤度の計算が必要な分
布を正確に選択することが可能となる。
The distribution selecting means selects a distribution having an approximate likelihood having a large likelihood from the approximate likelihoods calculated by the approximate likelihood calculating means, so that a distribution requiring detailed likelihood calculation can be accurately determined. It becomes possible to select.

【0023】本発明のさらに別の局面に従えば、分布選
択手段は、部分空間の最大尤度と閾値とから基準尤度を
算出し、基準尤度より近似尤度が大きい分布を選択す
る。
According to yet another aspect of the present invention, the distribution selecting means calculates a reference likelihood from the maximum likelihood of the subspace and a threshold, and selects a distribution having a higher approximate likelihood than the reference likelihood.

【0024】分布選択手段は、部分空間の最大尤度と閾
値とから基準尤度を算出し、基準尤度より近似尤度が大
きい分布を選択するので、詳細尤度の計算が必要な分布
を正確に選択することが可能となる。
The distribution selecting means calculates a reference likelihood from the maximum likelihood of the subspace and a threshold value and selects a distribution having an approximate likelihood larger than the reference likelihood. It becomes possible to select accurately.

【0025】本発明のさらに別の局面に従えば、音声認
識方法は、入力ベクトルと部分空間毎に作成された予備
選択辞書の内容とに基づいてHMMを構成する各分布の
近似尤度を計算するステップと、近似尤度を用いて選択
された分布について入力ベクトルとの尤度を計算するス
テップと、計算された尤度に基づいて音声の認識を行う
ステップとを含む。
According to still another aspect of the present invention, a speech recognition method calculates an approximate likelihood of each distribution constituting an HMM based on an input vector and contents of a preselection dictionary created for each subspace. And calculating the likelihood of the distribution selected using the approximate likelihood with the input vector, and performing speech recognition based on the calculated likelihood.

【0026】近似尤度を用いて選択された分布について
のみ入力ベクトルとの尤度を計算するので、尤度計算の
計算量を削減することができ、音声認識の処理速度を向
上させることが可能となる。
Since the likelihood with the input vector is calculated only for the distribution selected using the approximate likelihood, the calculation amount of the likelihood calculation can be reduced, and the processing speed of speech recognition can be improved. Becomes

【0027】本発明のさらに別の局面に従えば、コンピ
ュータ読取可能な媒体に記録された音声認識プログラム
は、入力ベクトルと部分空間毎に作成された予備選択辞
書の内容とに基づいてHMMを構成する各分布の近似尤
度を計算するステップと、近似尤度を用いて選択された
分布について入力ベクトルとの尤度を計算するステップ
と、計算された尤度に基づいて音声の認識を行うステッ
プとを含む。
According to still another aspect of the present invention, a speech recognition program recorded on a computer-readable medium forms an HMM based on an input vector and contents of a preliminary selection dictionary created for each subspace. Calculating the approximate likelihood of each distribution to be calculated, calculating the likelihood of the distribution selected using the approximate likelihood with the input vector, and performing speech recognition based on the calculated likelihood. And

【0028】近似尤度を用いて選択された分布について
のみ入力ベクトルとの尤度を計算するので、尤度計算の
計算量を削減することができ、音声認識の処理速度を向
上させることが可能となる。
Since the likelihood with the input vector is calculated only for the distribution selected using the approximate likelihood, the calculation amount of the likelihood calculation can be reduced, and the processing speed of speech recognition can be improved. Becomes

【0029】[0029]

【発明の実施の形態】図1は、本発明の実施の形態にお
ける音声認識装置の機能構成を示すブロック図である。
この音声認識装置は、マイクによって集音されたアナロ
グの音声信号をディジタル信号に変換し、音声認識の対
象となる音声区間を切り出して出力する音声入力部1
と、音声入力部1から出力されたディジタルの音声信号
を分析し、音響パラメータ(入力ベクトル)を抽出して
出力する音響分析部2と、音響分析部2から出力された
音響パラメータに基づいてHMMの状態を構成する各分
布の尤度を計算する尤度計算部3と、尤度計算部3によ
る尤度計算の際に使用されるHMMを格納するHMM格
納部4と、単語辞書6と、尤度計算部3によって計算さ
れた尤度に基づいて単語辞書6を探索して認識結果を出
力する辞書探索部5と、辞書探索部5から出力された認
識結果を表示する表示部7とを含む。
FIG. 1 is a block diagram showing a functional configuration of a speech recognition apparatus according to an embodiment of the present invention.
This speech recognition device converts an analog speech signal collected by a microphone into a digital signal, cuts out a speech section to be subjected to speech recognition, and outputs the speech section.
An audio analysis unit 2 that analyzes a digital audio signal output from the audio input unit 1 to extract and output an audio parameter (input vector), and an HMM based on the audio parameter output from the audio analysis unit 2. A likelihood calculation unit 3 for calculating the likelihood of each distribution constituting the state of the above, an HMM storage unit 4 for storing an HMM used for likelihood calculation by the likelihood calculation unit 3, a word dictionary 6, A dictionary search unit 5 that searches the word dictionary 6 based on the likelihood calculated by the likelihood calculation unit 3 and outputs a recognition result, and a display unit 7 that displays the recognition result output from the dictionary search unit 5 Including.

【0030】入力部1は、ユーザによって音声が入力さ
れるマイク1aと、マイク1aを介して入力された音声
信号をアナログ信号からディジタル信号に変換するA/
D(Analog/Digital)コンバータ1bとを含む。
The input unit 1 includes a microphone 1a to which a voice is input by a user, and an A / A converter for converting a voice signal input through the microphone 1a from an analog signal to a digital signal.
D (Analog / Digital) converter 1b.

【0031】HMM格納部4は、大量の音声データから
学習したHMMの状態を構成する各分布を格納する詳細
辞書部4bと、詳細辞書4bに格納される音声データの
各分布を特徴空間毎にクラスタリングして作成したクラ
スタ代表分布を格納する予備選択辞書4aとを含む。H
MMの学習は、Baum-Welchアルゴリズムによって行われ
る。なお、この予備選択辞書4aおよび詳細辞書4bの
詳細については後述する。
The HMM storage unit 4 stores a detailed dictionary unit 4b for storing each distribution constituting the state of the HMM learned from a large amount of voice data, and stores each distribution of the voice data stored in the detailed dictionary 4b for each feature space. And a preliminary selection dictionary 4a for storing a cluster representative distribution created by clustering. H
Learning of the MM is performed by the Baum-Welch algorithm. The details of the preliminary selection dictionary 4a and the detailed dictionary 4b will be described later.

【0032】尤度計算部3は、音響分析部2によって抽
出された音響パラメータおよび予備選択辞書4aに格納
されるクラスタ代表分布とを比較して尤度を計算し、各
分布毎のインデックス情報を用いて各分布の近似尤度を
計算する近似尤度計算部3aと、近似尤度計算部3aに
よって計算された近似尤度の上位から所定数の分布、ま
たは予め定められた基準尤度より大きい近似尤度の分布
を選択する分布選択部3bと、分布選択部3bによって
選択された分布について詳細辞書4bを用いて尤度を再
計算する詳細尤度計算部3cとを含む。
The likelihood calculating unit 3 calculates the likelihood by comparing the acoustic parameters extracted by the acoustic analyzing unit 2 and the cluster representative distribution stored in the preliminary selection dictionary 4a, and calculates the index information for each distribution. An approximate likelihood calculation unit 3a that calculates the approximate likelihood of each distribution using the distribution, and a predetermined number of distributions from the top of the approximate likelihood calculated by the approximate likelihood calculation unit 3a, or larger than a predetermined reference likelihood. It includes a distribution selection unit 3b that selects a distribution of approximate likelihood, and a detailed likelihood calculation unit 3c that recalculates the likelihood of the distribution selected by the distribution selection unit 3b using the detailed dictionary 4b.

【0033】辞書探索部5は、尤度計算部3によって計
算された各分布の尤度および単語辞書6に登録された単
語に対してビタビアルゴリズムを用いてスコアを算出
し、この算出されたスコアが最大となる単語を認識結果
として出力する。
The dictionary search unit 5 calculates a score using the Viterbi algorithm for the likelihood of each distribution calculated by the likelihood calculation unit 3 and the words registered in the word dictionary 6, and calculates the calculated score. Is output as a recognition result.

【0034】なお、以上の説明においては、音声特徴ベ
クトル系列をHMMで表現した場合についてのものであ
ったが、HMMの代わりに、フレームベクトルの時系列
で表現した標準パターンを用いても良い。この標準パタ
ーンを用いて認識を行う場合には、音響パラメータとH
MMの状態を構成する各分布とを比較して尤度を計算す
る尤度計算部3に代えて、音響パラメータと標準パター
ンのフレームベクトルとの距離を計算して評価する構成
を採用すれば良い。また、辞書探索部5は、標準パター
ンのフレームベクトルの距離および単語辞書6に登録さ
れた単語に対してDP(Dynamic Programming)マッチ
ングを用いてスコアを算出し、この算出されたスコアが
最小となる単語を認識結果として出力する構成を採用す
れば良い。
In the above description, the speech feature vector series is represented by the HMM, but a standard pattern represented by a time series of frame vectors may be used instead of the HMM. When performing recognition using this standard pattern, acoustic parameters and H
Instead of the likelihood calculation unit 3 that calculates the likelihood by comparing each distribution constituting the state of the MM and calculates the likelihood, a configuration may be adopted in which the distance between the acoustic parameter and the frame vector of the standard pattern is calculated and evaluated. . The dictionary search unit 5 calculates a score using DP (Dynamic Programming) matching for the distance between the frame vectors of the standard pattern and the words registered in the word dictionary 6, and the calculated score is minimized. What is necessary is just to employ | adopt the structure which outputs a word as a recognition result.

【0035】図2は、本実施の形態における音声認識装
置の処理手順を説明するためのフローチャートである。
まず、ユーザがマイク1aを介して音声を入力すると、
このアナログの音声信号がA/Dコンバータ1bによっ
てディジタル信号に変換される(S11)。音響分析部
2は、線形予測分析等を用いて音声信号の特徴である音
響パラメータ(入力ベクトル)を抽出する(S12)。
なお、本実施の形態においては、この音響パラメータと
して、LPC(Linear Predictive Coding)ケプスト
ラム1次〜16次、LPCΔケプストラム1次〜16
次、パワーおよびΔパワーの4種類の特徴を用いるもの
とする。
FIG. 2 is a flowchart for explaining the processing procedure of the speech recognition apparatus according to the present embodiment.
First, when the user inputs voice through the microphone 1a,
This analog audio signal is converted into a digital signal by the A / D converter 1b (S11). The acoustic analysis unit 2 extracts an acoustic parameter (input vector) that is a feature of the audio signal using linear prediction analysis or the like (S12).
In the present embodiment, as the acoustic parameters, LPC (Linear Predictive Coding) cepstrum 1st to 16th order, LPCΔ cepstrum 1st to 16th order
Next, four types of characteristics, power and Δpower, are used.

【0036】次に、近似尤度計算部3aは、音響分析部
2によって抽出された音響パラメータと各特徴毎に作成
された予備選択辞書4aとを比較し、部分空間別尤度テ
ーブルを作成する。そして、インデックステーブル内の
分布番号と各特徴毎のクラスタへのインデックス情報を
用いて部分空間別尤度テーブルを参照し、各分布の近似
尤度を計算する(S13)。
Next, the approximate likelihood calculating section 3a compares the acoustic parameters extracted by the acoustic analyzing section 2 with the preliminary selection dictionary 4a created for each feature, and creates a subspace-based likelihood table. . Then, the approximate likelihood of each distribution is calculated by referring to the likelihood table for each subspace using the distribution number in the index table and the index information for the cluster for each feature (S13).

【0037】ここで、予備選択辞書4a、インデックス
テーブルおよび部分空間別尤度テーブルの作成方法につ
いて説明する。
Here, a method of creating the preliminary selection dictionary 4a, the index table, and the likelihood table for each subspace will be described.

【0038】図3は予備選択辞書4aの内容の一例を示
す図であり、図4はインデックステーブルおよび部分空
間別尤度テーブルの一例を示す図である。また、図5は
予備選択辞書4aの作成方法を説明するためのフローチ
ャートである。まず、詳細辞書4bに格納されたHMM
の状態を構成する各分布が、部分空間毎にM個のクラス
タに分類される(S21)。分布の各特徴をM個のクラ
スタに分類する方法として、たとえば、K−means
法を使うことができる。
FIG. 3 is a diagram showing an example of the contents of the preliminary selection dictionary 4a, and FIG. 4 is a diagram showing an example of the index table and the likelihood table for each subspace. FIG. 5 is a flowchart for explaining a method of creating the preliminary selection dictionary 4a. First, the HMM stored in the detailed dictionary 4b
Are classified into M clusters for each subspace (S21). As a method of classifying each feature of the distribution into M clusters, for example, K-means
You can use the law.

【0039】次に、このクラスタリングの結果から、各
分布とクラスタとの関係を表すインデックステーブルが
作成される(S22)。このインデックステーブルは、
各分布の各特徴がいずれのクラスタ(1〜M)に分類さ
れているかを示している。たとえば、図4において分布
番号“1”の分布のパワーがクラスタ番号“2”のクラ
スタに分類され、LPCケプストラムがクラスタ番号
“1”のクラスタに分類され、Δパワーがクラスタ番号
“1”のクラスタに分類され、LPCΔケプストラムが
クラスタ番号“2”のクラスタに分類されていることを
示している。
Next, an index table indicating the relationship between each distribution and the cluster is created from the result of the clustering (S22). This index table is
It shows which cluster (1 to M) each feature of each distribution is classified into. For example, in FIG. 4, the distribution power of the distribution number “1” is classified into the cluster with the cluster number “2”, the LPC cepstrum is classified into the cluster with the cluster number “1”, and the Δ power is the cluster with the cluster number “1”. This indicates that the LPCΔ cepstrum is classified into the cluster with the cluster number “2”.

【0040】次に、大量の音声データ(詳細辞書4bを
生成する際に使用された音声データ)と詳細辞書4b内
の各分布とを比較し、音声データがどのクラスタに属す
るかを再度分類する(S23)。すなわち、音声データ
を詳細辞書4bの内容を用いて認識を行いマッチング経
路をとることにより、入力ベクトルに対して最も尤度の
高い分布を求め、インデックステーブルを参照して各特
徴がどのクラスタに属するかを分類する。
Next, a large amount of voice data (voice data used for generating the detailed dictionary 4b) is compared with each distribution in the detailed dictionary 4b, and the cluster to which the voice data belongs is classified again. (S23). That is, by recognizing the audio data using the contents of the detailed dictionary 4b and taking a matching path, a distribution with the highest likelihood is obtained for the input vector, and each cluster belongs to any cluster with reference to the index table. Or classify.

【0041】そして、各クラスタに属している音声デー
タの音響パラメータの値から平均値および分散を計算し
てクラスタ代表分布を作成する(S24)。図3に示す
予備選択辞書は、この作成された各クラスタ代表分布が
特徴毎に格納されているところを示している。また、予
備選択辞書4aを簡易に作成するために、ステップS2
1において作成されたクラスタリングの結果から平均値
と分散とを計算してクラスタ代表分布としても良い。
Then, the average value and the variance are calculated from the values of the acoustic parameters of the audio data belonging to each cluster to create a cluster representative distribution (S24). The preliminary selection dictionary shown in FIG. 3 indicates that each created cluster representative distribution is stored for each feature. Also, in order to easily create the preliminary selection dictionary 4a, step S2
The average value and the variance may be calculated from the result of the clustering created in 1 and may be used as a cluster representative distribution.

【0042】なお、図3には部分空間別の予備選択辞書
が1層だけ作成される場合を示しているが、図6に示す
ような多層構造にしても良い。この場合、たとえば図4
に示す予備選択辞書4aを第2層と考え、部分空間毎に
第2層のM2個のクラスタ代表分布をクラスタリングし
てM1個のクラスタ代表分布が作成され、第1層と第2
層との対応がインデックステーブルに格納される。予備
選択辞書をこのような構成にすることにより、認識対象
の音響パラメータに基づいて第1層の各クラスタ代表分
布との尤度を計算して尤度が高いクラスタを選択し、こ
のクラスタが指し示す第2層の各クラスタ代表分布との
尤度を再計算するとともに、選択されなかったクラスタ
が指し示す第2層のクラスタについては第1層のクラス
タ代表分布の尤度を近似尤度として使用することによ
り、尤度計算の計算量を削減することができる。
Although FIG. 3 shows a case where only one layer of the preliminary selection dictionary for each subspace is created, a multi-layer structure as shown in FIG. 6 may be used. In this case, for example, FIG.
Is assumed to be the second layer, and M2 cluster representative distributions of the second layer are clustered for each subspace to create M1 cluster representative distributions.
The correspondence with the layer is stored in the index table. With the pre-selection dictionary having such a configuration, the likelihood with each cluster representative distribution of the first layer is calculated based on the acoustic parameters of the recognition target, and a cluster having a high likelihood is selected, and this cluster indicates. Recalculate the likelihood with each cluster representative distribution of the second layer, and use the likelihood of the cluster representative distribution of the first layer as the approximate likelihood for the cluster of the second layer indicated by the unselected cluster. Thereby, the calculation amount of likelihood calculation can be reduced.

【0043】次に、図4に示す部分空間別尤度テーブル
の算出および詳細尤度を算出する必要がある分布の抽出
について、図7(a)および図7(b)を参照しながら
説明する。図7(a)に示すように、まず、近似尤度計
算部3aは、部分空間毎に認識対象の音響パラメータと
予備選択辞書4aに格納されるクラスタ代表の分布とを
比較して尤度を計算し、図4に示すように部分空間別尤
度テーブルを作成する(S31)。
Next, the calculation of the likelihood table for each subspace shown in FIG. 4 and the extraction of the distribution for which the detailed likelihood needs to be calculated will be described with reference to FIGS. 7 (a) and 7 (b). . As shown in FIG. 7A, first, the approximate likelihood calculating unit 3a compares the acoustic parameter to be recognized with the distribution of cluster representatives stored in the preliminary selection dictionary 4a for each subspace to determine the likelihood. The calculation is performed, and a likelihood table for each subspace is created as shown in FIG. 4 (S31).

【0044】次に、近似尤度計算部3aは、インデック
ステーブルの分布番号順にインデックスを参照して部分
空間別尤度テーブル内の各特徴の尤度を抽出し、それら
を加算することによって近似尤度を算出する(S3
2)。図4に示すように、部分空間別尤度テーブルの内
容は対数によって表されているので、加算のみによって
近似尤度を算出することができる。
Next, the approximate likelihood calculating section 3a extracts the likelihood of each feature in the likelihood table for each subspace by referring to the index in the order of distribution number of the index table, and adds them to calculate the approximate likelihood. Calculate the degree (S3
2). As shown in FIG. 4, since the content of the likelihood table for each subspace is represented by a logarithm, the approximate likelihood can be calculated only by addition.

【0045】次に、分布選択部3bは、近似尤度算出部
3aによって算出された各分布の近似尤度をソーティン
グし、近似尤度の大きい上位T個の分布を抽出する(S
33)。そして、詳細尤度計算部3cは、分布選択部3
bによって抽出された上位T個の分布に対応する出力確
率分布を詳細辞書4bから抽出し、認識対象の音響パラ
メータと上位T個の分布に対応する出力確率分布とを比
較して詳細尤度を計算する(S34)。
Next, the distribution selecting section 3b sorts the approximate likelihood of each distribution calculated by the approximate likelihood calculating section 3a, and extracts the top T distributions having a large approximate likelihood (S
33). Then, the detailed likelihood calculation unit 3c includes the distribution selection unit 3
b, an output probability distribution corresponding to the top T distributions extracted from the detailed dictionary 4b, and comparing the acoustic parameter to be recognized with the output probability distribution corresponding to the top T distributions to obtain a detailed likelihood. The calculation is performed (S34).

【0046】また、別の方法として図7(b)に示すよ
うに、まず、近似尤度計算部3aは、部分空間毎に認識
対象の音響パラメータと予備選択辞書4aに格納される
クラスタ代表の分布とを比較して尤度を計算し、図4に
示すように部分空間別尤度テーブルを作成する(S4
1)。
As another method, as shown in FIG. 7 (b), first, the approximate likelihood calculating unit 3a calculates the acoustic parameters to be recognized and the cluster representative stored in the preliminary selection dictionary 4a for each subspace. The likelihood is calculated by comparing with the distribution, and a likelihood table for each subspace is created as shown in FIG. 4 (S4).
1).

【0047】次に、近似尤度計算部3aは、インデック
ステーブルの分布番号順にインデックスを参照して部分
空間別尤度テーブル内の各特徴の尤度を抽出し、それら
を加算することによって近似尤度を算出する(S4
2)。
Next, the approximate likelihood calculation unit 3a extracts the likelihood of each feature in the likelihood table for each subspace by referring to the index in the order of distribution number of the index table, and adds them to calculate the approximate likelihood. Calculate the degree (S4
2).

【0048】次に、分布選択部3bは、各部分空間の最
大尤度を算出し、この各部分空間の最大尤度と予め定め
られた閾値とから基準尤度(基準尤度<最大尤度)を算
出する。そして、分布選択部3bは、基準尤度よりも近
似尤度が大きい分布を選択する(S43)。そして、詳
細尤度計算部3cは、分布選択部3bによって選択され
た分布に対応する出力確率分布を詳細辞書4bから抽出
し、認識対象の音響パラメータと抽出された分布に対応
する出力確率分布とを比較して詳細尤度を計算する(S
44)。
Next, the distribution selection unit 3b calculates the maximum likelihood of each subspace, and calculates a reference likelihood (reference likelihood <maximum likelihood) from the maximum likelihood of each subspace and a predetermined threshold value. ) Is calculated. Then, the distribution selection unit 3b selects a distribution having an approximate likelihood larger than the reference likelihood (S43). Then, the detailed likelihood calculating unit 3c extracts an output probability distribution corresponding to the distribution selected by the distribution selecting unit 3b from the detailed dictionary 4b, and outputs an acoustic parameter to be recognized and an output probability distribution corresponding to the extracted distribution. To calculate the detailed likelihood (S
44).

【0049】再び、図2に示すフローチャートの説明に
戻る。上述したように、予備選択辞書4aおよび詳細辞
書4bを参照しながら分布の選択を行い(S14)、選
択された分布の詳細尤度を算出する(S15)。
Returning to the description of the flowchart shown in FIG. As described above, the distribution is selected with reference to the preliminary selection dictionary 4a and the detailed dictionary 4b (S14), and the detailed likelihood of the selected distribution is calculated (S15).

【0050】次に、辞書探索部5は、ステップS15に
おいて算出された各分布の尤度と、単語辞書6に登録さ
れた単語毎のモデルとに対してビタビアルゴリズムを用
いてスコアを算出し(S16)、スコアが最大となる単
語を認識結果として表示部7に表示する(S17)。
Next, the dictionary search unit 5 calculates a score using the Viterbi algorithm for the likelihood of each distribution calculated in step S15 and the model for each word registered in the word dictionary 6 ( S16) The word having the largest score is displayed on the display unit 7 as a recognition result (S17).

【0051】たとえば、分布数Nを1500、各部分空
間のクラスタ数Mを50、詳細尤度を算出する分布数T
を100とすると、50(クラスタ数M)+100(分
布T)=150の分布についての尤度計算と、各分布の
近似尤度の計算と、上位100個の分布の選択とが必要
になる。この中で、各分布の近似尤度の計算と、上位1
00個の分布の選択とに要する時間は、尤度計算と比較
して短いものである。したがって、従来のHMMを用い
た音声認識においては分布数N=1500に対応する尤
度計算が必要であるのに対し、本実施の形態における音
声認識装置においては150の分布についての尤度計算
が必要であり、従来と比べて約1/10の計算量で尤度
計算が行えることになる。
For example, the number of distributions N is 1500, the number of clusters M in each subspace is 50, and the number of distributions T for calculating detailed likelihood is T
Is 100, the likelihood calculation for a distribution of 50 (number of clusters M) +100 (distribution T) = 150, calculation of the approximate likelihood of each distribution, and selection of the top 100 distributions are required. Among them, the calculation of the approximate likelihood of each distribution and the top one
The time required to select the 00 distributions is short compared to the likelihood calculation. Therefore, in speech recognition using the conventional HMM, likelihood calculation corresponding to the number of distributions N = 1500 is required, whereas in the speech recognition apparatus according to the present embodiment, likelihood calculation for 150 distributions is not possible. This is necessary, and the likelihood calculation can be performed with a calculation amount of about 1/10 as compared with the related art.

【0052】また、全特徴空間でクラスタリングして作
成した予備選択辞書を用いて尤度計算を行う場合、その
尤度計算に要する計算量は本実施の形態における予備選
択辞書を用いた場合の計算量と同じである。しかし、全
特徴空間でクラスタリングして作成した予備選択辞書を
用いた場合にはM通りの近似尤度しか表現できないのに
対し、本実施の形態の予備選択辞書においては、各特徴
空間毎にクラスタリングされるので、M×M×M×M通
りの近似尤度を表現できる。したがって、より詳細な近
似尤度を算出することができ、音声の認識性能が高くな
る。
When the likelihood calculation is performed using the pre-selection dictionary created by clustering in all the feature spaces, the amount of calculation required for the likelihood calculation is calculated by using the pre-selection dictionary in the present embodiment. Same as quantity. However, when a pre-selection dictionary created by clustering in all feature spaces is used, only M possible approximate likelihoods can be expressed, whereas in the pre-selection dictionary of the present embodiment, clustering is performed for each feature space. Therefore, M × M × M × M approximate likelihoods can be expressed. Therefore, more detailed approximate likelihood can be calculated, and the speech recognition performance is improved.

【0053】なお、本実施の形態における音声認識装置
においては、特徴空間としてパワー、Δパワー、LPC
ケプストラムおよびLPCΔケプストラムの4つが用い
られたが、他の特徴空間が用いられても良い。また、各
特徴空間において、各部分空間のクラスタ数を同一とし
て説明したが、特徴空間毎に異なる部分空間のクラスタ
数を設定しても良い。
In the speech recognition apparatus according to the present embodiment, power, Δpower, LPC
Although four are used, the cepstrum and the LPCΔ cepstrum, other feature spaces may be used. Further, in each feature space, the number of clusters in each subspace has been described as being the same, but the number of clusters in different subspaces may be set for each feature space.

【0054】図8は、本発明の音声認識装置の外観例を
示す図である。この音声認識装置は、音声入力部1、コ
ンピュータ本体11、グラフィックディスプレイ装置1
2、磁気テープ14が装着される磁気テープ装置13、
キーボード15、マウス16、CD−ROM(Compact
Disc-Read Only Memory)18が装着されるCD−R
OM装置17および通信モデム19を含む。音声認識プ
ログラムは、磁気テープ14またはCD―ROM18等
の記録媒体によって供給される。音声認識プログラムは
コンピュータ本体11によって実行され、操作者はグラ
フィックディスプレイ装置12を見ながらキーボード1
5またはマウス16を操作することによって音声認識の
指示等を行う。また、音声認識プログラムは他のコンピ
ュータより通信回線を経由し、通信モデム19を介して
コンピュータ本体11に供給されてもよい。
FIG. 8 is a diagram showing an example of the appearance of the speech recognition apparatus of the present invention. This voice recognition device includes a voice input unit 1, a computer main body 11, a graphic display device 1,
2, a magnetic tape device 13 on which a magnetic tape 14 is mounted;
Keyboard 15, mouse 16, CD-ROM (Compact
Disc-Read Only Memory (CD-R) 18
It includes an OM device 17 and a communication modem 19. The voice recognition program is supplied by a recording medium such as the magnetic tape 14 or the CD-ROM 18. The voice recognition program is executed by the computer main body 11, and an operator looks at the graphic display device 12 while watching the keyboard 1.
By operating the mouse 5 or the mouse 16, an instruction for voice recognition or the like is given. Further, the voice recognition program may be supplied to the computer main body 11 from another computer via a communication line and a communication modem 19.

【0055】図9は、本発明の音声認識装置の構成例を
示すブロック図である。図8に示すコンピュータ本体1
1は、CPU(Central Processing Unit)20、R
OM(Read Only Memory)21、RAM(Random Acc
ess Memory)22およびハードディスク23を含む。
CPU20は、グラフィックディスプレイ装置12、磁
気テープ装置13、キーボード15、マウス16、CD
−ROM装置17、通信モデム19、ROM21、RA
M22またはハードディスク23との間でデータを入出
力しながら処理を行う。磁気テープ14またはCD−R
OM18に記録された音声認識プログラムは、CPU2
0により磁気テープ装置13またはCD−ROM装置1
7を介して一旦ハードディスク23に格納される。CP
U20は、ハードディスク23から適宜音声認識プログ
ラムをRAM22にロードして実行することによって音
声認識を行う。
FIG. 9 is a block diagram showing a configuration example of the speech recognition apparatus of the present invention. Computer body 1 shown in FIG.
1 is a CPU (Central Processing Unit) 20, R
OM (Read Only Memory) 21, RAM (Random Acc
ess Memory) 22 and a hard disk 23.
The CPU 20 includes a graphic display device 12, a magnetic tape device 13, a keyboard 15, a mouse 16, and a CD.
ROM device 17, communication modem 19, ROM 21, RA
The processing is performed while inputting / outputting data to / from the M22 or the hard disk 23. Magnetic tape 14 or CD-R
The voice recognition program recorded in the OM 18 is
0, the magnetic tape device 13 or the CD-ROM device 1
7 is temporarily stored in the hard disk 23. CP
The U20 performs voice recognition by appropriately loading a voice recognition program from the hard disk 23 into the RAM 22 and executing the program.

【0056】以上説明したように、本実施の形態におけ
る音声認識装置によれば、部分空間毎に作成された予備
選択辞書4aを用いて各分布の近似的な尤度を算出し、
出力確率を厳密に計算する必要がある分布を抽出し、抽
出された分布のみ出力確率を計算するようにしたので、
認識に要する時間を短縮することが可能となった。ま
た、各特徴空間毎にクラスタリングして予備選択辞書4
aを作成するようにしたので、近似尤度計算部3aは詳
細な近似尤度を算出することができ、認識性能を高くす
ることが可能となった。
As described above, according to the speech recognition apparatus of the present embodiment, the approximate likelihood of each distribution is calculated using the preliminary selection dictionary 4a created for each subspace.
Since the distributions for which the output probabilities need to be calculated exactly are extracted and the output probabilities are calculated only for the extracted distributions,
It has become possible to reduce the time required for recognition. In addition, clustering is performed for each feature space, and a preliminary selection dictionary 4 is created.
Since a is created, the approximate likelihood calculating unit 3a can calculate a detailed approximate likelihood, and can improve recognition performance.

【0057】今回開示された実施の形態は、すべての点
で例示であって制限的なものではないと考えられるべき
である。本発明の範囲は上記した説明ではなくて特許請
求の範囲によって示され、特許請求の範囲と均等の意味
および範囲内でのすべての変更が含まれることが意図さ
れる。
The embodiments disclosed this time are to be considered in all respects as illustrative and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本発明の実施の形態における音声認識装置の
機能構成の概略を説明するための図である。
FIG. 1 is a diagram illustrating an outline of a functional configuration of a speech recognition device according to an embodiment of the present invention.

【図2】 本発明の実施の形態における音声認識装置の
処理手順を説明するためのフローチャートである。
FIG. 2 is a flowchart illustrating a processing procedure of the voice recognition device according to the embodiment of the present invention.

【図3】 予備選択辞書4aの一例を示す図である。FIG. 3 is a diagram illustrating an example of a preliminary selection dictionary 4a.

【図4】 インデックステーブルおよび部分空間別尤度
テーブルの一例を示す図である。
FIG. 4 is a diagram illustrating an example of an index table and a likelihood table for each subspace.

【図5】 部分空間毎の予備選択辞書4aおよびインデ
ックステーブルの作成を説明するためのフローチャート
である。
FIG. 5 is a flowchart for explaining creation of a preliminary selection dictionary 4a and an index table for each subspace.

【図6】 予備選択辞書4aを多層構造にした場合を示
す図である。
FIG. 6 is a diagram showing a case where the preliminary selection dictionary 4a has a multilayer structure.

【図7】 部分空間別尤度テーブルの作成および詳細尤
度の計算を説明するためのフローチャートである。
FIG. 7 is a flowchart for explaining creation of a likelihood table for each subspace and calculation of detailed likelihood.

【図8】 本発明の実施の形態における音声認識装置の
外観例を示す図である。
FIG. 8 is a diagram illustrating an example of an appearance of a speech recognition device according to an embodiment of the present invention.

【図9】 本発明の実施の形態における音声認識装置の
概略構成を示す図である。
FIG. 9 is a diagram illustrating a schematic configuration of a speech recognition device according to an embodiment of the present invention.

【符号の説明】[Explanation of symbols]

1 音声入力部、1a マイク、1b A/Dコンバー
タ、2 音響分析部、3 尤度計算部、3a 近似尤度
計算部、3b 分布選択部、3c 詳細尤度計算部、4
HMM格納部、4a 予備選択辞書、4b 詳細辞
書、5 辞書探索部、6 単語辞書、7 表示部、11
コンピュータ本体、12 グラフィックディスプレイ
装置、13 磁気テープ装置、14 磁気テープ、15
キーボード、16 マウス、17 CD−ROM装
置、18 CD−ROM、19 通信モデム、20 C
PU、21 ROM、22 RAM、23 ハードディ
スク。
Reference Signs List 1 voice input unit, 1a microphone, 1b A / D converter, 2 acoustic analysis unit, 3 likelihood calculation unit, 3a approximate likelihood calculation unit, 3b distribution selection unit, 3c detailed likelihood calculation unit, 4
HMM storage unit, 4a preliminary selection dictionary, 4b detailed dictionary, 5 dictionary search unit, 6 word dictionary, 7 display unit, 11
Computer body, 12 Graphic display device, 13 Magnetic tape device, 14 Magnetic tape, 15
Keyboard, 16 mouse, 17 CD-ROM device, 18 CD-ROM, 19 communication modem, 20 C
PU, 21 ROM, 22 RAM, 23 hard disk.

Claims (11)

【特許請求の範囲】[Claims] 【請求項1】 部分空間毎に作成された予備選択辞書
と、 入力ベクトルと前記予備選択辞書に格納された内容とに
基づいてHMMの状態を構成する各分布の近似尤度を計
算し、前記近似尤度を用いて選択された分布について前
記入力ベクトルとの尤度を計算するための尤度計算手段
と、 前記尤度計算手段によって計算された尤度に基づいて音
声の認識を行う認識手段とを含む音声認識装置。
An approximate likelihood of each distribution constituting a state of an HMM is calculated based on a preselection dictionary created for each subspace, an input vector and contents stored in the preselection dictionary, Likelihood calculating means for calculating the likelihood of the distribution selected using the approximate likelihood with the input vector; and recognition means for recognizing speech based on the likelihood calculated by the likelihood calculating means. And a voice recognition device.
【請求項2】 前記予備選択辞書は、特徴空間毎に作成
される、請求項1記載の音声認識装置。
2. The speech recognition device according to claim 1, wherein the preliminary selection dictionary is created for each feature space.
【請求項3】 前記予備選択辞書は、部分空間毎に作成
されたクラスタ代表分布を正規分布で表現し、平均値お
よび分散が格納される、請求項1または2記載の音声認
識装置。
3. The speech recognition apparatus according to claim 1, wherein the preliminary selection dictionary expresses a cluster representative distribution created for each subspace as a normal distribution, and stores an average value and a variance.
【請求項4】 前記予備選択辞書は、部分空間毎に作成
された多層の辞書を含む、請求項1〜3のいずれかに記
載の音声認識装置。
4. The speech recognition device according to claim 1, wherein said preliminary selection dictionary includes a multi-layer dictionary created for each subspace.
【請求項5】 前記尤度計算手段は、音声データを学習
して得られた各分布の出力確率分布が格納される詳細辞
書と、 前記入力ベクトルと前記予備選択辞書に格納された内容
とに基づいてHMMの状態を構成する各分布の近似尤度
を計算するための近似尤度計算手段と、 前記近似尤度計算手段によって計算された近似尤度に基
づいて、詳細尤度を計算する分布を選択するための分布
選択手段と、 前記分布選択手段によって選択された分布の詳細尤度を
前記詳細辞書を用いて計算するための詳細尤度計算手段
とを含む、請求項1〜4のいずれかに記載の音声認識装
置。
5. The likelihood calculating means includes: a detailed dictionary in which an output probability distribution of each distribution obtained by learning speech data is stored; and the input vector and contents stored in the preliminary selection dictionary. Approximate likelihood calculating means for calculating the approximate likelihood of each distribution constituting the state of the HMM based on the approximate likelihood calculated by the approximate likelihood calculating means. 5. A distribution selecting unit for selecting a distribution, and a detailed likelihood calculating unit for calculating a detailed likelihood of the distribution selected by the distribution selecting unit by using the detailed dictionary. A voice recognition device according to any one of the claims.
【請求項6】 前記予備選択辞書は、前記詳細辞書に格
納される各分布が特徴空間毎に分類されて作成される、
請求項5記載の音声認識装置。
6. The preliminary selection dictionary is created by classifying each distribution stored in the detailed dictionary for each feature space.
The speech recognition device according to claim 5.
【請求項7】 前記予備選択辞書は、前記詳細辞書に格
納される各分布が部分空間毎に分類された後、前記音声
データがどのクラスタに属するかを分類し、各クラスタ
に属する音声データの特徴パラメータの値から計算して
作成される、請求項5または6記載の音声認識装置。
7. The pre-selection dictionary, after each distribution stored in the detailed dictionary is classified for each subspace, classifies which cluster the audio data belongs to, The speech recognition device according to claim 5, wherein the speech recognition device is created by calculating from a value of a feature parameter.
【請求項8】 前記分布選択手段は、前記近似尤度計算
手段によって計算された近似尤度の中から尤度の大きい
近似尤度を有する分布を選択する、請求項5〜7のいず
れかに記載の音声認識装置。
8. The distribution selecting unit according to claim 5, wherein the distribution selecting unit selects a distribution having an approximate likelihood having a large likelihood from the approximate likelihoods calculated by the approximate likelihood calculating unit. The speech recognition device according to the above.
【請求項9】 前記分布選択手段は、前記部分空間の最
大尤度と閾値とから基準尤度を算出し、該基準尤度より
近似尤度が大きい分布を選択する、請求項5〜7のいず
れかに記載の音声認識装置。
9. The method according to claim 5, wherein the distribution selecting means calculates a reference likelihood from the maximum likelihood of the subspace and a threshold, and selects a distribution having an approximate likelihood larger than the reference likelihood. The speech recognition device according to any one of the above.
【請求項10】 入力ベクトルと部分空間毎に作成され
た予備選択辞書の内容とに基づいてHMMの状態を構成
する各分布の近似尤度を計算するステップと、 前記近似尤度を用いて選択された分布について前記入力
ベクトルとの尤度を計算するステップと、 前記計算された尤度に基づいて音声の認識を行うステッ
プとを含む音声認識方法。
10. calculating the approximate likelihood of each distribution constituting the state of the HMM based on the input vector and the contents of the preliminary selection dictionary created for each subspace; and selecting the approximate likelihood using the approximate likelihood. A speech recognition method comprising: calculating a likelihood of the obtained distribution with the input vector; and performing speech recognition based on the calculated likelihood.
【請求項11】 入力ベクトルと部分空間毎に作成され
た予備選択辞書の内容とに基づいてHMMの状態を構成
する各分布の近似尤度を計算するステップと、 前記近似尤度を用いて選択された分布について前記入力
ベクトルとの尤度を計算するステップと、 前記計算された尤度に基づいて音声の認識を行うステッ
プとを含む音声認識プログラムを記録したコンピュータ
で読み取り可能な記録媒体。
11. A step of calculating an approximate likelihood of each distribution constituting the state of the HMM based on an input vector and contents of a preselection dictionary created for each subspace, and selecting the approximate likelihood using the approximate likelihood. A computer-readable recording medium recording a speech recognition program, comprising: calculating a likelihood of the obtained distribution with the input vector; and performing speech recognition based on the calculated likelihood.
JP30818099A 1999-10-29 1999-10-29 Speech recognition device, speech recognition method, and medium recording speech recognition program Expired - Fee Related JP3534665B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP30818099A JP3534665B2 (en) 1999-10-29 1999-10-29 Speech recognition device, speech recognition method, and medium recording speech recognition program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP30818099A JP3534665B2 (en) 1999-10-29 1999-10-29 Speech recognition device, speech recognition method, and medium recording speech recognition program

Publications (2)

Publication Number Publication Date
JP2001125593A true JP2001125593A (en) 2001-05-11
JP3534665B2 JP3534665B2 (en) 2004-06-07

Family

ID=17977883

Family Applications (1)

Application Number Title Priority Date Filing Date
JP30818099A Expired - Fee Related JP3534665B2 (en) 1999-10-29 1999-10-29 Speech recognition device, speech recognition method, and medium recording speech recognition program

Country Status (1)

Country Link
JP (1) JP3534665B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003005780A (en) * 2001-06-22 2003-01-08 Sony Corp Method and device for voice recognition, program, and recording medium
WO2016181474A1 (en) * 2015-05-11 2016-11-17 株式会社東芝 Pattern recognition device, pattern recognition method and program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003005780A (en) * 2001-06-22 2003-01-08 Sony Corp Method and device for voice recognition, program, and recording medium
JP4678464B2 (en) * 2001-06-22 2011-04-27 ソニー株式会社 Voice recognition apparatus, voice recognition method, program, and recording medium
WO2016181474A1 (en) * 2015-05-11 2016-11-17 株式会社東芝 Pattern recognition device, pattern recognition method and program
US10366312B2 (en) 2015-05-11 2019-07-30 Kabushiki Kaisha Toshiba Pattern recognition device, pattern recognition method, and computer program product

Also Published As

Publication number Publication date
JP3534665B2 (en) 2004-06-07

Similar Documents

Publication Publication Date Title
CN106782560B (en) Method and device for determining target recognition text
US5956679A (en) Speech processing apparatus and method using a noise-adaptive PMC model
JP3948747B2 (en) Pattern recognition method and system based on tree configuration probability density
CN1112669C (en) Method and system for speech recognition using continuous density hidden Markov models
US8019602B2 (en) Automatic speech recognition learning using user corrections
CA2507999C (en) Sensor based speech recognizer selection, adaptation and combination
JP2008134475A (en) Technique for recognizing accent of input voice
JPH1097276A (en) Method and device for speech recognition, and storage medium
US11056100B2 (en) Acoustic information based language modeling system and method
JP2005010691A (en) Apparatus and method for speech recognition, apparatus and method for conversation control, and program therefor
CN106847259B (en) Method for screening and optimizing audio keyword template
US20210049996A1 (en) Voice recognition method using artificial intelligence and apparatus thereof
Itoh et al. N-best entropy based data selection for acoustic modeling
US20220076683A1 (en) Data mining apparatus, method and system for speech recognition using the same
JP4769098B2 (en) Speech recognition reliability estimation apparatus, method thereof, and program
JP3176210B2 (en) Voice recognition method and voice recognition device
JP2938866B1 (en) Statistical language model generation device and speech recognition device
JP2001125593A (en) Speech recognition method and device, and medium recorded with speech recognition program
JP2002091484A (en) Language model generator and voice recognition device using the generator, language model generating method and voice recognition method using the method, computer readable recording medium which records language model generating program and computer readable recording medium which records voice recognition program
JP2006107353A (en) Information processor, information processing method, recording medium and program
JP4674609B2 (en) Information processing apparatus and method, program, and recording medium
Wazir et al. Deep learning-based detection of inappropriate speech content for film censorship
Gutkin et al. Structural representation of speech for phonetic classification
JPS61179499A (en) Keyword recognition and system used in template chain model
EP1369847A1 (en) Speech recognition method and system

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040302

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040309

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080319

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090319

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100319

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees