JPH04281497A - Voice recognition method under noisy environment - Google Patents
Voice recognition method under noisy environmentInfo
- Publication number
- JPH04281497A JPH04281497A JP3069218A JP6921891A JPH04281497A JP H04281497 A JPH04281497 A JP H04281497A JP 3069218 A JP3069218 A JP 3069218A JP 6921891 A JP6921891 A JP 6921891A JP H04281497 A JPH04281497 A JP H04281497A
- Authority
- JP
- Japan
- Prior art keywords
- noise
- variation
- noise power
- speech
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 43
- 239000013598 vector Substances 0.000 claims abstract description 44
- 230000008859 change Effects 0.000 claims description 19
- 230000003595 spectral effect Effects 0.000 claims description 3
- 230000001131 transforming effect Effects 0.000 claims description 2
- 238000001228 spectrum Methods 0.000 abstract description 7
- 230000008569 process Effects 0.000 abstract description 4
- 230000009467 reduction Effects 0.000 abstract description 2
- 238000012545 processing Methods 0.000 description 15
- 238000010586 diagram Methods 0.000 description 10
- 238000007781 pre-processing Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 4
- 230000009466 transformation Effects 0.000 description 4
- 238000000605 extraction Methods 0.000 description 3
- 238000010183 spectrum analysis Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 230000007812 deficiency Effects 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 230000015556 catabolic process Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 238000011410 subtraction method Methods 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
Abstract
Description
【0001】0001
【産業上の利用分野】本発明は、雑音下で利用され、パ
タンマッチングを主体とした認識系を持つ音声認識置の
音声認識方法に関し、特に背景雑音の微小変動を考慮し
た識別を行う雑音下音声認識方法に関する。[Industrial Application Field] The present invention relates to a speech recognition method for a speech recognition device that is used under noise and has a recognition system based on pattern matching, and in particular, the present invention relates to a speech recognition method that is used under noise and has a recognition system based on pattern matching. Concerning speech recognition methods.
【0002】0002
【従来の技術】雑音の混入した音声は、雑音のない環境
で発音された音声とは、そこから抽出されるスペクトル
等の特徴パラメータを異にする。そのため、雑音下音声
の認識を行う際には、何らかの雑音除去処理を行うか、
あるいはパラメータの変形を考慮した識別を行う必要が
ある。例えば、スペクトルサブトラクション法(以下、
SS法と略す)を用いて音声認識を行う場合、図2のよ
うに、まず、スペクトル分析等の前処理を行う(201
)。この場合、音声に混入した雑音成分を除去するため
、音声のない雑音のみの区間から雑音のスペクトルを推
定し、雑音の混入した音声から得られるスペクトルから
差し引く。この後、入力された音声の特徴量を求め(2
02)、予め設定・登録してある標準パタンとの間でマ
ッチング処理を行い(203)、それらの距離値が所定
のしきい値以内か否かによって入力音声を識別する(2
04)。また、雑音の重畳による特徴パラメータの変化
に認識系が対応する手法の一つとして、音声認識装置を
用いる場所での背景雑音下で発声された音声を用いて標
準パタンを作成する方法も一般に知られている。例えば
、マルチテンプレート法では、信号対雑音比(SN比)
を数段設定し、設定したレベルで音声に雑音を重畳し、
それらの雑音重畳信号から複数の標準パタンを作成し、
入力音声から抽出される特徴ベクトルを入力音声のSN
比に近い何れかのテンプレートにマッチングさせること
により雑音下の音声を識別している。なお、従来の音声
認識方法については、例えば「電子情報通信ハンドブッ
ク,電子情報通信学会編(1989年),pp.119
1〜1207」に記載されている。2. Description of the Related Art Speech mixed with noise differs from speech produced in a noise-free environment in characteristic parameters such as spectra extracted therefrom. Therefore, when recognizing speech in noise, it is necessary to perform some kind of noise removal processing.
Alternatively, it is necessary to perform identification in consideration of parameter deformation. For example, the spectral subtraction method (hereinafter referred to as
When performing speech recognition using the SS method (abbreviated as SS method), as shown in Figure 2, preprocessing such as spectrum analysis is first performed (201
). In this case, in order to remove the noise component mixed into the speech, the noise spectrum is estimated from the section of only noise without speech, and subtracted from the spectrum obtained from the speech mixed with noise. After this, the features of the input voice are calculated (2
02), performs matching processing with standard patterns that have been set and registered in advance (203), and identifies input audio based on whether or not the distance values are within a predetermined threshold (2).
04). Additionally, as a method for the recognition system to respond to changes in feature parameters due to superimposition of noise, it is generally known that a standard pattern is created using speech uttered under background noise at the location where the speech recognition device is used. It is being For example, in the multi-template method, the signal-to-noise ratio (SN ratio)
Set several levels and superimpose noise on the audio at the set level,
Create multiple standard patterns from those noisy signals,
The feature vector extracted from the input voice is set to the SN of the input voice.
Speech under noise is identified by matching a template that is close to the ratio. For conventional speech recognition methods, see, for example, "Handbook of Electronics, Information and Communication Engineers, edited by the Institute of Electronics, Information and Communication Engineers (1989), pp. 119.
1 to 1207".
【0003】0003
【発明が解決しようとする課題】上記従来技術では、S
S法を用いた場合、(音声+雑音)スペクトルと雑音ス
ペクトルの差分を算出するプロセスで、雑音の推定誤差
により雑音成分を完全に取り除くことができなかったり
、逆に過度の減算を行ったりする恐れがあり、音声認識
に悪影響を及ぼすという問題がある。また、マルチテン
プレート法では、テンプレート数の増加に伴って問題が
生じる。すなわち、認識時には、入力音声から得られる
特徴ベクトルを標準パタンと比較するプロセスを必要と
するが、複数のSN比を設定することにより識別カテゴ
リ当たりの標準パタンが多数存在するため、処理に時間
を要する。また、入力音声のSN比と同一のテンプレー
トを持たない場合には、それに近いテンプレートで識別
されるため、その音声は別の識別カテゴリに誤認識され
る恐れがある。さらに、適当なテンプレートを再設定す
ると、処理時間は大幅に増大してしまう。これらの問題
は、背景雑音の時間的変化により生じる雑音パワーの推
定誤差に起因する。本発明の目的は、このような問題点
を改善し、パタンマッチングを主体として音声認識を行
う場合、背景雑音の微小変動を考慮した識別を行うこと
により、雑音パワーの変動に起因する識別率の低下を軽
減することが可能な雑音下音声認識方法を提供すること
にある。[Problem to be solved by the invention] In the above conventional technology, S
When using the S method, in the process of calculating the difference between the (speech + noise) spectrum and the noise spectrum, it may not be possible to completely remove the noise component due to noise estimation errors, or on the contrary, excessive subtraction may be performed. There is a problem that this may have a negative effect on speech recognition. Further, in the multi-template method, problems arise as the number of templates increases. In other words, during recognition, a process is required to compare the feature vector obtained from the input speech with a standard pattern, but by setting multiple S/N ratios, there are many standard patterns for each identification category, which reduces processing time. It takes. Furthermore, if the input voice does not have a template with the same SN ratio, it will be identified using a template that is close to it, so there is a risk that the voice will be erroneously recognized as being in a different identification category. Furthermore, resetting an appropriate template significantly increases processing time. These problems are caused by noise power estimation errors caused by temporal changes in background noise. The purpose of the present invention is to improve such problems and to reduce the recognition rate caused by fluctuations in noise power by performing classification that takes into account minute fluctuations in background noise when performing speech recognition based on pattern matching. An object of the present invention is to provide a method for recognizing speech in noise that can reduce degradation.
【0004】0004
【課題を解決するための手段】上記目的を達成するため
、本発明の雑音下音声認識方法は、マルチテンプレート
法やSS法等、パタンマッチングを主体とした認識系を
持つシステムの音声認識方法において、入力音声に混入
する雑音のスペクトル情報を用い、雑音パワーの微小変
動により入力ベクトルが変化する方向を算出して、その
変化方向の距離がその変化方向と垂直な方向より小さく
なるように重み付けした距離尺度を設定することにより
、入力ベクトルを雑音パワーの変化方向へ変形して、変
形した入力ベクトルにより雑音パワー変動を考慮した識
別を行うことに特徴がある。[Means for Solving the Problems] In order to achieve the above object, the speech recognition method under noise of the present invention is applicable to a speech recognition method for a system having a recognition system based on pattern matching, such as the multi-template method or the SS method. , using spectral information of the noise mixed in the input audio, calculate the direction in which the input vector changes due to minute fluctuations in noise power, and weight it so that the distance in the direction of change is smaller than the direction perpendicular to the direction of change. A feature of this method is that by setting a distance measure, the input vector is transformed in the direction of change in noise power, and identification is performed using the transformed input vector in consideration of noise power fluctuations.
【0005】[0005]
【作用】本発明においては、マルチテンプレート法によ
る場合、背景雑音下で入力した音声の入力ベクトルに対
し、識別部はその背景雑音の微小変動を想定した変形を
加える。つまり、背景雑音のスペクトル情報により、入
力ベクトルの基準ベクトルが変化する方向を求め、その
変化方向に対しては小さな値をとり、それと垂直方向で
は大きな値をとるように距離尺度に重み付けをする。こ
の重み付け距離尺度を用いることにより、入力ベクトル
にその変化方向に対する冗長性を持たせて、雑音の混入
した音声を識別する際の識別性能を従来より向上させる
。なお、認識率を従来と同じに設定する場合には、テン
プレート数を削減できる。さらに、SS法による場合、
雑音除去量の過不足による悪影響を軽減することができ
る。[Operation] In the present invention, when using the multi-template method, the discriminator applies transformations to the input vector of speech input under background noise, assuming minute fluctuations in the background noise. That is, the direction in which the reference vector of the input vector changes is determined using the spectrum information of the background noise, and the distance measure is weighted so that it takes a small value in the direction of change and a large value in the direction perpendicular to it. By using this weighted distance measure, the input vector has redundancy with respect to the direction of change, thereby improving the identification performance when identifying noise-containing speech compared to the conventional method. Note that if the recognition rate is set to be the same as before, the number of templates can be reduced. Furthermore, when using the SS method,
It is possible to reduce the negative effects caused by excess or deficiency in the amount of noise removed.
【0006】[0006]
【実施例】以下、本発明の一実施例を図面により説明す
る。まず、本実施例における雑音下音声認識方法の原理
について述べる。図3は、本発明の一実施例における雑
音下音声認識方法の入力ベクトルに対する重み付けを示
す説明図、図4は本発明の一実施例における雑音下音声
認識方法の入力ベクトルの変化方向を示す説明図である
。本実施例では、音声認識のための特徴量として、線形
予測分析(LPC:linear predicti
ve coding)ケプストラムあるいはケプスト
ラムを用いる。ケプストラムcは次式(1)で定義され
る。DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below with reference to the drawings. First, the principle of the speech recognition method in noise in this embodiment will be described. FIG. 3 is an explanatory diagram showing the weighting of input vectors in the speech recognition method under noise according to an embodiment of the present invention, and FIG. 4 is an explanatory diagram showing the change direction of input vectors in the speech recognition method under noise according to an embodiment of the present invention. It is a diagram. In this example, linear predictive analysis (LPC) is used as the feature quantity for speech recognition.
ve coding) cepstrum or cepstrum. Cepstrum c is defined by the following equation (1).
【0007】[0007]
【数1】
(1)式で示されるcは、通常のテンプレートマッチン
グを主体とした認識系において、入力ベクトルとして用
いられる特徴量であり、SS法等では、前処理により予
め雑音成分が差し引かれたケプストラムの推定値である
。このとき、音声信号sはケプストラムcから逆に推定
されるものである。ここで、音声信号sに、新たに微小
雑音Δnが混入すると仮定する。これは、音声に加わる
雑音パワーが変動するか、あるいは雑音パワーの推定誤
差によるパワー変動を示すものである。雑音のパワー変
動により、(1)式のsはs+Δnに置き換わり、次の
ように展開される。[Equation 1] c shown in equation (1) is a feature used as an input vector in a recognition system based on normal template matching, and in SS methods etc., noise components are subtracted in advance through preprocessing. This is the estimated value of the cepstrum. At this time, the audio signal s is inversely estimated from the cepstrum c. Here, it is assumed that minute noise Δn is newly mixed into the audio signal s. This indicates that the noise power added to the voice fluctuates or that the power fluctuates due to noise power estimation error. Due to noise power fluctuations, s in equation (1) is replaced by s+Δn, and is expanded as follows.
【0008】[0008]
【数2】
ここで、微小雑音Δnによるケプストラム変化をΔcと
し、さらに、F[Δn]≪F[s]を仮定すれば、[Formula 2] Here, if we let the cepstrum change due to minute noise Δn be Δc, and further assume that F[Δn]≪F[s], then
【0
009】0
009]
【数3】
が得られ、(2)式から算出されるΔcベクトルを、雑
音が付加されたときのケプストラムの変化方向として入
力ベクトルの変形に利用する。入力ベクトルの変形は、
ケプストラムの変化方向にΔcを考慮した識別尺度を新
たに用いることにより行う。すなわち、従来の距離尺度
をd、雑音の付加が特徴パラメータに与する影響を考慮
した距離をdnとするとき、新しく距離尺度を(3)
(距離)=d+α×dn
と置くことにより実現する。但し、αは重み係数である
。また、dnは、Δnの変化方向へ重み付けされた距離
であり、次式で表現される。
dn=((r・Δc)2/σ2)+r2−(r・Δc)
2(i.e.r=x−c)
x:入力ベクトル
c:参照ベクトル
Δc:正規化されたΔc
σ:重み(>1)
これは、図3に示すように、黒丸で示す基準ベクトル(
参照ベクトル)から見た入力ベクトル(×印)を、入力
ペクトルが雑音により変動を受ける方向成分dhとそれ
に垂直な成分dvに分解し、Δc方向の変化に対しては
小さな値を取り、それと垂直な方向に対しては大きな値
を取るように重み付けして、楕円で示すように変形する
ものである。なお、図3において、矢印は雑音パワーの
変動による入力ベクトルの変化方向を示す。このような
距離尺度を用いることにより、入力ベクトルに雑音のパ
ワー変動を考慮した変形を加えた効果が得られ、認識性
能の向上を計ることができる。すなわち、図4に示すよ
うに、変形後の入力ベクトル41は、従来方法による入
力ベクトル(点線で円形に描かれた部分)に比べて冗長
性があり、雑音パワーの変化による特徴ベクトルの変化
方向(矢印方向)に追従する。The Δc vector calculated from equation (2) is used to transform the input vector as the direction of change in the cepstrum when noise is added. The transformation of the input vector is
This is done by newly using a discrimination measure that considers Δc in the direction of change of the cepstrum. That is, when the conventional distance measure is d and the distance considering the influence of noise addition on the feature parameters is dn, the new distance measure is (3).
This is achieved by setting (distance)=d+α×dn. However, α is a weighting coefficient. Further, dn is a distance weighted in the direction of change of Δn, and is expressed by the following equation. dn=((r・Δc)2/σ2)+r2−(r・Δc)
2 (i.e.r=x-c) x: input vector c: reference vector Δc: normalized Δc σ: weight (>1) As shown in FIG.
The input vector (x mark) seen from the reference vector is decomposed into a directional component dh where the input vector is subject to fluctuations due to noise, and a component dv perpendicular to it, and takes a small value for changes in the Δc direction, and It is weighted so that it takes a large value in the direction of , and is transformed as shown by the ellipse. Note that in FIG. 3, arrows indicate the direction of change in the input vector due to fluctuations in noise power. By using such a distance measure, it is possible to obtain the effect of adding a modification to the input vector in consideration of noise power fluctuations, and it is possible to improve recognition performance. That is, as shown in FIG. 4, the input vector 41 after transformation has redundancy compared to the input vector obtained by the conventional method (the part drawn in a circle with a dotted line), and the direction of change of the feature vector due to the change in noise power is (direction of arrow).
【0010】次に、本実施例の音声認識装置の構成およ
び機能について述べる。図1は、本発明の一実施例にお
ける雑音下音声認識方法の処理の流れを示す説明図、図
5は本発明の一実施例における音声認識装置の構成図で
ある。図5において、1は音声を入力するための入力装
置、2はCPU等の処理装置、3は入力された音声の識
別結果を出力するための出力装置、4はマッチング処理
に用いる標準パタンを格納する外部記憶装置である。ま
た、処理装置2は、入力された音声に対し、LPCスペ
クトル分析等の前処理を行う前処理部2aと、前処理さ
れた入力音声から特徴ベクトルを抽出する特徴抽出部2
bと、背景雑音を考慮して入力ベクトルを変形させ、そ
の変形入力ベクトルと標準パタンの特徴ベクトルとの距
離により、入力音声を識別する識別部2cとを有する。
この外部記憶装置4に登録している標準パタンの特徴ベ
クトルは、マルチテンプレート法による入力音声(音声
+雑音)から抽出したものである。また、識別部2cは
、その入力音声に微小な雑音パワー(背景雑音パワー)
が加わった場合の移動方向を算出し、その移動方向に対
する冗長性を入力ベクトルに持たせてからマッチング処
理を行う。このような構成により、図1に示す処理を行
う。すなわち、前処理部2aは、入力された音声(音声
+雑音)に対してLPCスペクトル分析を行い(101
)、特徴抽出部2bにより特徴ベクトルを抽出する(1
02)。さらに、識別部2cにより前記(3)式に示し
た距離dを求める(103)。一方、識別部2cは、背
景雑音パワーの微小変動を考慮した入力ベクトルの変化
方向を算出する(104)。この処理では、入力された
音声に微小な背景雑音が加わった場合のケプストラムの
変化方向Δcを求め(104a)、その雑音パワーが特
徴パラメータに与える影響を考慮した距離dnを求める
(104b)。さらに、音声+雑音を想定して算出した
距離dと背景雑音パワーの微小変動を考慮して算出した
距離dnとから、ケプストラムの変化方向Δcを考慮し
た新たな距離尺度を求め、これに従って入力ベクトルを
変形し、標準パタンの特徴ベクトルとのマッチング処理
を行い(105)、識別結果を出力する(106)。本
実施例によれば、背景雑音パワーの微小変動を考慮して
入力ベクトルを直接変形するので、例えば、予め設定さ
れた標準パタンを変形する方法に比べると処理時間は少
くて済む。Next, the configuration and functions of the speech recognition device of this embodiment will be described. FIG. 1 is an explanatory diagram showing the processing flow of a speech recognition method in noise according to an embodiment of the present invention, and FIG. 5 is a block diagram of a speech recognition apparatus according to an embodiment of the present invention. In FIG. 5, 1 is an input device for inputting audio, 2 is a processing device such as a CPU, 3 is an output device for outputting the identification result of the input audio, and 4 stores standard patterns used for matching processing. It is an external storage device. The processing device 2 also includes a preprocessing unit 2a that performs preprocessing such as LPC spectrum analysis on input audio, and a feature extraction unit 2 that extracts feature vectors from the preprocessed input audio.
b, and an identification unit 2c that transforms the input vector in consideration of background noise and identifies the input speech based on the distance between the modified input vector and the feature vector of the standard pattern. The feature vectors of the standard patterns registered in the external storage device 4 are extracted from input speech (speech+noise) using the multi-template method. The identification unit 2c also detects minute noise power (background noise power) in the input voice.
The direction of movement in the case where . With such a configuration, the processing shown in FIG. 1 is performed. That is, the preprocessing unit 2a performs LPC spectrum analysis on the input speech (speech + noise) (101
), the feature vector is extracted by the feature extraction unit 2b (1
02). Furthermore, the distance d shown in the above equation (3) is determined by the identification unit 2c (103). On the other hand, the identification unit 2c calculates the direction of change of the input vector in consideration of minute fluctuations in the background noise power (104). In this process, the direction of change Δc of the cepstrum when minute background noise is added to the input speech is determined (104a), and the distance dn is determined in consideration of the influence of the noise power on the feature parameters (104b). Furthermore, from the distance d calculated assuming speech + noise and the distance dn calculated taking into account minute fluctuations in background noise power, a new distance measure that takes into account the changing direction Δc of the cepstrum is calculated, and according to this, the input vector is transformed and subjected to matching processing with the feature vector of the standard pattern (105), and the identification result is output (106). According to this embodiment, since the input vector is directly transformed in consideration of minute fluctuations in background noise power, the processing time can be reduced compared to, for example, a method of transforming a preset standard pattern.
【0011】[0011]
【発明の効果】本発明によれば、パタンマッチングを主
体とする音声認識方法において、背景雑音の時間的変化
により生じる雑音パワーの推定誤差に起因する識別率の
低下を軽減することが可能であり、処理時間の大巾な増
加を抑制することができる。例えば、マルチテンプレー
ト法では、入力音声のSN比がある程度変化するので、
テンプート間の補完が可能となり、入力サンプルが入力
音声のSN比とは異なるSN比の識別カテゴリに誤認識
されることも少くなる。また、識別率を変化させない場
合には、テンプレート数を削減することができる。さら
に、SS法では、雑音パワーの推定誤差に起因する雑音
除去量の過不足を軽減することができる。[Effects of the Invention] According to the present invention, in a speech recognition method based on pattern matching, it is possible to reduce the reduction in the identification rate caused by estimation errors in noise power caused by temporal changes in background noise. , it is possible to suppress a large increase in processing time. For example, in the multi-template method, the SN ratio of the input audio changes to some extent, so
Complement between templates becomes possible, and input samples are less likely to be erroneously recognized in an identification category with an SN ratio different from that of the input voice. Furthermore, if the identification rate is not changed, the number of templates can be reduced. Furthermore, with the SS method, it is possible to reduce excess or deficiency in the amount of noise removed due to noise power estimation error.
【0012】0012
【図1】本発明の一実施例における雑音下音声認識方法
の処理の流れを示す説明図である。FIG. 1 is an explanatory diagram showing the processing flow of a speech recognition method in noise according to an embodiment of the present invention.
【図2】従来の雑音下音声認識方法の処理の流れを示す
説明図である。FIG. 2 is an explanatory diagram showing the processing flow of a conventional speech recognition method in noise.
【図3】本発明の一実施例における雑音下音声認識方法
の入力ベクトルに対する重み付けを示す説明図である。FIG. 3 is an explanatory diagram showing weighting of input vectors in a speech recognition method under noise according to an embodiment of the present invention.
【図4】本発明の一実施例における雑音下音声認識方法
の入力ベクトルの変化方向を示す説明図である。FIG. 4 is an explanatory diagram showing the direction of change of an input vector in a speech recognition method under noise according to an embodiment of the present invention.
【図5】本発明の一実施例における音声認識装置の構成
図である。FIG. 5 is a configuration diagram of a speech recognition device in an embodiment of the present invention.
1 入力装置 2 処理装置 2a 前処理部 2b 特徴抽出部 2c 識別部 3 出力装置 4 外部記憶装置 41 変形後の入力ベクトル 1 Input device 2 Processing equipment 2a Pre-processing section 2b Feature extraction section 2c Identification part 3 Output device 4 External storage device 41 Input vector after transformation
Claims (1)
を持つシステムの音声認識方法において、入力音声に混
入する雑音のスペクトル情報を用い、雑音パワーの微小
変動により入力ベクトルが変化する方向を算出して、該
変化方向の距離が該変化方向と垂直な方向より小さくな
るように重み付けした距離尺度を設定し、入力ベクトル
を雑音パワーの変化方向へ変形して、変形した入力ベク
トルにより音声を識別することを特徴とする雑音下音声
認識方法。Claim 1: A speech recognition method for a system having a recognition system based on pattern matching, which uses spectral information of noise mixed in input speech to calculate the direction in which an input vector changes due to minute fluctuations in noise power. , setting a weighted distance measure so that the distance in the direction of change is smaller than the direction perpendicular to the direction of change, transforming the input vector in the direction of change in noise power, and identifying speech by the transformed input vector. A speech recognition method in noise characterized by:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP3069218A JPH04281497A (en) | 1991-03-08 | 1991-03-08 | Voice recognition method under noisy environment |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP3069218A JPH04281497A (en) | 1991-03-08 | 1991-03-08 | Voice recognition method under noisy environment |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH04281497A true JPH04281497A (en) | 1992-10-07 |
Family
ID=13396361
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP3069218A Pending JPH04281497A (en) | 1991-03-08 | 1991-03-08 | Voice recognition method under noisy environment |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH04281497A (en) |
-
1991
- 1991-03-08 JP JP3069218A patent/JPH04281497A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109643552B (en) | Robust noise estimation for speech enhancement in variable noise conditions | |
US7877254B2 (en) | Method and apparatus for enrollment and verification of speaker authentication | |
US7133826B2 (en) | Method and apparatus using spectral addition for speaker recognition | |
US7117151B2 (en) | Feature extraction apparatus and method and pattern recognition apparatus and method | |
JP3154487B2 (en) | A method of spectral estimation to improve noise robustness in speech recognition | |
JPH02238495A (en) | Time series signal recognizing device | |
JP3298858B2 (en) | Partition-based similarity method for low-complexity speech recognizers | |
CN116490920A (en) | Method for detecting an audio challenge, corresponding device, computer program product and computer readable carrier medium for a speech input processed by an automatic speech recognition system | |
EP1141943B1 (en) | Speaker recognition using spectrogram correlation | |
EP0240329A2 (en) | Noise compensation in speech recognition | |
Ney | An optimization algorithm for determining the endpoints of isolated utterances | |
JPH04264596A (en) | Voice recognizing method in noisy enviroment | |
JP3039623B2 (en) | Voice recognition device | |
JPH04281497A (en) | Voice recognition method under noisy environment | |
Górriz et al. | Generalized LRT-based voice activity detector | |
JPS60114900A (en) | Voice/voiceless discrimination | |
JP3046029B2 (en) | Apparatus and method for selectively adding noise to a template used in a speech recognition system | |
US7912715B2 (en) | Determining distortion measures in a pattern recognition process | |
JP3107905B2 (en) | Voice recognition device | |
JP2001067094A (en) | Voice recognizing device and its method | |
JP3346200B2 (en) | Voice recognition device | |
JPH10124084A (en) | Voice processer | |
JPH05289695A (en) | Voice recognition system under noise | |
Pwint et al. | A new speech/non-speech classification method using minimal Walsh basis functions | |
JPH04295895A (en) | Voice recognition system |