JPH04281497A - Voice recognition method under noisy environment - Google Patents

Voice recognition method under noisy environment

Info

Publication number
JPH04281497A
JPH04281497A JP3069218A JP6921891A JPH04281497A JP H04281497 A JPH04281497 A JP H04281497A JP 3069218 A JP3069218 A JP 3069218A JP 6921891 A JP6921891 A JP 6921891A JP H04281497 A JPH04281497 A JP H04281497A
Authority
JP
Japan
Prior art keywords
noise
variation
noise power
speech
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP3069218A
Other languages
Japanese (ja)
Inventor
Toshihiro Kasuya
糟谷 敏宏
Noriya Murakami
村上 憲也
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
N T T DATA TSUSHIN KK
NTT Data Group Corp
Original Assignee
N T T DATA TSUSHIN KK
NTT Data Communications Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by N T T DATA TSUSHIN KK, NTT Data Communications Systems Corp filed Critical N T T DATA TSUSHIN KK
Priority to JP3069218A priority Critical patent/JPH04281497A/en
Publication of JPH04281497A publication Critical patent/JPH04281497A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To provide a voice recognition method under a noisy environment by preventing the reduction of recognition percentage caused by noise power estimation errors due to time varying noise and providing input vector variation considering a small variation of noise power in a voice recognition system having a multitemplate method and an SS method as the main pattern matching scheme. CONSTITUTION:By adding the variation assuming a slight variation of noise power per 104 against the voice input vectors obtained under the influence of a noisy background, a recognition is performed considering noise power variations. For example, in case of the multitemplate method, variational direction of the input vectors due to the variation of noise is obtained employing a background noise spectrum information and a matching process is performed using the recognition scale which is set to have a redundancy in the direction of the variation.

Description

【発明の詳細な説明】[Detailed description of the invention]

【0001】0001

【産業上の利用分野】本発明は、雑音下で利用され、パ
タンマッチングを主体とした認識系を持つ音声認識置の
音声認識方法に関し、特に背景雑音の微小変動を考慮し
た識別を行う雑音下音声認識方法に関する。
[Industrial Application Field] The present invention relates to a speech recognition method for a speech recognition device that is used under noise and has a recognition system based on pattern matching, and in particular, the present invention relates to a speech recognition method that is used under noise and has a recognition system based on pattern matching. Concerning speech recognition methods.

【0002】0002

【従来の技術】雑音の混入した音声は、雑音のない環境
で発音された音声とは、そこから抽出されるスペクトル
等の特徴パラメータを異にする。そのため、雑音下音声
の認識を行う際には、何らかの雑音除去処理を行うか、
あるいはパラメータの変形を考慮した識別を行う必要が
ある。例えば、スペクトルサブトラクション法(以下、
SS法と略す)を用いて音声認識を行う場合、図2のよ
うに、まず、スペクトル分析等の前処理を行う(201
)。この場合、音声に混入した雑音成分を除去するため
、音声のない雑音のみの区間から雑音のスペクトルを推
定し、雑音の混入した音声から得られるスペクトルから
差し引く。この後、入力された音声の特徴量を求め(2
02)、予め設定・登録してある標準パタンとの間でマ
ッチング処理を行い(203)、それらの距離値が所定
のしきい値以内か否かによって入力音声を識別する(2
04)。また、雑音の重畳による特徴パラメータの変化
に認識系が対応する手法の一つとして、音声認識装置を
用いる場所での背景雑音下で発声された音声を用いて標
準パタンを作成する方法も一般に知られている。例えば
、マルチテンプレート法では、信号対雑音比(SN比)
を数段設定し、設定したレベルで音声に雑音を重畳し、
それらの雑音重畳信号から複数の標準パタンを作成し、
入力音声から抽出される特徴ベクトルを入力音声のSN
比に近い何れかのテンプレートにマッチングさせること
により雑音下の音声を識別している。なお、従来の音声
認識方法については、例えば「電子情報通信ハンドブッ
ク,電子情報通信学会編(1989年),pp.119
1〜1207」に記載されている。
2. Description of the Related Art Speech mixed with noise differs from speech produced in a noise-free environment in characteristic parameters such as spectra extracted therefrom. Therefore, when recognizing speech in noise, it is necessary to perform some kind of noise removal processing.
Alternatively, it is necessary to perform identification in consideration of parameter deformation. For example, the spectral subtraction method (hereinafter referred to as
When performing speech recognition using the SS method (abbreviated as SS method), as shown in Figure 2, preprocessing such as spectrum analysis is first performed (201
). In this case, in order to remove the noise component mixed into the speech, the noise spectrum is estimated from the section of only noise without speech, and subtracted from the spectrum obtained from the speech mixed with noise. After this, the features of the input voice are calculated (2
02), performs matching processing with standard patterns that have been set and registered in advance (203), and identifies input audio based on whether or not the distance values are within a predetermined threshold (2).
04). Additionally, as a method for the recognition system to respond to changes in feature parameters due to superimposition of noise, it is generally known that a standard pattern is created using speech uttered under background noise at the location where the speech recognition device is used. It is being For example, in the multi-template method, the signal-to-noise ratio (SN ratio)
Set several levels and superimpose noise on the audio at the set level,
Create multiple standard patterns from those noisy signals,
The feature vector extracted from the input voice is set to the SN of the input voice.
Speech under noise is identified by matching a template that is close to the ratio. For conventional speech recognition methods, see, for example, "Handbook of Electronics, Information and Communication Engineers, edited by the Institute of Electronics, Information and Communication Engineers (1989), pp. 119.
1 to 1207".

【0003】0003

【発明が解決しようとする課題】上記従来技術では、S
S法を用いた場合、(音声+雑音)スペクトルと雑音ス
ペクトルの差分を算出するプロセスで、雑音の推定誤差
により雑音成分を完全に取り除くことができなかったり
、逆に過度の減算を行ったりする恐れがあり、音声認識
に悪影響を及ぼすという問題がある。また、マルチテン
プレート法では、テンプレート数の増加に伴って問題が
生じる。すなわち、認識時には、入力音声から得られる
特徴ベクトルを標準パタンと比較するプロセスを必要と
するが、複数のSN比を設定することにより識別カテゴ
リ当たりの標準パタンが多数存在するため、処理に時間
を要する。また、入力音声のSN比と同一のテンプレー
トを持たない場合には、それに近いテンプレートで識別
されるため、その音声は別の識別カテゴリに誤認識され
る恐れがある。さらに、適当なテンプレートを再設定す
ると、処理時間は大幅に増大してしまう。これらの問題
は、背景雑音の時間的変化により生じる雑音パワーの推
定誤差に起因する。本発明の目的は、このような問題点
を改善し、パタンマッチングを主体として音声認識を行
う場合、背景雑音の微小変動を考慮した識別を行うこと
により、雑音パワーの変動に起因する識別率の低下を軽
減することが可能な雑音下音声認識方法を提供すること
にある。
[Problem to be solved by the invention] In the above conventional technology, S
When using the S method, in the process of calculating the difference between the (speech + noise) spectrum and the noise spectrum, it may not be possible to completely remove the noise component due to noise estimation errors, or on the contrary, excessive subtraction may be performed. There is a problem that this may have a negative effect on speech recognition. Further, in the multi-template method, problems arise as the number of templates increases. In other words, during recognition, a process is required to compare the feature vector obtained from the input speech with a standard pattern, but by setting multiple S/N ratios, there are many standard patterns for each identification category, which reduces processing time. It takes. Furthermore, if the input voice does not have a template with the same SN ratio, it will be identified using a template that is close to it, so there is a risk that the voice will be erroneously recognized as being in a different identification category. Furthermore, resetting an appropriate template significantly increases processing time. These problems are caused by noise power estimation errors caused by temporal changes in background noise. The purpose of the present invention is to improve such problems and to reduce the recognition rate caused by fluctuations in noise power by performing classification that takes into account minute fluctuations in background noise when performing speech recognition based on pattern matching. An object of the present invention is to provide a method for recognizing speech in noise that can reduce degradation.

【0004】0004

【課題を解決するための手段】上記目的を達成するため
、本発明の雑音下音声認識方法は、マルチテンプレート
法やSS法等、パタンマッチングを主体とした認識系を
持つシステムの音声認識方法において、入力音声に混入
する雑音のスペクトル情報を用い、雑音パワーの微小変
動により入力ベクトルが変化する方向を算出して、その
変化方向の距離がその変化方向と垂直な方向より小さく
なるように重み付けした距離尺度を設定することにより
、入力ベクトルを雑音パワーの変化方向へ変形して、変
形した入力ベクトルにより雑音パワー変動を考慮した識
別を行うことに特徴がある。
[Means for Solving the Problems] In order to achieve the above object, the speech recognition method under noise of the present invention is applicable to a speech recognition method for a system having a recognition system based on pattern matching, such as the multi-template method or the SS method. , using spectral information of the noise mixed in the input audio, calculate the direction in which the input vector changes due to minute fluctuations in noise power, and weight it so that the distance in the direction of change is smaller than the direction perpendicular to the direction of change. A feature of this method is that by setting a distance measure, the input vector is transformed in the direction of change in noise power, and identification is performed using the transformed input vector in consideration of noise power fluctuations.

【0005】[0005]

【作用】本発明においては、マルチテンプレート法によ
る場合、背景雑音下で入力した音声の入力ベクトルに対
し、識別部はその背景雑音の微小変動を想定した変形を
加える。つまり、背景雑音のスペクトル情報により、入
力ベクトルの基準ベクトルが変化する方向を求め、その
変化方向に対しては小さな値をとり、それと垂直方向で
は大きな値をとるように距離尺度に重み付けをする。こ
の重み付け距離尺度を用いることにより、入力ベクトル
にその変化方向に対する冗長性を持たせて、雑音の混入
した音声を識別する際の識別性能を従来より向上させる
。なお、認識率を従来と同じに設定する場合には、テン
プレート数を削減できる。さらに、SS法による場合、
雑音除去量の過不足による悪影響を軽減することができ
る。
[Operation] In the present invention, when using the multi-template method, the discriminator applies transformations to the input vector of speech input under background noise, assuming minute fluctuations in the background noise. That is, the direction in which the reference vector of the input vector changes is determined using the spectrum information of the background noise, and the distance measure is weighted so that it takes a small value in the direction of change and a large value in the direction perpendicular to it. By using this weighted distance measure, the input vector has redundancy with respect to the direction of change, thereby improving the identification performance when identifying noise-containing speech compared to the conventional method. Note that if the recognition rate is set to be the same as before, the number of templates can be reduced. Furthermore, when using the SS method,
It is possible to reduce the negative effects caused by excess or deficiency in the amount of noise removed.

【0006】[0006]

【実施例】以下、本発明の一実施例を図面により説明す
る。まず、本実施例における雑音下音声認識方法の原理
について述べる。図3は、本発明の一実施例における雑
音下音声認識方法の入力ベクトルに対する重み付けを示
す説明図、図4は本発明の一実施例における雑音下音声
認識方法の入力ベクトルの変化方向を示す説明図である
。本実施例では、音声認識のための特徴量として、線形
予測分析(LPC:linear  predicti
ve  coding)ケプストラムあるいはケプスト
ラムを用いる。ケプストラムcは次式(1)で定義され
る。
DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below with reference to the drawings. First, the principle of the speech recognition method in noise in this embodiment will be described. FIG. 3 is an explanatory diagram showing the weighting of input vectors in the speech recognition method under noise according to an embodiment of the present invention, and FIG. 4 is an explanatory diagram showing the change direction of input vectors in the speech recognition method under noise according to an embodiment of the present invention. It is a diagram. In this example, linear predictive analysis (LPC) is used as the feature quantity for speech recognition.
ve coding) cepstrum or cepstrum. Cepstrum c is defined by the following equation (1).

【0007】[0007]

【数1】 (1)式で示されるcは、通常のテンプレートマッチン
グを主体とした認識系において、入力ベクトルとして用
いられる特徴量であり、SS法等では、前処理により予
め雑音成分が差し引かれたケプストラムの推定値である
。このとき、音声信号sはケプストラムcから逆に推定
されるものである。ここで、音声信号sに、新たに微小
雑音Δnが混入すると仮定する。これは、音声に加わる
雑音パワーが変動するか、あるいは雑音パワーの推定誤
差によるパワー変動を示すものである。雑音のパワー変
動により、(1)式のsはs+Δnに置き換わり、次の
ように展開される。
[Equation 1] c shown in equation (1) is a feature used as an input vector in a recognition system based on normal template matching, and in SS methods etc., noise components are subtracted in advance through preprocessing. This is the estimated value of the cepstrum. At this time, the audio signal s is inversely estimated from the cepstrum c. Here, it is assumed that minute noise Δn is newly mixed into the audio signal s. This indicates that the noise power added to the voice fluctuates or that the power fluctuates due to noise power estimation error. Due to noise power fluctuations, s in equation (1) is replaced by s+Δn, and is expanded as follows.

【0008】[0008]

【数2】 ここで、微小雑音Δnによるケプストラム変化をΔcと
し、さらに、F[Δn]≪F[s]を仮定すれば、
[Formula 2] Here, if we let the cepstrum change due to minute noise Δn be Δc, and further assume that F[Δn]≪F[s], then

【0
009】
0
009]

【数3】 が得られ、(2)式から算出されるΔcベクトルを、雑
音が付加されたときのケプストラムの変化方向として入
力ベクトルの変形に利用する。入力ベクトルの変形は、
ケプストラムの変化方向にΔcを考慮した識別尺度を新
たに用いることにより行う。すなわち、従来の距離尺度
をd、雑音の付加が特徴パラメータに与する影響を考慮
した距離をdnとするとき、新しく距離尺度を(3) 
 (距離)=d+α×dn と置くことにより実現する。但し、αは重み係数である
。また、dnは、Δnの変化方向へ重み付けされた距離
であり、次式で表現される。 dn=((r・Δc)2/σ2)+r2−(r・Δc)
2(i.e.r=x−c) x:入力ベクトル c:参照ベクトル Δc:正規化されたΔc σ:重み(>1) これは、図3に示すように、黒丸で示す基準ベクトル(
参照ベクトル)から見た入力ベクトル(×印)を、入力
ペクトルが雑音により変動を受ける方向成分dhとそれ
に垂直な成分dvに分解し、Δc方向の変化に対しては
小さな値を取り、それと垂直な方向に対しては大きな値
を取るように重み付けして、楕円で示すように変形する
ものである。なお、図3において、矢印は雑音パワーの
変動による入力ベクトルの変化方向を示す。このような
距離尺度を用いることにより、入力ベクトルに雑音のパ
ワー変動を考慮した変形を加えた効果が得られ、認識性
能の向上を計ることができる。すなわち、図4に示すよ
うに、変形後の入力ベクトル41は、従来方法による入
力ベクトル(点線で円形に描かれた部分)に比べて冗長
性があり、雑音パワーの変化による特徴ベクトルの変化
方向(矢印方向)に追従する。
The Δc vector calculated from equation (2) is used to transform the input vector as the direction of change in the cepstrum when noise is added. The transformation of the input vector is
This is done by newly using a discrimination measure that considers Δc in the direction of change of the cepstrum. That is, when the conventional distance measure is d and the distance considering the influence of noise addition on the feature parameters is dn, the new distance measure is (3).
This is achieved by setting (distance)=d+α×dn. However, α is a weighting coefficient. Further, dn is a distance weighted in the direction of change of Δn, and is expressed by the following equation. dn=((r・Δc)2/σ2)+r2−(r・Δc)
2 (i.e.r=x-c) x: input vector c: reference vector Δc: normalized Δc σ: weight (>1) As shown in FIG.
The input vector (x mark) seen from the reference vector is decomposed into a directional component dh where the input vector is subject to fluctuations due to noise, and a component dv perpendicular to it, and takes a small value for changes in the Δc direction, and It is weighted so that it takes a large value in the direction of , and is transformed as shown by the ellipse. Note that in FIG. 3, arrows indicate the direction of change in the input vector due to fluctuations in noise power. By using such a distance measure, it is possible to obtain the effect of adding a modification to the input vector in consideration of noise power fluctuations, and it is possible to improve recognition performance. That is, as shown in FIG. 4, the input vector 41 after transformation has redundancy compared to the input vector obtained by the conventional method (the part drawn in a circle with a dotted line), and the direction of change of the feature vector due to the change in noise power is (direction of arrow).

【0010】次に、本実施例の音声認識装置の構成およ
び機能について述べる。図1は、本発明の一実施例にお
ける雑音下音声認識方法の処理の流れを示す説明図、図
5は本発明の一実施例における音声認識装置の構成図で
ある。図5において、1は音声を入力するための入力装
置、2はCPU等の処理装置、3は入力された音声の識
別結果を出力するための出力装置、4はマッチング処理
に用いる標準パタンを格納する外部記憶装置である。ま
た、処理装置2は、入力された音声に対し、LPCスペ
クトル分析等の前処理を行う前処理部2aと、前処理さ
れた入力音声から特徴ベクトルを抽出する特徴抽出部2
bと、背景雑音を考慮して入力ベクトルを変形させ、そ
の変形入力ベクトルと標準パタンの特徴ベクトルとの距
離により、入力音声を識別する識別部2cとを有する。 この外部記憶装置4に登録している標準パタンの特徴ベ
クトルは、マルチテンプレート法による入力音声(音声
+雑音)から抽出したものである。また、識別部2cは
、その入力音声に微小な雑音パワー(背景雑音パワー)
が加わった場合の移動方向を算出し、その移動方向に対
する冗長性を入力ベクトルに持たせてからマッチング処
理を行う。このような構成により、図1に示す処理を行
う。すなわち、前処理部2aは、入力された音声(音声
+雑音)に対してLPCスペクトル分析を行い(101
)、特徴抽出部2bにより特徴ベクトルを抽出する(1
02)。さらに、識別部2cにより前記(3)式に示し
た距離dを求める(103)。一方、識別部2cは、背
景雑音パワーの微小変動を考慮した入力ベクトルの変化
方向を算出する(104)。この処理では、入力された
音声に微小な背景雑音が加わった場合のケプストラムの
変化方向Δcを求め(104a)、その雑音パワーが特
徴パラメータに与える影響を考慮した距離dnを求める
(104b)。さらに、音声+雑音を想定して算出した
距離dと背景雑音パワーの微小変動を考慮して算出した
距離dnとから、ケプストラムの変化方向Δcを考慮し
た新たな距離尺度を求め、これに従って入力ベクトルを
変形し、標準パタンの特徴ベクトルとのマッチング処理
を行い(105)、識別結果を出力する(106)。本
実施例によれば、背景雑音パワーの微小変動を考慮して
入力ベクトルを直接変形するので、例えば、予め設定さ
れた標準パタンを変形する方法に比べると処理時間は少
くて済む。
Next, the configuration and functions of the speech recognition device of this embodiment will be described. FIG. 1 is an explanatory diagram showing the processing flow of a speech recognition method in noise according to an embodiment of the present invention, and FIG. 5 is a block diagram of a speech recognition apparatus according to an embodiment of the present invention. In FIG. 5, 1 is an input device for inputting audio, 2 is a processing device such as a CPU, 3 is an output device for outputting the identification result of the input audio, and 4 stores standard patterns used for matching processing. It is an external storage device. The processing device 2 also includes a preprocessing unit 2a that performs preprocessing such as LPC spectrum analysis on input audio, and a feature extraction unit 2 that extracts feature vectors from the preprocessed input audio.
b, and an identification unit 2c that transforms the input vector in consideration of background noise and identifies the input speech based on the distance between the modified input vector and the feature vector of the standard pattern. The feature vectors of the standard patterns registered in the external storage device 4 are extracted from input speech (speech+noise) using the multi-template method. The identification unit 2c also detects minute noise power (background noise power) in the input voice.
The direction of movement in the case where . With such a configuration, the processing shown in FIG. 1 is performed. That is, the preprocessing unit 2a performs LPC spectrum analysis on the input speech (speech + noise) (101
), the feature vector is extracted by the feature extraction unit 2b (1
02). Furthermore, the distance d shown in the above equation (3) is determined by the identification unit 2c (103). On the other hand, the identification unit 2c calculates the direction of change of the input vector in consideration of minute fluctuations in the background noise power (104). In this process, the direction of change Δc of the cepstrum when minute background noise is added to the input speech is determined (104a), and the distance dn is determined in consideration of the influence of the noise power on the feature parameters (104b). Furthermore, from the distance d calculated assuming speech + noise and the distance dn calculated taking into account minute fluctuations in background noise power, a new distance measure that takes into account the changing direction Δc of the cepstrum is calculated, and according to this, the input vector is transformed and subjected to matching processing with the feature vector of the standard pattern (105), and the identification result is output (106). According to this embodiment, since the input vector is directly transformed in consideration of minute fluctuations in background noise power, the processing time can be reduced compared to, for example, a method of transforming a preset standard pattern.

【0011】[0011]

【発明の効果】本発明によれば、パタンマッチングを主
体とする音声認識方法において、背景雑音の時間的変化
により生じる雑音パワーの推定誤差に起因する識別率の
低下を軽減することが可能であり、処理時間の大巾な増
加を抑制することができる。例えば、マルチテンプレー
ト法では、入力音声のSN比がある程度変化するので、
テンプート間の補完が可能となり、入力サンプルが入力
音声のSN比とは異なるSN比の識別カテゴリに誤認識
されることも少くなる。また、識別率を変化させない場
合には、テンプレート数を削減することができる。さら
に、SS法では、雑音パワーの推定誤差に起因する雑音
除去量の過不足を軽減することができる。
[Effects of the Invention] According to the present invention, in a speech recognition method based on pattern matching, it is possible to reduce the reduction in the identification rate caused by estimation errors in noise power caused by temporal changes in background noise. , it is possible to suppress a large increase in processing time. For example, in the multi-template method, the SN ratio of the input audio changes to some extent, so
Complement between templates becomes possible, and input samples are less likely to be erroneously recognized in an identification category with an SN ratio different from that of the input voice. Furthermore, if the identification rate is not changed, the number of templates can be reduced. Furthermore, with the SS method, it is possible to reduce excess or deficiency in the amount of noise removed due to noise power estimation error.

【0012】0012

【図面の簡単な説明】[Brief explanation of the drawing]

【図1】本発明の一実施例における雑音下音声認識方法
の処理の流れを示す説明図である。
FIG. 1 is an explanatory diagram showing the processing flow of a speech recognition method in noise according to an embodiment of the present invention.

【図2】従来の雑音下音声認識方法の処理の流れを示す
説明図である。
FIG. 2 is an explanatory diagram showing the processing flow of a conventional speech recognition method in noise.

【図3】本発明の一実施例における雑音下音声認識方法
の入力ベクトルに対する重み付けを示す説明図である。
FIG. 3 is an explanatory diagram showing weighting of input vectors in a speech recognition method under noise according to an embodiment of the present invention.

【図4】本発明の一実施例における雑音下音声認識方法
の入力ベクトルの変化方向を示す説明図である。
FIG. 4 is an explanatory diagram showing the direction of change of an input vector in a speech recognition method under noise according to an embodiment of the present invention.

【図5】本発明の一実施例における音声認識装置の構成
図である。
FIG. 5 is a configuration diagram of a speech recognition device in an embodiment of the present invention.

【符号の説明】[Explanation of symbols]

1  入力装置 2  処理装置 2a  前処理部 2b  特徴抽出部 2c  識別部 3  出力装置 4  外部記憶装置 41  変形後の入力ベクトル 1 Input device 2 Processing equipment 2a Pre-processing section 2b Feature extraction section 2c Identification part 3 Output device 4 External storage device 41 Input vector after transformation

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】  パタンマッチングを主体とした認識系
を持つシステムの音声認識方法において、入力音声に混
入する雑音のスペクトル情報を用い、雑音パワーの微小
変動により入力ベクトルが変化する方向を算出して、該
変化方向の距離が該変化方向と垂直な方向より小さくな
るように重み付けした距離尺度を設定し、入力ベクトル
を雑音パワーの変化方向へ変形して、変形した入力ベク
トルにより音声を識別することを特徴とする雑音下音声
認識方法。
Claim 1: A speech recognition method for a system having a recognition system based on pattern matching, which uses spectral information of noise mixed in input speech to calculate the direction in which an input vector changes due to minute fluctuations in noise power. , setting a weighted distance measure so that the distance in the direction of change is smaller than the direction perpendicular to the direction of change, transforming the input vector in the direction of change in noise power, and identifying speech by the transformed input vector. A speech recognition method in noise characterized by:
JP3069218A 1991-03-08 1991-03-08 Voice recognition method under noisy environment Pending JPH04281497A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3069218A JPH04281497A (en) 1991-03-08 1991-03-08 Voice recognition method under noisy environment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3069218A JPH04281497A (en) 1991-03-08 1991-03-08 Voice recognition method under noisy environment

Publications (1)

Publication Number Publication Date
JPH04281497A true JPH04281497A (en) 1992-10-07

Family

ID=13396361

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3069218A Pending JPH04281497A (en) 1991-03-08 1991-03-08 Voice recognition method under noisy environment

Country Status (1)

Country Link
JP (1) JPH04281497A (en)

Similar Documents

Publication Publication Date Title
CN109643552B (en) Robust noise estimation for speech enhancement in variable noise conditions
US7877254B2 (en) Method and apparatus for enrollment and verification of speaker authentication
US7133826B2 (en) Method and apparatus using spectral addition for speaker recognition
US7117151B2 (en) Feature extraction apparatus and method and pattern recognition apparatus and method
JP3154487B2 (en) A method of spectral estimation to improve noise robustness in speech recognition
JPH02238495A (en) Time series signal recognizing device
JP3298858B2 (en) Partition-based similarity method for low-complexity speech recognizers
CN116490920A (en) Method for detecting an audio challenge, corresponding device, computer program product and computer readable carrier medium for a speech input processed by an automatic speech recognition system
EP1141943B1 (en) Speaker recognition using spectrogram correlation
EP0240329A2 (en) Noise compensation in speech recognition
Ney An optimization algorithm for determining the endpoints of isolated utterances
JPH04264596A (en) Voice recognizing method in noisy enviroment
JP3039623B2 (en) Voice recognition device
JPH04281497A (en) Voice recognition method under noisy environment
Górriz et al. Generalized LRT-based voice activity detector
JPS60114900A (en) Voice/voiceless discrimination
JP3046029B2 (en) Apparatus and method for selectively adding noise to a template used in a speech recognition system
US7912715B2 (en) Determining distortion measures in a pattern recognition process
JP3107905B2 (en) Voice recognition device
JP2001067094A (en) Voice recognizing device and its method
JP3346200B2 (en) Voice recognition device
JPH10124084A (en) Voice processer
JPH05289695A (en) Voice recognition system under noise
Pwint et al. A new speech/non-speech classification method using minimal Walsh basis functions
JPH04295895A (en) Voice recognition system