JPH0738454A - Noise reduction method - Google Patents

Noise reduction method

Info

Publication number
JPH0738454A
JPH0738454A JP10537294A JP10537294A JPH0738454A JP H0738454 A JPH0738454 A JP H0738454A JP 10537294 A JP10537294 A JP 10537294A JP 10537294 A JP10537294 A JP 10537294A JP H0738454 A JPH0738454 A JP H0738454A
Authority
JP
Japan
Prior art keywords
noise
state
input signal
voice
statistic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP10537294A
Other languages
Japanese (ja)
Other versions
JP3205463B2 (en
Inventor
Hiroto Suda
博人 須田
Toshio Miki
俊雄 三木
Yoshinori Miki
義則 三木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP10537294A priority Critical patent/JP3205463B2/en
Publication of JPH0738454A publication Critical patent/JPH0738454A/en
Application granted granted Critical
Publication of JP3205463B2 publication Critical patent/JP3205463B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Noise Elimination (AREA)

Abstract

PURPOSE:To attain highly accurate statistic quantity estimation by detecting a silence period in an input signal and estimating a statistic quantity of noise from the input signal in the silence period. CONSTITUTION:An input signal from an input terminal 11 is divided for a predetermined time such a each several millisecond and a state discrimination section 12 discriminates the state of each frame. That is, a voice and a noise in the input signal are distinguished as follows: the states are distinguished into a state in which only a voice is in existence without a background noise, a state that neither background noise nor a voice signal is in existence in an optical signal, a completely silence state, a state that only a background noise is in existence, a state that a background noise is in existence and a speech head or a speech tail of the voice signal is set, and a state that a background noise is in existence and a voice signal is in a steady-state, a code is given to each state and the result is stored in a frame state table 13. Correction sections 16, 17 conduct adaptive correction in response to the discrimination state with respect to the statistic quantity of noise and voice to be estimated. Then each statistic quantity is used to calculate a filter coefficient and the result is set to a Kalman filter 18, in which the noise component is suppressed.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】この発明は、背景雑音の大きな環
境下で用いられることがある固定、あるいは移動音声通
話システムに適用され、音声の統計量と雑音の統計量と
からフィルタ係数を決定し、そのフィルタ係数により入
力信号をフィルタリング処理して原音声に重畳した雑音
を軽減する雑音軽減方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention is applied to a fixed or mobile voice communication system which may be used in an environment with a large amount of background noise, and determines a filter coefficient from a statistical amount of voice and a statistical amount of noise. The present invention relates to a noise reduction method for reducing the noise superimposed on the original speech by filtering the input signal with the filter coefficient.

【0002】[0002]

【従来の技術】従来の雑音軽減方法は、雑音の統計的特
性が予め分かっていることを前提とする方法が、J.
D.Gibson(“Filtering of Co
lored Noise for Speech En
hancement and Coding”,IEE
E Trans.SP.Vol.39,No.8,19
91)らにより検討されている。この方法はフレームご
とのカルマンフィルタリング処理で構成される。カルマ
ンフィルタリング処理には、音声および雑音の各統計量
が必要となる。Gibsonらの方法は、フレーム毎の
音声の統計量は未知としてフレームごとに推定され、フ
レームごとの雑音の統計量は既知としてフィルタリング
処理する方法である。従って、既知と仮定する雑音統計
量の推定精度が雑音軽減の効果を左右することになる。
2. Description of the Related Art A conventional noise reduction method is based on the method described in J.
D. Gibson (“Filtering of Co
lored Noise for Speech En
hancement and Coding ”, IEEE
E Trans. SP. Vol. 39, no. 8, 19
91) et al. This method consists of Kalman filtering processing for each frame. The Kalman filtering process requires statistics of speech and noise. The method of Gibson et al. Is a method in which the statistic of voice for each frame is estimated as unknown and the statistic of noise for each frame is known, and filtering is performed. Therefore, the estimation accuracy of the noise statistics, which is assumed to be known, influences the effect of noise reduction.

【0003】[0003]

【発明が解決しようとする課題】ところが、正確な雑音
統計量を予め推定することは、あまり簡単ではない。音
声の影響を排除した状態で事前に雑音信号のみを収録
し、雑音の統計量を推定することが必要になる。通話の
前に雑音収録処理を行う手間が増加し、システムのコス
ト増につながる欠点がある。しかも、移動無線の様な適
用領域では、事前に推定した雑音統計量が時間的に変動
することがあり、この場合には、事前に推定した雑音統
計量の推定精度が時間とともに低下することになり、そ
の結果、雑音軽減が十分に行なえないという欠点を合わ
せ持つ。
However, it is not so easy to estimate an accurate noise statistic in advance. It is necessary to record only the noise signal in advance with the influence of the voice removed, and estimate the noise statistics. There is a drawback that the time and effort for performing noise recording processing before a call increases, leading to an increase in system cost. Moreover, in an application area such as mobile radio, the noise statistic estimated in advance may fluctuate with time, and in this case, the estimation accuracy of the noise statistic estimated in advance decreases with time. As a result, it also has a drawback that noise reduction cannot be sufficiently performed.

【0004】時間的変動に追従するため、音声収録用の
マイクロホンと同時に、雑音収録用のマイクロホンをも
ち、つまり音声収録系と別系統の雑音収録系を持つ方法
が考えられる。この方法を用いることで、雑音統計量の
推定精度は向上するが、システムコストの増加につなが
る欠点をもつ。また従来の雑音軽減方法は、入力信号の
状態、つまり、入力信号が雑音のみ、音声のみ、音声に
雑音が重畳された状態、音声が立上る状態、音声が立下
る状態などを考慮していなく、聴覚的に不自然に感じら
れる場合が生じる欠点があった。
In order to follow the temporal fluctuation, a method is conceivable in which a voice recording system and a noise recording microphone are provided at the same time as the voice recording microphone, that is, a voice recording system and a different noise recording system are provided. Using this method improves the estimation accuracy of noise statistics, but has the drawback of increasing the system cost. In addition, the conventional noise reduction method does not consider the state of the input signal, that is, the input signal is only noise, only voice, the state where noise is superimposed on the voice, the state where the voice rises, the state where the voice falls, etc. However, there was a drawback in that it might be aurally unnatural.

【0005】この発明の目的は雑音軽減を十分に行うこ
とができる雑音軽減方法を提供することにある。この発
明の他の目的は価格上昇を伴うことなく、雑音統計量の
推定精度を向上することにより雑音軽減を十分に行う雑
音軽減方法を提供することにある。この発明の更に他の
目的は音声の状態、雑音の状態に応じて適応的に処理し
て雑音軽減効果を高める雑音軽減方法を提供することに
ある。
An object of the present invention is to provide a noise reduction method capable of sufficiently reducing noise. Another object of the present invention is to provide a noise reduction method that sufficiently reduces noise by improving the estimation accuracy of noise statistics without increasing the price. Still another object of the present invention is to provide a noise reduction method for enhancing the noise reduction effect by adaptively processing according to the state of voice and the state of noise.

【0006】[0006]

【課題を解決するための手段】請求項1の発明によれば
入力信号中の無音区間を検出し、その検出した無音区間
における入力信号から雑音の統計量を推定する。つまり
電話などの双方向通話においては、一方の話者に注目す
ると、音声を発していない時間(相手が話している時
間)がある程度存在する。この状態は雑音だけが入力さ
れている状態であり、この状態では雑音の統計量を高い
精度で推定することができる。
According to the first aspect of the present invention, a silent section in an input signal is detected, and a statistical amount of noise is estimated from the input signal in the detected silent section. That is, in a two-way call such as a telephone call, when one speaker is focused on, there is a certain amount of time during which no voice is uttered (the other party is talking). In this state, only noise is input, and in this state, noise statistics can be estimated with high accuracy.

【0007】請求項2の発明によれば、請求項1の発明
において、入力信号中の音声と雑音との状態を予め決め
た状態に区分し、その各状態をフレーム状態テーブルと
して記憶しておき、入力信号を一定時間(フレーム)ご
とに処理してフレーム状態テーブルを参照して各フレー
ムの状態を決定し、その決定されたフレーム状態に応じ
て音声の統計量と雑音の統計量とを適応的に修正する。
According to the invention of claim 2, in the invention of claim 1, the states of voice and noise in the input signal are divided into predetermined states, and the respective states are stored as a frame state table. , The input signal is processed every fixed time (frame), the state of each frame is determined by referring to the frame state table, and the voice statistics and the noise statistics are adapted according to the determined frame state. Correct it.

【0008】請求項3の発明では請求項2の発明におけ
るフレーム状態テーブルを用意しておき、また雑音用マ
イクロホンで雑音を収録し、その雑音用マイクロホンに
収録した入力信号から雑音の統計量を推定し、一方音声
用マイクロホン、雑音用マイクロホンの両入力信号から
音声、雑音の状態を各フレームごとに決定し、その状態
に応じてフレーム状態テーブルを参照して音声の統計量
と雑音の統計量とを適応的に修正する。
In the invention of claim 3, the frame state table in the invention of claim 2 is prepared, noise is recorded by the noise microphone, and the statistical amount of noise is estimated from the input signal recorded in the noise microphone. On the other hand, the state of voice and noise is determined for each frame from both input signals of the microphone for voice and the microphone for noise, and the statistics of voice and the statistics of noise are referred to by referring to the frame state table according to the state. Is adaptively corrected.

【0009】請求項4の発明によれば、請求項2の発明
におけるフレーム状態テーブルを用意しておき、通話の
前に雑音の統計量を推定し、その雑音の統計量と、入力
信号から推定した音声の統計量とを用い、入力信号を一
定時間(フレーム)ごとに処理して、そのフレームの状
態をフレーム状態テーブルを参照して決定し、その決定
されたフレーム状態に応じて音声の統計量及び雑音の統
計量を適応的に修正する。
According to the invention of claim 4, the frame state table according to the invention of claim 2 is prepared, the statistical amount of noise is estimated before a call, and the statistical amount of noise is estimated from the input signal. The input signal is processed at fixed time intervals (frames) by using the recorded voice statistics, the state of the frame is determined by referring to the frame state table, and the voice statistics are determined according to the determined frame state. Adaptively modify the quantity and noise statistics.

【0010】請求項5の発明によれば請求項2乃至4の
何れかの発明において、その状態の遷移にも応じて前記
適応的修正を行う。請求項6の発明によれば上記の何れ
かの発明において音声、雑音の各推定統計量から信号対
雑音比を求め、その信号対雑音比に応じ、又は雑音電力
に応じて前記適応的修正を制御する。
According to a fifth aspect of the invention, in the invention of any of the second to fourth aspects, the adaptive correction is performed according to the transition of the state. According to the invention of claim 6, in any one of the above inventions, a signal-to-noise ratio is obtained from each estimation statistic of speech and noise, and the adaptive correction is performed according to the signal-to-noise ratio or the noise power. Control.

【0011】請求項9の発明によれば請求項1乃至4の
何れかの発明において、各フレームの先頭のnサンプル
(nは2以上の整数で1フレームのサンプル数Nより
小)においては各サンプルごとにフィルタ係数の更新を
行い、残りの(N−n)サンプルではフィルタ係数の更
新を行わない。
According to a ninth aspect of the present invention, in any one of the first to fourth aspects of the present invention, each of the n samples at the beginning of each frame (n is an integer of 2 or more and less than the sample number N of one frame) The filter coefficient is updated for each sample, and the filter coefficient is not updated for the remaining (N−n) samples.

【0012】[0012]

【実施例】請求項2の発明の実施例の処理手順を図1に
示し、その実施例が適用される雑音軽減装置を図2に示
す。入力端子11より入力信号は一定時間(フレー
ム)、例えば数10ミリ秒ごとに分割し(S1 )、状態
判定部12で各フレームの状態を判定する(S2 )。つ
まり入力信号中の音声と雑音との関係を、例えば図3A
に示すように、背景雑音がなく、音声のみが存在する状
態10、背景雑音も音声も共に存在しない、完全無音の
状態0、背景雑音のみが存在する状態20、背景雑音が
存在し、音声は話頭、または話尾の状態21、背景雑音
が存在し、音声の定常の状態22、に区分けし、これら
の状態に符号を与えてフレーム状態テーブル13に予め
記憶しておく。
FIG. 1 shows a processing procedure of an embodiment of the invention of claim 2, and FIG. 2 shows a noise reduction apparatus to which the embodiment is applied. The input signal from the input terminal 11 is divided every fixed time (frame), for example, every several tens of milliseconds (S 1 ), and the state determination unit 12 determines the state of each frame (S 2 ). That is, the relationship between the voice and the noise in the input signal is shown in FIG.
As shown in, there is no background noise and there is only voice, there is neither background noise nor voice, there is no silence 0, there is only background noise 20, there is background noise, and there is voice. It is divided into a head state or a tail state 21 and a stationary state 22 of voice in which background noise exists, and these states are given a code and stored in the frame state table 13 in advance.

【0013】入力信号はこのような状態を図3Bに示す
ように状態遷移する。この状態は入力信号中の音声パワ
ーおよびその変動や、音声スペクトル特性およびその変
動などにより決定する。各フレームの状態判定を行った
結果が、雑音のみが存在する状態20である場合(S
3 )はその時の入力信号から雑音統計量推定部14で雑
音の統計量、例えば雑音のARモデルおよび電力を推定
する(S4 )。状態20以外では音声統計量推定部15
で音声の統計量、例えば音声のARモデルおよび電力を
推定する(S5 )。
The input signal makes such a state transition as shown in FIG. 3B. This state is determined by the voice power in the input signal and its fluctuation, the voice spectrum characteristic and its fluctuation, and the like. When the result of the state determination of each frame is the state 20 in which only noise exists (S
3 ), the noise statistic estimating unit 14 estimates the noise statistic, for example, the AR model and power of the noise from the input signal at that time (S 4 ). In the states other than the state 20, the speech statistic estimation unit 15
In audio statistics, for example, it estimates the AR model and power of the voice (S 5).

【0014】これら推定された雑音の統計量および音声
の統計量に対して、そのフレームの判定された状態に応
じ適応的に修正を修正部16,17でそれぞれ行う(S
6 )。この修正は例えば図4に示すように行う。即ち状
態20では雑音軽減処理を強く行うため、音声信号の電
力値を入力信号の電力(雑音の電力)よりも小さい値に
設定する。入力信号の電力に乗ずる係数aは1以下の
値、例えば0.1を用い、雑音電力に対する音声の電力
を小さくして、強い雑音軽減処理をカルマンフィルタに
より行われるようにする。またこの場合は音声のARモ
デルをなまらせ、雑音のARモデル、電力はその時、推
定したものをそのまま用いる。
The estimated noise statistic and speech statistic are adaptively modified by the modifying units 16 and 17 according to the determined state of the frame (S).
6 ). This correction is performed, for example, as shown in FIG. That is, in the state 20, noise reduction processing is strongly performed, so that the power value of the voice signal is set to a value smaller than the power of the input signal (power of noise). The coefficient a by which the power of the input signal is multiplied is a value of 1 or less, for example, 0.1, and the power of the voice with respect to the noise power is reduced so that strong noise reduction processing is performed by the Kalman filter. In this case, the AR model of voice is blunted, and the estimated AR model and power of noise are used as they are.

【0015】状態21では直前の状態20で雑音電力に
1以下の係数、例えば0.7を乗じて、つまり雑音電力
を小さくして、雑音軽減処理を弱くする。音声のARモ
デルおよび電力はそのフレームで求めたものをそのまま
用い、雑音のARモデルは直前の状態20で求めたもの
をそのまま用いる。状態22では音声はそのフレームで
推定したARモデルおよび電力をそのまま用い、雑音は
直前の状態20で推定したARモデルおよび電力をその
まま用い、つまり、通常の強さの雑音軽減処理を行う。
即ち従来においては推定した音声および雑音の各統計量
をそのまま用いたが、この実施例では状態22以外の状
態20では音声の推定電力を小さく修正して雑音軽減処
理を強くし、状態21では雑音の推定電力を小さく修正
して雑音軽減処理を弱くするように状態に応じて適応的
に推定統計量を修正する。
In the state 21, the noise power in the immediately preceding state 20 is multiplied by a coefficient of 1 or less, for example, 0.7, that is, the noise power is reduced to weaken the noise reduction processing. The AR model and power of speech used are those obtained in that frame, and the AR model of noise used is that obtained in the immediately preceding state 20. In the state 22, speech uses the AR model and power estimated in that frame as they are, and noise uses the AR model and power estimated in the immediately preceding state 20 as they are, that is, noise reduction processing of normal strength is performed.
That is, in the prior art, the estimated voice and noise statistics are used as they are, but in this embodiment, the estimated power of the voice is corrected to be small in the states 20 other than the state 22 to strengthen the noise reduction processing, and in the state 21, the noise is reduced. The estimated statistic is adaptively modified according to the state so that the estimated power of is modified to weaken the noise reduction processing.

【0016】このようして適応的に修正された音声およ
び雑音の各統計量を用いてフィルタ係数を算出し(S
7 )、そのフィルタ係数をカルマンフィルタ18に設定
し、端子11からの入力信号を各対応フレームについて
フィルタ18でフィルタリング処理して入力信号中の雑
音成分を抑圧する(S8 )。フィルタ18でフィルタリ
ング処理された信号は必要に応じて音声符号化されて伝
送又は蓄積される。
The filter coefficient is calculated by using the statistics of the voice and noise adaptively corrected in this way (S
7 ), the filter coefficient is set in the Kalman filter 18, and the input signal from the terminal 11 is filtered by the filter 18 for each corresponding frame to suppress the noise component in the input signal (S 8 ). The signal filtered by the filter 18 is voice-encoded as necessary and transmitted or stored.

【0017】このように無音区間、つまり状態20で雑
音の統計量を推定しているため高い精度の推定が実現で
き、予め雑音の統計量推定を行う手数がなく、また1つ
の収録系で済み、かつ雑音状態が変化すると、これに応
じた雑音の統計量が推定され、それだけ良好に雑音を軽
減することができる。また状態に応じて雑音の軽減度が
強くされたり、弱くされたり適応的に変化され、雑音軽
減が効果的に行われる。
Since the noise statistic is estimated in the silent section, that is, the state 20 as described above, highly accurate estimation can be realized, there is no need to preliminarily estimate the noise statistic, and only one recording system is required. When the noise state changes, the noise statistic corresponding to this is estimated, and the noise can be reduced satisfactorily. In addition, the noise reduction degree is strengthened, weakened, or adaptively changed according to the state, and the noise reduction is effectively performed.

【0018】状態数や状態の定義などは上記例に限られ
るものではない。例えば、上述の実施例においては話頭
と話尾をあわせて状態21として定義していたが、話頭
を状態21とし話尾を状態23とし、図5に示すように
状態23においては、音声信号の電力に乗ずる係数を徐
々に小さくする、例えば、0.9,0.89,0.8
8,0.87・・・,0.7のように徐々に小さい値を
乗ずる。この操作により、有音つまり状態21又は22
から無音つまり状態20に移行した場合、同一状態20
と判定されても状態の遷移に応じて乗数aを制御するこ
とにより、この例では雑音が徐々に軽減され、聴感上の
自然感が得られる。
The number of states and the definition of the states are not limited to the above example. For example, in the above-described embodiment, the head and tail are combined and defined as the state 21, but the head is set to the state 21 and the tail is set to the state 23. In the state 23, as shown in FIG. The coefficient by which the power is multiplied is gradually reduced, for example, 0.9, 0.89, 0.8
Multiply by gradually smaller values such as 8, 0.87, ..., 0.7. By this operation, the sound, that is, the state 21 or 22
If there is no sound, that is, if there is a transition to state 20, the same state 20
Even if it is determined that the noise is gradually reduced in this example by controlling the multiplier a in accordance with the state transition, a natural sense of hearing can be obtained.

【0019】さらに状態遷移が複雑な場合の実施例を図
7に示す。図3に示した実施例よりも状態数が増え状態
遷移も多様になっている。この実施例においては、雑音
が重畳していない場合に誤って雑音軽減処理を行うこと
を防止するために、図7に示す構成をとっている。図7
における状態遷移の条件を図8および図9に示し、これ
ら図8および図9における各変数の説明を以下に示す。
FIG. 7 shows an embodiment when the state transition is more complicated. The number of states is increased and the state transitions are diversified as compared with the embodiment shown in FIG. In this embodiment, in order to prevent erroneous noise reduction processing when noise is not superimposed, the configuration shown in FIG. 7 is adopted. Figure 7
8 and 9 show the conditions for state transition in FIG. 8 and the explanation of each variable in FIGS. 8 and 9 is given below.

【0020】 P :入力信号の1サンプルあたりの平均電力。 Pratio :現フレームの平均電力をP,ひとつ前のフレ
ームの平均電力をP’とすると、Pratio =P/P’ st-cnt :遷移制御補助変数。初期値は8。遷移条件
(a1,b1,d1,e1,f1,g1,j1)におい
て1減ぜられる。また、番号(e1)において、8に初
期化される。
P: Average power per sample of the input signal. Pratio: If the average power of the current frame is P and the average power of the previous frame is P ', then Pratio = P / P'st-cnt: auxiliary variable for transition control. The initial value is 8. It is decremented by 1 under the transition conditions (a1, b1, d1, e1, f1, g1, j1). Also, the number (e1) is initialized to 8.

【0021】 Ps1, Pn,Psp:定数。入力音声の平均電力に対するし
きい値。Ps1=3.0,Pn =640.0,Psp=2500.
0 spg :変数。無次元数。初期値は1.0である。遷移条件
(i2)かつ‘P≦PspまたはPratio ≦0.3またはP
ratio ≧1.0/0.3’が10回連続成立した場合には、
psg=3.0×Pmin /Pspとする。遷移条件(c1)に
おいて1.0にセットされる。
Ps1, Pn, Psp: constants. Threshold for average power of input voice. Ps1 = 3.0, Pn = 640.0, Psp = 2500.
0 spg: Variable. Dimensionless number. The initial value is 1.0. Transition condition (i2) and'P ≤ Psp or Ratio ≤ 0.3 or P
When ratio ≧ 1.0 / 0.3 'is satisfied 10 times in a row,
Let psg = 3.0 × Pmin / Psp. It is set to 1.0 in the transition condition (c1).

【0022】 Pmin :Pmin =MIN(Pmin,P)(番号(i2)か
つ‘P≦PspまたはPratio ≦0.3またはPratio ≧1.
0/0.3’が成立した場合)Pmin=正の最大値(その
他の場合) Pow10:電力の次元を持つ変数。初期値は0.0とする。
番号(e2)において、Pow10=0.9×Pow10+0.1×
Pの処理がなされる。
Pmin: Pmin = MIN (Pmin, P) (number (i2) and'P ≦ Psp or Pratio ≦ 0.3 or Pratio ≧ 1.
0 / 0.3 'is satisfied) Pmin = maximum positive value (other cases) Pow10: a variable having a dimension of electric power. The initial value is 0.0.
In the number (e2), Pow10 = 0.9 × Pow10 + 0.1 ×
Process P is performed.

【0023】 Pow10cnt :変数。初期値は0とする。番号(e2)に
おいて、Pow10cnt =Pow10cnt +1( Pow10>2.0×
Pn の場合)Pow10cnt =0(Pow10≦2.0×Pn の場
合)の処理がなされる。 Pr :Pr =P/Pow20 Pow20:Pow20=P(条件d1の時),Pow20=0.9×
Pow20=0.1×P(条件l1の時),Pow20=Min
(P)(st22が50回連続した場合) K :K=(1.0− ref1× ref1)×(1.0− ref
2× ref2)で求められる。ただし ref1および ref2
は、入力を2次の線型予測フィルタに通したときのkパ
ラメータである。
Pow10cnt: Variable. The initial value is 0. In the number (e2), Pow10cnt = Pow10cnt + 1 (Pow10> 2.0 ×
In the case of Pn), the processing of Pow10cnt = 0 (in the case of Pow10 ≦ 2.0 × Pn) is performed. Pr: Pr = P / Pow20 Pow20: Pow20 = P (when condition d1), Pow20 = 0.9 x
Pow20 = 0.1 × P (when condition l1), Pow20 = Min
(P) (when st22 continues 50 times) K: K = (1.0-ref1 x ref1) x (1.0-ref)
2 x ref2) required. However ref1 and ref2
Is the k parameter when the input is passed through a quadratic linear prediction filter.

【0024】 Var :入力を2次の線型予測フィルタに通したときの
残差の電力。 sstt :0,2,4,6,8,10のいずれかの値をと
る。遷移条件(k1,k2,l1,m1,o1,o2,
p1,q1,s1,t1,t2)において、以下の計算
式に基づいて値が求められる。ただし、Var' をひとつ
前のフレームのVarの値として、Ratio=Var' /Var
で定義される。
Var: The power of the residual when the input is passed through the second-order linear prediction filter. sstt: Takes any value of 0, 2, 4, 6, 8, and 10. Transition conditions (k1, k2, l1, m1, o1, o2
In p1, q1, s1, t1, t2), the value is calculated based on the following calculation formula. However, if Var ′ is the value of Var of the previous frame, Ratio = Var ′ / Var
Is defined by

【0025】 sstt=0またはsstt=2の時: 0.6<Ratio<1.4:sstt=sstt+2 0.5<Ratio≦0.6または1.4≦Ratio<1.5:sstt=
2 Ratio≦0.5または1.5≦Ratio:sstt=2 sstt=4の時: 0.7<Ratio<1.3:sstt=6 0.6<Ratio≦0.7または1.3≦Ratio<1.4:sstt=
4 0.5<Ratio≦0.6または1.4≦Ratio<1.5:sstt=
2 Ratio≦0.5または1.5≦Ratio:sstt=0 sstt=6の時: 0.8<Ratio<1.2:sstt=8 0.7<Ratio≦0.7または1.2≦Ratio<1.3:sstt=
6 0.6<Ratio≦0.7または1.3≦Ratio<1.4:sstt=
4 0.5<Ratio≦0.6または1.4≦Ratio<1.5:sstt=
2 Ratio≦0.5または1.5≦Ratio:sstt=0 sstt=8またはsstt=10の時: 0.9<Ratio<1.1:sstt=10 0.8<Ratio≦0.9または1.1≦Ratio<1.2:sstt=
8 0.7<Ratio≦0.7または1.2≦Ratio<1.3:sstt=
6 0.6<Ratio≦0.7または1.3≦Ratio<1.4:sstt=
4 0.5<Ratio≦0.6または1.4≦Ratio<1.5:sstt=
2 Ratio≦0.5または1.5≦Ratio:sstt=0 図7の状態10及び11は、背景雑音が十分小さいと推
定されている状態である。これらの状態から他の状態
(20以上)への遷移条件を十分厳しくすることで、背
景雑音が無いにも係わらず雑音軽減のフィルタ動作を誤
って行うことを避けることを可能としている。
When sstt = 0 or sstt = 2: 0.6 <Ratio <1.4: sstt = sstt + 2 0.5 <Ratio ≦ 0.6 or 1.4 ≦ Ratio <1.5: sstt =
2 Ratio ≦ 0.5 or 1.5 ≦ Ratio: When sstt = 2 sstt = 4: 0.7 <Ratio <1.3: sstt = 6 0.6 <Ratio ≦ 0.7 or 1.3 ≦ Ratio <1.4: sstt =
4 0.5 <Ratio ≦ 0.6 or 1.4 ≦ Ratio <1.5: sstt =
2 Ratio ≦ 0.5 or 1.5 ≦ Ratio: When sstt = 0 and sstt = 6: 0.8 <Ratio <1.2: sstt = 8 0.7 <Ratio ≦ 0.7 or 1.2 ≦ Ratio <1.3: sstt =
6 0.6 <Ratio ≦ 0.7 or 1.3 ≦ Ratio <1.4: sstt =
4 0.5 <Ratio ≦ 0.6 or 1.4 ≦ Ratio <1.5: sstt =
2 Ratio ≦ 0.5 or 1.5 ≦ Ratio: When sstt = 0 or sstt = 8 or sstt = 10: 0.9 <Ratio <1.1: sstt = 10 0.8 <Ratio ≦ 0.9 or 1 .1 ≦ Ratio <1.2: sstt =
8 0.7 <Ratio ≦ 0.7 or 1.2 ≦ Ratio <1.3: sstt =
6 0.6 <Ratio ≦ 0.7 or 1.3 ≦ Ratio <1.4: sstt =
4 0.5 <Ratio ≦ 0.6 or 1.4 ≦ Ratio <1.5: sstt =
2 Ratio ≦ 0.5 or 1.5 ≦ Ratio: sstt = 0 States 10 and 11 in FIG. 7 are states in which the background noise is estimated to be sufficiently small. By making the transition conditions from these states to other states (20 or more) sufficiently strict, it is possible to avoid erroneous filter operation for noise reduction despite the absence of background noise.

【0026】通常はカルマンフィルタ18の係数はサン
プルごとに計算する。この係数の計算に必要となる処理
量はフィルタリング動作そのものよりも大きい。一方、
フィルタリング係数の計算に用いるARモデル係数およ
び電力の値はフレーム(例えば1フレームのサンプル数
Nは160)ごとに一定値をとるため、フィルタリング
係数はフレームの後半で一定値に収束していく。そこ
で、全サンプルごとにフィルタの係数を更新するのでは
なく、フレームの先頭のnサンプル、例えば3サンプル
においてはフィルタの係数を更新し、かつ得られた係数
を用いてフィルタリング処理を行い、残りの(N−n)
サンプルについてはフィルタの係数は更新せず、nサン
プル目に得られた係数を用いてフィルタリングを行う。
このようにして計算量および処理時間を少なくすること
ができる。
Normally, the coefficient of the Kalman filter 18 is calculated for each sample. The amount of processing required to calculate this coefficient is larger than the filtering operation itself. on the other hand,
Since the AR model coefficient and the power value used for the calculation of the filtering coefficient take a constant value for each frame (for example, the number of samples N in one frame is 160), the filtering coefficient converges to a constant value in the latter half of the frame. Therefore, instead of updating the filter coefficient for every sample, the filter coefficient is updated for the first n samples of the frame, for example, 3 samples, and the filtering process is performed using the obtained coefficient to (N-n)
For the sample, the filter coefficient is not updated, and filtering is performed using the coefficient obtained at the nth sample.
In this way, the calculation amount and processing time can be reduced.

【0027】上述において入力信号電力に乗じる係数a
は、推定される雑音電力や音声電力のレベルに応じて適
応的に制御する。つまり雑音電力が小さい、または入力
のSRN(信号対雑音比)が高い場合には、上記のよう
にカルマンフィルタ18が強く動作する方向に設定し、
雑音電力が大きい、または入力のSRNが低い場合に
は、逆にカルマンフィルタ18が弱く動作する方向に設
定する。入力のSNRが低い場合に強い雑音軽減を行う
と、音声信号の不自然感が増加することになり、これを
避けるための係数aを適応的に制御する。入力のSNR
に応じ係数aは例えば図10Aに示すように、SNRの
小さい所で大きな値を、SNRの大きい所で小さな値
を、これら中間で直線的に変化させる。
In the above description, the coefficient a by which the input signal power is multiplied
Performs adaptive control according to the estimated noise power level and voice power level. That is, when the noise power is small or the input SRN (signal-to-noise ratio) is high, the direction in which the Kalman filter 18 strongly operates as described above is set,
When the noise power is high or the input SRN is low, the Kalman filter 18 is set to operate weakly. If strong noise reduction is performed when the input SNR is low, unnaturalness of the audio signal increases, and the coefficient a for avoiding this is adaptively controlled. Input SNR
10A, the coefficient a is linearly changed between a large value at a small SNR and a small value at a large SNR, as shown in FIG. 10A.

【0028】更に図10Bに示すように、入力信号の振
幅が所定値以下、つまり最大振幅のα分の1以下(例え
ば最大振幅を1とする時、α=1000とする)で入力
信号振幅をゼロとした後、図2に示した処理を行うよう
にし、つまり入力信号が小レベルの時は、雑音とみな
し、これを抑圧してしまうようにしてもよい。図10C
に示すように、入力信号の電力が所定値β(例えばβ/
最大入力電力=30dB)以下ではその電力に応じて入
力信号を減衰させるようにしてもよい。つまりいわゆる
エクスパンダと同様の処理をした後、図2に示した処理
を行うようにしてもよい。このエクスパンダによる減衰
に時間的な(時定数を用いた)制御を適用してもよい。
このエクスパンダ処理は例えば研究実用化報告第30巻
第3号(1981)187〜195頁「800MHz帯
自動車電話方式におけるシラビック・コンパンダの適用
とその効果」に記載されているシラビック・コンパンダ
中のエクスパンダと同様に時定数を持たせ、そのアタッ
クタイムは例えば3.0±0.1mS程度、リカバリタ
イムは1.35±0.6mS程度とすればよい。
Further, as shown in FIG. 10B, when the amplitude of the input signal is a predetermined value or less, that is, 1 / α or less of the maximum amplitude (for example, when the maximum amplitude is 1, α = 1000), After setting to zero, the process shown in FIG. 2 may be performed, that is, when the input signal is at a low level, it may be regarded as noise and suppressed. Figure 10C
, The power of the input signal is a predetermined value β (eg β /
Below the maximum input power = 30 dB), the input signal may be attenuated according to the power. That is, the processing shown in FIG. 2 may be performed after the processing similar to that of a so-called expander. Time-based (using a time constant) control may be applied to the attenuation by the expander.
This expander process is described in, for example, Research and Practical Report Vol. As with the panda, a time constant may be provided, the attack time may be, for example, about 3.0 ± 0.1 mS, and the recovery time may be about 1.35 ± 0.6 mS.

【0029】これら図10に示した各種信号処理は、入
力信号自体のレベル(つまり、振幅又は電力)を利用し
て行う場合に限らず、推定雑音統計量又は推定音声統計
量の電力を用いてもよい。更にこれら信号処理は図11
Aに示すように信号処理手段31で行った後、図2に示
す雑音軽減手段32へ供給する場合に限らず、図11B
に示すように雑音軽減手段32の出力に対して図10に
示した各種処理を行ってもよい。
The various signal processes shown in FIG. 10 are not limited to the case where the level (that is, the amplitude or the power) of the input signal itself is used, but the power of the estimated noise statistic or the estimated voice statistic is used. Good. Further, these signal processes are shown in
11B as well as the case where the signal processing means 31 performs the processing as shown in A and then supplies the noise reduction means 32 shown in FIG.
The various processes shown in FIG. 10 may be performed on the output of the noise reduction means 32 as shown in FIG.

【0030】図2に示した雑音軽減手段32により処理
した信号を図11Cに音声符号化手段33で符号化して
出力してもよい。この符号化手段33としては例えばV
SELP,PSI−CELP(信学技報RC593−7
8−1993年11月「Pitch Synchron
ous Innovation CELP(PSI−C
ELP)」)などが用いられる。
The signal processed by the noise reducing means 32 shown in FIG. 2 may be encoded by the voice encoding means 33 and output in FIG. 11C. As the encoding means 33, for example, V
SELP, PSI-CELP (Technical Report RC593-7
8-November 1993 "Pitch Syncron
ous Innovation CELP (PSI-C
ELP) ”) and the like are used.

【0031】図11Dに示すように雑音軽減手段32と
当符号化手段33との間に図10に示した処理手段31
を挿入してもよい。図11Eに示すように、音声符号化
手段33と対応した音声復号化手段34の出力側に雑音
軽減手段32を設けてもよい。また図に示していない
が、図11Eにおいて、雑音軽減手段32の前段又は後
段に信号処理手段31を設けてもよい。
As shown in FIG. 11D, the processing means 31 shown in FIG. 10 is provided between the noise reduction means 32 and the coding means 33.
May be inserted. As shown in FIG. 11E, the noise reducing means 32 may be provided on the output side of the audio decoding means 34 corresponding to the audio encoding means 33. Although not shown in the figure, in FIG. 11E, the signal processing means 31 may be provided before or after the noise reduction means 32.

【0032】図1において、ステップS6 の統計量の修
正を省略してもよい、これが請求項1の発明の実施例と
なる。また図1においてステップS3 の無音区間か否か
のチェック、およびステップS4 の雑音統計量の推定を
省略し、通話に先立ち、雑音の統計量の推定を行い、こ
の推定統計量を用い、各フレームの状態に応じて、統計
量を適応的に修正してもよい。これは請求項4の発明の
実施例であり、固定通信のように雑音状態が大きく変動
しない場合に特に有効である。更に音声用マイクロホン
の他に雑音用マイクロホンを設け、音声用マイクロホン
よりの入力信号から音声の統計量を推定し、雑音用マイ
クロホンの入力信号から雑音の統計量を推定し、両入力
信号から各種の状態や、状態遷移を検出して、これに応
じて統計量を適応的に修正するようにしてもよい。これ
は請求項3の発明である。
In FIG. 1, the modification of the statistic in step S 6 may be omitted. This is an embodiment of the invention of claim 1. Also, in FIG. 1, the check of whether or not there is a silent section in step S 3 , and the estimation of the noise statistic in step S 4 are omitted, the noise statistic is estimated prior to the call, and this estimated statistic is used. The statistics may be adaptively modified according to the state of each frame. This is an embodiment of the invention of claim 4 and is particularly effective in the case where the noise state does not fluctuate significantly like in fixed communication. In addition to the voice microphone, a noise microphone is provided, the voice statistic is estimated from the input signal from the voice microphone, the noise statistic is estimated from the input signal of the noise microphone, and various types of noise are estimated from both input signals. A state or a state transition may be detected, and the statistic may be adaptively corrected accordingly. This is the invention of claim 3.

【0033】図10、図11において雑音軽減手段32
としては、請求項1,2の発明のみならず請求項3又は
4の発明にも適用される。フィルタリング処理としては
カルマンフィルタ処理に限らない。
10 and 11, noise reducing means 32
This applies not only to the invention of claims 1 and 2, but also to the invention of claim 3 or 4. The filtering process is not limited to the Kalman filter process.

【0034】[0034]

【発明の効果】以上述べたように請求項1の発明によれ
ば、通話に先立ち雑音の統計量の推定をいちいち行う手
間がはぶける、また、1つの収録系でよく、システムコ
ストが安価になり、しかも移動通信のように雑音状態が
時間的に変動する場合、この変動に追従して雑音の統計
量の推定が行われ、それだけ良好に雑音軽減が行われ
る。
As described above, according to the first aspect of the invention, it is possible to avoid the trouble of estimating the statistical amount of noise each time before making a call, and only one recording system is required, and the system cost can be reduced. In addition, when the noise state fluctuates with time as in mobile communication, noise statistic estimation is performed following this fluctuation, and noise reduction is performed accordingly.

【0035】請求項3の発明によれば入力信号の短時間
ごとの状態に応じて、雑音軽減が強められたり、弱めら
れたりして、聴感性がよいものとなる。請求項2の発明
によれば、前記請求項1および2の発明の効果を合せも
つ。請求項9の発明によれば計算量が少なくなり処理時
間が速くなる。請求項2の発明を適用した場合の入力信
号(雑音軽減前)のSN比と、出力信号(雑音軽減後)
のSN比との関係を図6に示す。この図から出力信号の
SN比は入力信号のSN比よりも常に大となっており、
特に入力信号が存在しない場合、つまり背景雑音のみの
場合に適用効果が大きくなっていることがわかる。
According to the third aspect of the invention, noise reduction is strengthened or weakened according to the state of the input signal for each short time, and the audibility is improved. According to the invention of claim 2, the effects of the inventions of claims 1 and 2 are combined. According to the invention of claim 9, the amount of calculation is reduced and the processing time is shortened. SN ratio of input signal (before noise reduction) and output signal (after noise reduction) when the invention of claim 2 is applied
The relationship with the SN ratio of is shown in FIG. From this figure, the SN ratio of the output signal is always larger than the SN ratio of the input signal,
It can be seen that the application effect is particularly large when there is no input signal, that is, when there is only background noise.

【0036】以上のようにこの発明によれば雑音軽減効
果が大きく、従って音声信号を各種の符号化を行う際
に、符号化に先立ってこの発明による雑音軽減処理を行
うことにより、良品質な符号化音声信号を得ることがで
きる。
As described above, according to the present invention, the noise reduction effect is large, and therefore, when various kinds of encoding of the voice signal are performed, the noise reduction processing according to the present invention is performed prior to the encoding to obtain a good quality. A coded voice signal can be obtained.

【図面の簡単な説明】[Brief description of drawings]

【図1】請求項2の発明の実施例を示す流れ図。FIG. 1 is a flow chart showing an embodiment of the invention of claim 2;

【図2】請求項2の発明を適用した雑音軽減装置を示す
ブロック図。
FIG. 2 is a block diagram showing a noise reduction device to which the invention of claim 2 is applied.

【図3】Aは入力信号の状態の定義例を示す図、Bは入
力信号の状態遷移を示す図である。
3A is a diagram showing a definition example of a state of an input signal, and FIG. 3B is a diagram showing a state transition of an input signal.

【図4】請求項2の発明における各状態における推定統
計量の修正例を示す図。
FIG. 4 is a diagram showing a modified example of the estimated statistic in each state in the invention of claim 2;

【図5】その他の例を示す図。FIG. 5 is a diagram showing another example.

【図6】請求項2の発明を適用した場合の入力信号のS
/Nと、出力信号のS/Nとの関係例を示す図。
FIG. 6 is an S of an input signal when the invention of claim 2 is applied.
9 is a diagram showing an example of the relationship between / N and S / N of an output signal. FIG.

【図7】Aは入力信号の状態の定義の他の例を示す図、
Bは入力信号の状態遷移の他の例を示す図である。
FIG. 7A is a diagram showing another example of the definition of the state of the input signal;
B is a diagram showing another example of the state transition of the input signal.

【図8】図7における状態遷移の条件を示す図。FIG. 8 is a diagram showing conditions of state transition in FIG. 7.

【図9】図8の続きを示す図。FIG. 9 is a view showing a continuation of FIG. 8;

【図10】雑音軽減処理の前後に用いられる各種信号処
理の特性例を示す図。
FIG. 10 is a diagram showing a characteristic example of various signal processes used before and after the noise reduction process.

【図11】A及びBは雑音軽減手段と信号処理手段との
組合せを示すブロック図、雑音軽減手段と音声符号化、
復号化手段との組合せを示すブロック図である。
11A and 11B are block diagrams showing a combination of noise reduction means and signal processing means, noise reduction means and speech coding,
It is a block diagram which shows the combination with a decoding means.

Claims (9)

【特許請求の範囲】[Claims] 【請求項1】 入力信号から音声の統計量を推定し、こ
の音声の統計量と、 上記入力信号中の雑音の統計量とを用いてフィルタ係数
を算出し、そのフィルタ係数により上記入力信号をフィ
ルタリング処理する雑音軽減方法において、 上記入力信号中の無音区間を検出し、 その検出した無音区間における上記入力信号から上記雑
音の統計量を推定することを特徴とする雑音軽減方法。
1. A voice statistic is estimated from an input signal, a filter coefficient is calculated using the voice statistic and a noise statistic in the input signal, and the input signal is calculated by the filter coefficient. A noise reduction method for filtering, comprising detecting a silent section in the input signal and estimating a statistical amount of the noise from the input signal in the detected silent section.
【請求項2】 入力信号中の音声と雑音との状態を予め
決めた状態に区分し、その各状態をフレーム状態テーブ
ルとして記憶しておき、 上記入力信号を一定時間(フレーム)ごとに処理して上
記フレーム状態テーブルを参照して各フレームの状態を
決定し、 その決定されたフレーム状態に応じて上記音声の統計量
と上記雑音の統計量とを適応的に修正することを特徴と
する請求項1記載の雑音軽減方法。
2. The state of voice and noise in an input signal is divided into predetermined states, each state is stored as a frame state table, and the input signal is processed at regular time intervals (frames). And determining the state of each frame by referring to the frame state table, and adaptively correcting the voice statistic and the noise statistic according to the determined frame state. The noise reduction method according to Item 1.
【請求項3】 音声用マイクロホンにより収録した入力
信号から音声の統計量を推定し、雑音用マイクロホンに
より収録した入力信号から雑音の統計量を推定し、上記
音声の推定統計量と上記雑音の推定統計量とを用いてフ
ィルタ係数を算出し、そのフィルタ係数により上記入力
信号をフィルタリング処理する雑音軽減方法において、 入力信号中の音声と雑音との状態を予め決めた状態に区
分し、その各状態をフレーム状態テーブルとして記憶し
ておき、 上記両入力信号を一定時間(フレーム)ごとに処理して
上記フレーム状態テーブルを参照して各フレームの状態
を決定し、 その決定されたフレーム状態に応じて上記音声の統計量
と上記雑音の統計量とを適応的に修正することを特徴と
する雑音軽減方法。
3. A voice statistical amount is estimated from an input signal recorded by a voice microphone, a noise statistical amount is estimated from an input signal recorded by a noise microphone, and the voice estimated statistics amount and the noise estimation are estimated. In the noise reduction method that calculates the filter coefficient using the statistic and the input signal is filtered by the filter coefficient, the state of voice and noise in the input signal is divided into predetermined states, and each state is divided. Is stored as a frame state table, the both input signals are processed at fixed time intervals (frames), the state of each frame is determined by referring to the frame state table, and the state of each frame is determined according to the determined frame state. A noise reduction method comprising adaptively correcting the voice statistic and the noise statistic.
【請求項4】 入力信号から音声の統計量を推定し、こ
の音声の統計量と雑音の統計量とを用いてフィルタ係数
を算出し、そのフィルタ係数により上記入力信号をフィ
ルタリング処理する雑音軽減方法において、 上記雑音の統計量を、通話前の無音区間における入力信
号から推定し、 入力信号中の音声と雑音との状態を予め決めた状態に区
分し、その各状態をフレーム状態テーブルとして記憶し
ておき、 上記入力信号を一定時間(フレーム)ごとに処理して上
記フレーム状態テーブルを参照して各フレームの状態を
決定し、 その決定されたフレーム状態に応じて上記音声の統計量
と上記雑音の統計量とを適応的に修正することを特徴と
する雑音軽減方法。
4. A noise reduction method for estimating a voice statistic from an input signal, calculating a filter coefficient using the voice statistic and noise statistic, and filtering the input signal with the filter coefficient. In the above, the statistics of the noise are estimated from the input signal in the silent section before the call, the states of the voice and noise in the input signal are divided into predetermined states, and each state is stored as a frame state table. The input signal is processed at regular intervals (frames), the state of each frame is determined by referring to the frame state table, and the statistics of the voice and the noise are determined according to the determined frame state. A noise reduction method characterized by adaptively modifying the statistic of and.
【請求項5】 上記適応的修正を上記状態の遷移に応じ
て行うことを特徴とする請求項2乃至4の何れかに記載
の雑音軽減方法。
5. The noise reduction method according to claim 2, wherein the adaptive correction is performed according to the transition of the state.
【請求項6】 信号対雑音比又は雑音電力に応じて上記
適応的修正の修正量を、適応的に制御することを特徴と
する請求項2乃至5の何れかに記載の雑音軽減方法。
6. The noise reduction method according to claim 2, wherein the correction amount of the adaptive correction is adaptively controlled according to a signal-to-noise ratio or noise power.
【請求項7】 上記入力信号又は出力信号が所定値以下
で、その入力信号又は出力信号をそのレベルに応じて減
衰させることを特徴とする請求項1乃至6の何れかに記
載の雑音軽減方法。
7. The noise reduction method according to claim 1, wherein the input signal or the output signal is equal to or less than a predetermined value, and the input signal or the output signal is attenuated according to the level thereof. .
【請求項8】 上記減衰に時間的制御を行うことを特徴
とする請求項7記載の雑音軽減方法。
8. The noise reduction method according to claim 7, wherein the attenuation is temporally controlled.
【請求項9】 各フレームの先頭のnサンプル(nは
2以上の整数で1フレームのサンプルの数Nより小)に
おいては各サンプルごとに上記フィルタ係数の更新を行
い、残りの(N−n)サンプルではフィルタ係数の更新
を行わないことを特徴とする請求項1乃至8の何れかに
記載の雑音軽減方法。
9. In the first n samples of each frame (n is an integer of 2 or more and smaller than the number N of samples of one frame), the filter coefficient is updated for each sample, and the remaining (N−n 9. The noise reduction method according to claim 1, wherein the filter coefficient is not updated in the sample.
JP10537294A 1993-05-19 1994-05-19 Noise reduction method Expired - Lifetime JP3205463B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10537294A JP3205463B2 (en) 1993-05-19 1994-05-19 Noise reduction method

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP5-117127 1993-05-19
JP11712793 1993-05-19
JP10537294A JP3205463B2 (en) 1993-05-19 1994-05-19 Noise reduction method

Publications (2)

Publication Number Publication Date
JPH0738454A true JPH0738454A (en) 1995-02-07
JP3205463B2 JP3205463B2 (en) 2001-09-04

Family

ID=26445674

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10537294A Expired - Lifetime JP3205463B2 (en) 1993-05-19 1994-05-19 Noise reduction method

Country Status (1)

Country Link
JP (1) JP3205463B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008058876A (en) * 2006-09-04 2008-03-13 Nippon Telegr & Teleph Corp <Ntt> Method of deducing sound signal segment, and device and program and storage medium thereof
JP2008145923A (en) * 2006-12-13 2008-06-26 Nippon Telegr & Teleph Corp <Ntt> Speech signal section estimating device, method thereof, program thereof, and recording medium
CN112002339A (en) * 2020-07-22 2020-11-27 海尔优家智能科技(北京)有限公司 Voice noise reduction method and device, computer-readable storage medium and electronic device

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008058876A (en) * 2006-09-04 2008-03-13 Nippon Telegr & Teleph Corp <Ntt> Method of deducing sound signal segment, and device and program and storage medium thereof
JP2008145923A (en) * 2006-12-13 2008-06-26 Nippon Telegr & Teleph Corp <Ntt> Speech signal section estimating device, method thereof, program thereof, and recording medium
JP4673828B2 (en) * 2006-12-13 2011-04-20 日本電信電話株式会社 Speech signal section estimation apparatus, method thereof, program thereof and recording medium
CN112002339A (en) * 2020-07-22 2020-11-27 海尔优家智能科技(北京)有限公司 Voice noise reduction method and device, computer-readable storage medium and electronic device
CN112002339B (en) * 2020-07-22 2024-01-26 海尔优家智能科技(北京)有限公司 Speech noise reduction method and device, computer-readable storage medium and electronic device

Also Published As

Publication number Publication date
JP3205463B2 (en) 2001-09-04

Similar Documents

Publication Publication Date Title
US9990938B2 (en) Detector and method for voice activity detection
US5598506A (en) Apparatus and a method for concealing transmission errors in a speech decoder
EP0661689B1 (en) Noise reducing method, noise reducing apparatus and telephone set
JP4897173B2 (en) Noise suppression
US7698135B2 (en) Voice detecting method and apparatus using a long-time average of the time variation of speech features, and medium thereof
EP1332493B1 (en) Improved spectral parameter substitution for the frame error concealment in a speech decoder
US8364480B2 (en) Method and apparatus for controlling echo in the coded domain
KR100667008B1 (en) Complex signal activity detection for improved speech/noise classification of an audio signal
JP3273599B2 (en) Speech coding rate selector and speech coding device
EP1887559B1 (en) Yule walker based low-complexity voice activity detector in noise suppression systems
JP2006189907A (en) Method of detecting voice activity of signal and voice signal coder including device for implementing method
CN102804260A (en) Audio signal processing device and audio signal processing method
EP1112568B1 (en) Speech coding
JPH0738454A (en) Noise reduction method
JP3219467B2 (en) Audio decoding method
JP3436940B2 (en) Wireless communication device
US20100158137A1 (en) Apparatus and method for suppressing noise in receiver
JP2002006898A (en) Method and device for noise reduction
JP3275248B2 (en) Audio decoding method
US8204753B2 (en) Stabilization and glitch minimization for CCITT recommendation G.726 speech CODEC during packet loss scenarios by regressor control and internal state updates of the decoding process
JP3603470B2 (en) Voice quality improvement device
JPH0637725A (en) Radio communication equipment
JPH07336290A (en) Vox control communication device
JPH04324900A (en) Voice codec with comparison attenuator
JPH09297600A (en) Voice decoder

Legal Events

Date Code Title Description
R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (prs date is renewal date of database)

Year of fee payment: 7

Free format text: PAYMENT UNTIL: 20080629

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090629

Year of fee payment: 8

FPAY Renewal fee payment (prs date is renewal date of database)

Year of fee payment: 9

Free format text: PAYMENT UNTIL: 20100629

FPAY Renewal fee payment (prs date is renewal date of database)

Year of fee payment: 9

Free format text: PAYMENT UNTIL: 20100629

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110629

Year of fee payment: 10

FPAY Renewal fee payment (prs date is renewal date of database)

Year of fee payment: 11

Free format text: PAYMENT UNTIL: 20120629

FPAY Renewal fee payment (prs date is renewal date of database)

Year of fee payment: 11

Free format text: PAYMENT UNTIL: 20120629

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130629

Year of fee payment: 12

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term