WO2006046293A1 - 雑音抑圧装置 - Google Patents

雑音抑圧装置 Download PDF

Info

Publication number
WO2006046293A1
WO2006046293A1 PCT/JP2004/016027 JP2004016027W WO2006046293A1 WO 2006046293 A1 WO2006046293 A1 WO 2006046293A1 JP 2004016027 W JP2004016027 W JP 2004016027W WO 2006046293 A1 WO2006046293 A1 WO 2006046293A1
Authority
WO
WIPO (PCT)
Prior art keywords
noise
amplitude component
band
amplitude
noise suppression
Prior art date
Application number
PCT/JP2004/016027
Other languages
English (en)
French (fr)
Inventor
Takeshi Otani
Mitsuyoshi Matsubara
Kaori Endo
Yasuji Ota
Original Assignee
Fujitsu Limited
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Limited filed Critical Fujitsu Limited
Priority to CN2004800441051A priority Critical patent/CN101027719B/zh
Priority to EP04793135A priority patent/EP1806739B1/en
Priority to JP2006542170A priority patent/JP4423300B2/ja
Priority to PCT/JP2004/016027 priority patent/WO2006046293A1/ja
Publication of WO2006046293A1 publication Critical patent/WO2006046293A1/ja
Priority to US11/727,062 priority patent/US20070232257A1/en

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/18Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being spectral information of each sub-band

Definitions

  • the present invention relates to a noise suppression device, and more particularly to a noise suppression device that reduces a noise component from a speech signal on which noise is superimposed.
  • Non-Patent Document 1 and Patent Document 1 In mobile phone systems and IP (Internet Protocol) phone systems, environmental noise is input to the microphone in addition to the voice of the speaker. As a result, the audio signal is degraded and the clarity of the audio is impaired. In view of this, techniques have been developed in the past to reduce noise components from degraded speech signals and improve call quality (see, for example, Non-Patent Document 1 and Patent Document 1).
  • FIG. 1 shows a block diagram of an example of a conventional noise suppression device.
  • the time-frequency converter 10 converts the input signal X (k) of the current frame n into the frequency domain f over the time domain k for each unit time (frame), and the frequency domain signal of the input signal Find X (f).
  • the amplitude calculation unit 11 obtains an amplitude component I X (f) I (hereinafter referred to as “input amplitude component”) of the input signal from the frequency domain signal X (f).
  • Noise estimator 12 is the input amplitude component when there is no speaker's voice
  • the amplitude component (f) of the estimated noise (hereinafter referred to as “estimated noise amplitude component”) is obtained.
  • the suppression coefficient calculation unit 13 calculates a suppression coefficient G (f) from I X (f) I and z (f) according to the equation (1).
  • the noise suppression unit 14 obtains an amplitude component S (f) after noise suppression from X (f) and G (f) according to Equation (2). [0006] [Equation 2]
  • the time-frequency converter 15 converts S * n (f) from the frequency domain to the time domain, and obtains the signal s * (k) after noise suppression.
  • Non-Patent Document 1 SF Boll, "Supression of Acoustic Noise in Speech Using Spectral Subtraction", IEEE Transaction on Acoustics, Speech, and Signal Processing, ASSP— 33, vol. 27, pp. 113—120, 1979
  • the estimated noise amplitude component (f) is obtained, for example, by averaging the amplitude components of the input signal in a frame that does not include the speech of the past speaker.
  • the average (long-term) tendency of background noise is estimated based on past input amplitude components.
  • FIG. 2 shows a principle diagram of an example of a conventional suppression coefficient calculation method.
  • the suppression coefficient calculation unit 16 calculates a suppression coefficient G (f) based on the amplitude component IX (f) I of the current frame n and the estimated noise amplitude component (f), and uses this suppression coefficient as the input amplitude component.
  • the noise component contained in the input signal is suppressed by multiplying by.
  • noise estimation error an estimation error (hereinafter referred to as noise estimation error) occurs between the noise amplitude component superimposed on the current frame and the estimated noise amplitude component. Therefore, as shown in Fig. 3, the noise estimation error, which is the difference between the noise amplitude component indicated by the solid line and the estimated noise amplitude component indicated by the broken line, becomes large.
  • the noise estimation error described above causes over-suppression or under-suppression in the noise suppression device.
  • the noise estimation error fluctuates greatly from frame to frame. Insufficient pressure also fluctuates, resulting in temporal unevenness in noise suppression performance. This temporal variation in noise suppression performance produces an unusual noise known as musical noise.
  • FIG. 4 shows a principle diagram of another example of a conventional suppression coefficient calculation method.
  • This is an averaged noise suppression technology that aims to suppress abnormal noise that occurs due to over-suppression or under-suppression in noise suppression devices.
  • the amplitude smoothing unit 17 smoothes the amplitude component IX (f) I of the current frame n
  • the suppression coefficient calculation unit 18 calculates the amplitude component P (f) (hereinafter referred to as the smoothed input signal).
  • the “smoothed amplitude component”) and the estimated noise amplitude component (f) the suppression coefficient G (f) is obtained.
  • the average value of the input amplitude components for the current frame and the past several frames is defined as the smoothed amplitude component P (f).
  • This method is a simple averaging method, and the smooth ⁇ amplitude component can be obtained from Eq. (3).
  • the smoothed amplitude component P (f) is an n n-1 weighted average value of the amplitude component I X (f) I of the current frame and the smoothed amplitude component P (f) of the previous frame. This is called exponential smoothing, and the smoothed amplitude component can be obtained from Eq. (4).
  • the suppression coefficient is obtained based on the smooth noise amplitude component having a large speech estimation error and the estimated noise amplitude, and the input amplitude component is multiplied by the suppression coefficient, the voice component included in the input signal is erroneously detected. There was a problem that the sound quality was deteriorated. This phenomenon is particularly noticeable at the beginning of speech (the beginning of speech).
  • the present invention has been made in view of the above points, and provides a noise suppression device that realizes stable noise suppression performance while suppressing the occurrence of musical noise and minimizing the influence on speech. This is the general purpose.
  • the present invention provides an amplitude calculation means for obtaining an amplitude component of an input signal for each band, and an estimated noise amplitude component for each band by estimating an amplitude component of noise of the input signal.
  • Noise estimation means for generating a different weighting factor for each band, and a smoothing amplitude component for each band by smoothing the amplitude component of the input signal in time using a different weighting factor for each band Amplitude smoothing means to be obtained, and the smoothed amplitude component.
  • a suppression amount calculation means for obtaining a suppression coefficient for each band from the estimated noise amplitude component and a noise suppression means for obtaining and outputting a speech signal in which noise is suppressed from the input signal and the suppression coefficient for each band.
  • noise suppression device According to such a noise suppression device, it is possible to achieve stable noise suppression performance by minimizing the influence on speech while suppressing the generation of musical noise.
  • FIG. 1 is a block diagram of an example of a conventional noise suppression device.
  • FIG. 2 is a principle diagram of an example of a conventional suppression coefficient calculation method.
  • FIG. 3 is a diagram for explaining a conventional noise estimation error.
  • FIG. 5 is a diagram for explaining a conventional noise estimation error.
  • FIG. 6 is a diagram for explaining a conventional speech estimation error.
  • FIG. 7 is a principle diagram for calculating a suppression coefficient in the present invention.
  • FIG. 8 is a principle diagram for calculating a suppression coefficient in the present invention.
  • FIG. 9 is a configuration diagram of an amplitude smoothing unit when an FIR filter is used.
  • FIG. 10 is a configuration diagram of an amplitude smoothing unit when an IIR filter is used.
  • FIG. 11 is a diagram showing an example of a weighting coefficient in the present invention.
  • FIG. 12 is a diagram showing a relational expression for obtaining a suppression coefficient from a smoothed amplitude component and an estimated noise amplitude component.
  • FIG. 13 is a diagram for explaining a noise estimation error of the present invention.
  • FIG. 14 is a diagram for explaining speech estimation errors according to the present invention.
  • FIG. 15 is a waveform diagram of an audio input signal on which noise is superimposed.
  • FIG. 16 is a waveform diagram of an output audio signal of a conventional noise suppression device.
  • FIG. 17 is a waveform diagram of an output audio signal of the noise suppression device of the present invention.
  • FIG. 18 is a block diagram of a first embodiment of a noise suppression device of the present invention.
  • FIG. 19 is a block diagram of a second embodiment of the noise suppression apparatus of the present invention.
  • FIG. 20 is a block diagram of a third embodiment of the noise suppression apparatus of the present invention.
  • FIG. 21 is a diagram showing a nonlinear function func.
  • FIG. 22 is a block diagram of a fourth embodiment of the noise suppression device of the present invention.
  • FIG. 26 is a block diagram of another embodiment of a mobile phone to which the device of the present invention is applied.
  • FIG. 7 and FIG. 8 show the principle diagrams of the calculation of the suppression coefficient in the present invention.
  • the input amplitude component is smoothed before the suppression coefficient is calculated.
  • the smooth w ⁇ amplitude component P ⁇ is obtained using the number w (f).
  • the suppression coefficient calculation unit 22 performs smooth vibration mn
  • the suppression coefficient G (f) is obtained based on the width component P (f) and the estimated noise amplitude component (f).
  • the weighting factor calculation unit 23 calculates a feature amount (signal-to-noise ratio, input signal amplitude, etc.) from the input amplitude component, and adaptively calculates the weighting factor w (f) based on the feature amount.
  • the amplitude smoothing unit 21 uses the amplitude component I X (f) I of the current frame n and the weighting factor w (f) from the weighting factor calculation unit 23 to obtain a smoothing amplitude component P (f).
  • Suppression coefficient calculator 22 uses the amplitude component I X (f) I of the current frame n and the weighting factor w (f) from the weighting factor calculation unit 23 to obtain a smoothing amplitude component P (f).
  • a smoothing method there are a method using an FIR filter and a method using an IIR filter.
  • a smoothing method for deviation may be selected.
  • FIG. 9 shows the configuration of the amplitude smoothing unit 21 when the FIR filter is used.
  • the amplitude holding unit 25 holds input amplitude components (amplitude components before smoothing) for the past N frames.
  • the smoothing unit 26 obtains the amplitude component after smoothing from the amplitude component before smoothing for the past N frames and the current amplitude component according to Equation (5).
  • Figure 10 shows the configuration of the amplitude smoothing unit when an IIR filter is used.
  • the amplitude holding unit 27 holds the amplitude components after smoothing for the past N frames.
  • the smoothing unit 28 obtains the amplitude component after smoothing from the amplitude component after smoothing for the past N frames and the current amplitude component according to the equation (6).
  • Equation 6 In the above equations (5) and (6), m is the number of delay elements constituting the filter, and w (f) —
  • 0 w (f) is a weighting factor for each of the m + 1 multipliers that make up the filter.
  • FIG. 11 shows an example of the weighting factor w (f) in the present invention.
  • Figure 11 shows the nature of the input signal.
  • the smoothing coefficient ex as a weighting coefficient is a constant, but in the present invention, the weighting coefficient calculation unit 23 shown in FIG.
  • the input amplitude component calculates the feature quantity, such as the force signal-to-noise ratio and the amplitude of the input signal, and adaptively controls the weight coefficient based on the feature quantity.
  • any expression can be selected.
  • the relational expression shown in Fig. 12 may be applied as well as using the expression (1).
  • G (f) decreases as P ( ⁇ ) / ⁇ (f) decreases.
  • the input amplitude component is smoothed before calculating the suppression coefficient. Therefore, when the speaker's voice is not input, as shown in FIG.
  • the noise estimation error which is the difference between the amplitude component and the estimated noise amplitude component indicated by the broken line, can be reduced.
  • the voice estimation is the difference between the amplitude component of the voice signal indicated by the broken line and the smoothed amplitude component indicated by the solid line.
  • the error can be reduced.
  • stable noise suppression performance can be realized while minimizing the impact on speech and suppressing the generation of musical noise.
  • the output speech signal of the conventional noise suppression apparatus using the suppression coefficient calculation method of FIG. 4 is shown in FIG.
  • the output audio signal of the noise suppression device of the present invention has the waveform shown in FIG.
  • Suppression performance (measured in a non-speech interval) at the time of noise input is about 14 dB for the conventional noise suppression device and about 14 dB for the noise suppression device of the present invention.
  • the sound quality degradation during speech input (measured at the beginning of speech) is approximately 4 dB compared to the conventional noise suppressor, but the noise suppressor of the present invention is approximately ldB, which is improved by approximately 3 dB.
  • the present invention makes it possible to reduce the suppression of the sound component during the sound input and to reduce the sound quality deterioration.
  • FIG. 18 shows a block diagram of the first embodiment of the noise suppression apparatus of the present invention.
  • This embodiment uses FFT (Fast Fourier Transform) / IFFT (Inverse F FT) for channel division 'synthesis, adopts a smoothing method using FIR filter, and adopts equation (1) to calculate the suppression coefficient. is doing.
  • FFT Fast Fourier Transform
  • IFFT Inverse F FT
  • the FFT unit 30 converts the input signal X (k) of the current frame n into the frequency domain f from the time domain k and the frequency domain signal of the input signal. Find X (f). Note that the subscript n represents a frame number.
  • the amplitude calculation unit 31 obtains an input amplitude component IX (f) I from the frequency domain signal X (f).
  • the noise estimator 32 detects a speech section, and obtains an estimated noise amplitude component; z (f) from the input amplitude component IX (f) I according to Equation (7) when no speaker speech is detected. [0042] [Equation 7]
  • the amplitude smoothing unit 33 holds the input amplitude component
  • the averaged amplitude component P (f) is obtained from the only coefficient w (f) according to Eq. (8).
  • f is the sampling frequency when digitalizing m n S audio.
  • the weighting factor w (f) is shown in Fig. 11.
  • the suppression coefficient calculation unit 36 obtains the suppression coefficient G (f) according to the equation (9) from the averaged amplitude component P (f) and the estimated noise amplitude component; z (f).
  • the noise suppression unit 37 obtains an amplitude component s * n (f) after noise suppression from X n (f) and G n (f) according to equation (10).
  • the IFFT unit 37 converts the amplitude component (f) into the frequency domain force time domain, and obtains the signal s * (k) after noise suppression.
  • FIG. 19 shows a block diagram of a second embodiment of the noise suppression apparatus of the present invention.
  • a band-pass filter is used for channel division and synthesis, a smoothing method using an FIR filter is employed, and the suppression coefficient is calculated using equation (1).
  • the channel divider 40 uses a bandpass filter (BPF) to convert the input signal x (k) to (BPF)
  • the amplitude calculation unit 41 uses the band signal X (i, k) force according to equation (12) in each frame.
  • the noise estimator 42 detects the speech section and detects the amplitude component (i, n) of the estimated noise according to Eq. (13) from the input amplitude component Pow (i, n) for each band when no speaker speech is detected. Ask for.
  • the total sum of the weighting factors for each channel is 1.
  • the amplitude smoothing unit 43 receives the band-specific input amplitude components Pow (i, n-1), Pow (i, n-2) held in the amplitude holding unit 44, and the amplitude calculation unit 41
  • the smoothed input amplitude component Pow (i, n) is calculated from the band-specific input amplitude component Pow (i, n) and the weighting coefficient w (i, m) according to Eq. (14).
  • the m-0 suppression coefficient calculation unit 46 calculates the smoothed input amplitude component Pow (i, n) and the estimated noise amplitude component; z
  • the suppression coefficient G (i, n) is calculated from (i, n) using equation (15).
  • the band signal X (i, k) and the suppression coefficient G (i, n) are converted into Eq. (16).
  • the channel synthesizer 48 consists of an adder circuit and is a band signal s * (i, k) Into equation (17)
  • the output audio signal s * (k) is obtained by addition synthesis.
  • FIG. 20 shows a block diagram of a third embodiment of the noise suppression apparatus of the present invention.
  • FFTZIFFT is used for channel division and composition
  • a smoothing method using an IIR filter is employed
  • a nonlinear function is employed for calculating a suppression coefficient.
  • the FFT unit 30 converts the input signal x (k) of the current frame n into the frequency domain f over the time domain k for each unit time (frame), and the frequency domain signal of the input signal Find X (f). Note that the subscript n represents a frame number.
  • the amplitude calculation unit 31 obtains an input amplitude component I X (f) I from the frequency domain signal X (f).
  • the noise estimator 32 detects the voice interval and detects the input amplitude component I X (f).
  • the amplitude smoothing unit 51 includes the input amplitude component IX (f) I, the average amplitude components P (f) and P (f) of the past two frames held in the amplitude holding unit 52, and the weighting factor. Hold by holding part 53
  • the averaged amplitude component P (f) is obtained from the weighting factor w (f) according to Eq. (18).
  • the total sum of the weighting factors for each band is l.
  • the suppression coefficient calculation unit 54 obtains the suppression coefficient G (f) from the averaged amplitude component P n (f) and the estimated noise amplitude component) using the nonlinear function func shown in the equation (19).
  • Figure 21 shows the nonlinear function fu nc.
  • the noise suppression unit 37 obtains an amplitude component S * (f) after noise suppression from X (f) and G (f) according to equation (10).
  • the IFFT unit 37 converts the amplitude component (f) into the frequency domain force and also calculates the signal s * (k) after noise suppression.
  • the weighting coefficient is controlled based on the amplitude component after smoothing, thereby making it undefined. Robust and stable control is possible against ordinary noise.
  • FIG. 22 shows a block diagram of a fourth embodiment of the noise suppression apparatus of the present invention.
  • FFTZIFFT is used for channel division and composition
  • a smoothing method using an FIR filter is used
  • a nonlinear function is used to calculate the suppression coefficient.
  • the FFT unit 30 converts the input signal X (k) of the current frame n into the frequency domain f from the time domain k and the frequency domain signal of the input signal. Find X (f). Note that the subscript n represents a frame number.
  • the amplitude calculation unit 31 obtains an input amplitude component I X (f) I from the frequency domain signal X (f).
  • the noise estimation unit 32 detects a speech section, and obtains an estimated noise amplitude component z (f) from the input amplitude component I X (f) I according to the equation (7) when no speaker speech is detected.
  • the signal-to-noise ratio calculation unit 56 calculates the signal-to-noise ratio SNR (for each band from the input amplitude component IX (f) I of the current frame and the estimated noise amplitude component (f) according to equation (20). Find f).
  • the weighting factor calculation unit 57 obtains a weighting factor w (f) from the signal-to-noise ratio SNR (f). N 0
  • Figure 23 shows the relationship between SNR (f) and w (f).
  • w (f) to w (f) are expressed as (21), but n 0 0 1
  • the amplitude smoothing unit 58 uses the input amplitude component IX (f) I of the current frame and the input amplitude component of the previous frame held by the amplitude holding unit 34
  • the suppression coefficient calculation unit 36 obtains a suppression coefficient G (f) from the averaged amplitude component P n (f) and the estimated noise amplitude component / z n (f) according to Equation (9).
  • the noise suppression unit 37 obtains the amplitude component (f) after noise suppression from X (f) and G (f) according to equation (10).
  • the IFFT unit 37 converts the amplitude component S * (f) into the frequency domain force time domain, and obtains the signal s * (k) after noise suppression.
  • FIG. 24 shows a block diagram of a fifth embodiment of the noise suppression apparatus of the present invention.
  • FFTZIFFT is used for channel division and composition
  • a smoothing method using an IIR filter is employed
  • a nonlinear function is employed for calculating a suppression coefficient.
  • the FFT unit 30 converts the input signal x (k) of the current frame n into the frequency domain f from the time domain k and the frequency domain signal of the input signal. Find X (f). Note that the subscript n represents a frame number.
  • the amplitude calculator 31 obtains the input amplitude component I X (f) I from the frequency domain signal X (f).
  • the noise estimation unit 32 detects a speech section, and obtains an estimated noise amplitude component z (f) from the input amplitude component I X (f) I according to the equation (7) when no speaker speech is detected.
  • the amplitude smoothing unit 51 includes the input amplitude component IX (f) I, the average amplitude components P (f) and P (f) of the past two frames held by the amplitude holding unit 52, and the weighting factor. Weight from holder 61 n-1 n-2
  • the averaged amplitude component P (f) is obtained from the only coefficient w (f) according to equation (18).
  • the signal-to-noise ratio calculation unit 60 from the smoothed amplitude component P (f) and the estimated noise amplitude component ⁇ (f), the signal-to-noise ratio SNR ( f) is calculated.
  • the weighting factor calculation unit 61 obtains a weighting factor w (f) from the signal-to-noise ratio SNR (f). N 0
  • Figure 23 shows the relationship between SNR (f) and w (f).
  • w (f) to w (f) are expressed as (21), but n 0 0 1
  • the suppression coefficient calculation unit 54 obtains the suppression coefficient G (f) from the averaged amplitude component P (f) and the estimated noise amplitude component; z (f) using the nonlinear function func shown in the equation (19).
  • the noise suppression unit 37 obtains the amplitude component (f) after noise suppression according to X (f) and G (f) force (10).
  • the IFFT unit 37 converts the amplitude component (f) into the frequency domain force as well as the time domain, and obtains the signal s * (k) after noise suppression.
  • FIG. 25 shows a block diagram of an embodiment of a mobile phone to which the apparatus of the present invention is applied.
  • the output audio signal of the microphone 71 is subjected to noise suppression by the noise suppression device 70 of the present invention, encoded by the encoder 72, and transmitted from the transmission unit 73 to the public network 74.
  • FIG. 26 shows a block diagram of another embodiment of a mobile phone to which the apparatus of the present invention is applied.
  • a signal transmitted from the public network 74 is received by the receiving unit 75, decoded by the decoder 76, and noise suppressed by the noise suppression device 70 of the present invention. After that, it is supplied to the speaker 77 and pronounced.
  • noise suppression device 70 of the present invention may be provided in both the transmission system and the reception system by combining FIGS. 25 and 26.
  • the amplitude calculation units 31 and 41 correspond to the amplitude calculation means described in the claims
  • the noise estimation units 32 and 42 correspond to the noise estimation unit
  • the weight coefficient holding unit 35 correspond to the weight coefficient calculation unit 45
  • the signal correspond to the weight coefficient generation means
  • suppression coefficient calculation units 36 and 46 correspond to suppression amount calculation means
  • 37 and 47 correspond to noise suppression means
  • FFT unit 30 and channel division unit 40 correspond to frequency division means
  • the IFFT unit 38 and the channel synthesis unit 48 correspond to frequency synthesis means.

Abstract

  本発明は、入力信号を複数の帯域に分割し、帯域信号を出力する周波数分割手段と、帯域信号の振幅成分を求める振幅算出手段と、入力信号に含まれる雑音の振幅成分を推定して推定雑音振幅成分を帯域毎に求める雑音推定手段と、帯域毎に異なる重み係数を発生する重み係数発生手段と、重み係数を用いて帯域信号の振幅成分を時間的に平滑化した平滑化振幅成分を求める振幅平滑化手段と、帯域毎に平滑化振幅成分と推定雑音振幅成分から抑圧係数を求める抑圧量算出手段と、帯域信号を抑圧係数に基づいて抑圧する雑音抑圧手段と、雑音抑圧手段が出力する複数の帯域の雑音抑圧後の帯域信号を合成して出力する周波数合成手段を有することにより、ミュージカルノイズの発生を抑えつつ、音声への影響を最小限にし、安定した雑音抑圧性能を実現できる。

Description

雑音抑圧装置
技術分野
[0001] 本発明は、雑音抑圧装置に関し、雑音が重畳した音声信号から雑音成分を低減さ せる雑音抑圧装置に関する。
背景技術
[0002] 携帯電話システムや IP (Internet Protocol)電話システム等において、マイクに は話者の音声に加えて環境騒音が入力される。その結果、音声信号が劣化し、音声 の明瞭感が損なわれる。そこで、劣化した音声信号から雑音成分を低減させ、通話 品質を高める技術が従来力 開発されている (例えば、非特許文献 1及び特許文献 1 参照)。
[0003] 図 1は、従来の雑音抑圧装置の一例のブロック図を示す。同図中、時間周波数変 換部 10は、単位時間(フレーム)毎に、現フレーム nの入力信号 X (k)を時間領域 k カゝら周波数領域 fに変換し、入力信号の周波数領域信号 X (f)を求める。振幅算出 部 11は周波数領域信号 X (f)から入力信号の振幅成分 I X (f) I (以下、「入力振 幅成分」という)を求める。雑音推定部 12は話者の音声が無い場合の入力振幅成分
I X (f) Iから推定雑音の振幅成分 (f) (以下、「推定雑音振幅成分」という)を求 める。
[0004] 抑圧係数算出部 13は I X (f) Iと; z (f)から(1)式にしたがって抑圧係数 G (f)を 求める。
[0005] [数 1]
Gn(f) . . . (1)
Figure imgf000003_0001
雑音抑圧部 14は X (f)と G (f)から(2)式にしたがって雑音抑圧後の振幅成分 S (f)を求める。 [0006] [数 2]
S (f) - Xn(f) x Gn(f)
時間周波数変換部 15は S*n(f)を周波数領域から時間領域に変換し、雑音抑圧後 の信号 s* (k)を求める。
[0007] (非特許文献 1) S. F. Boll, "Supression of Acoustic Noise in Speech Using Spectral Subtraction", IEEE Transaction on Acoustics, Spee ch, and Signal Processing, ASSP— 33, vol. 27, pp. 113—120, 1979 (特許文献 1)特開 2004— 20679
発明の開示
発明が解決しょうとする課題
[0008] 図 1では、推定雑音振幅成分 (f)は、例えば、過去の話者の音声が含まれない フレームにおける入力信号の振幅成分を平均することで求める。このように背景雑音 の平均的な (長期的な)傾向は過去の入力振幅成分に基づいて推定する。
[0009] 図 2は、従来の抑圧係数算出方法の一例の原理図を示す。同図中、抑圧係数算出 部 16では、現フレーム nの振幅成分 I X (f) Iと推定雑音振幅成分 (f)に基づい て抑圧係数 G (f)を算出し、この抑圧係数を入力振幅成分に乗算することで、入力 信号に含まれる雑音成分を抑圧する。
[0010] し力しながら、現フレームに重畳している(短期的な)雑音の振幅成分を正確に求 めることは困難である。すなわち、現フレームに重畳している雑音の振幅成分と推定 雑音振幅成分との間には推定誤差 (以下、雑音推定誤差)が生じる。このため、図 3 に示すように、実線で示す雑音の振幅成分と、破線で示す推定雑音振幅成分との差 である雑音推定誤差が大きくなる。
[0011] この結果、雑音抑圧装置において上記の雑音推定誤差は過剰抑圧や抑圧不足を 引き起こす。さらに、雑音推定誤差がフレーム毎に大きく変動するので過剰抑圧や抑 圧不足も変動し、雑音抑圧性能に時間的なムラが発生してしまう。この雑音抑圧性能 の時間的なムラがミュージカルノイズ (musical noise)として知られる異音を生じさ せる。
[0012] 図 4は、従来の抑圧係数算出方法の他の一例の原理図を示す。このものは、雑音 抑圧装置における過剰抑圧や抑圧不足に伴って発生する異音を抑止することを目 的とした平均化雑音抑圧技術である。同図中、振幅平滑ィ匕部 17では現フレーム nの 振幅成分 I X (f) Iの平滑化を行い、抑圧係数算出部 18は、平滑化後の入力信号 の振幅成分 P (f) (以下、「平滑化振幅成分」という)と、推定雑音振幅成分 (f)に 基づいて抑圧係数 G (f)を求める。
[0013] 振幅成分の平滑化方法としては、次の 2つの方法が用いられる。
(第 1の平滑化方法)
現フレームと過去数フレーム分の入力振幅成分の平均値を平滑化振幅成分 P (f) とする。この方法は単純な平均化であり、平滑ィ匕振幅成分は(3)式により求めること ができる。
[0014] [数 3]
Pn(f) = ー(3)
Figure imgf000005_0001
M : 平滑化する範囲 (フレーム数)
(第 2の平滑化方法)
現フレームの振幅成分 I X (f) Iと、直前フレームの平滑化振幅成分 P (f)との n n-1 荷重平均値を平滑化振幅成分 P (f)とする。これは指数平滑化と呼ばれ、平滑化振 幅成分は (4)式により求めることができる。
[0015] [数 4] PJf)
Figure imgf000006_0001
+ (ゾ- a) PnJf)
: 平滑化係数 図 4の抑圧係数算出方法では、抑圧係数を算出する前に入力振幅成分を平均化 または指数平滑ィ匕することにより、話者の音声が入力されないときは、図 5に示すよう に、実線で示す雑音の振幅成分と、破線で示す推定雑音振幅成分との差である雑 音推定誤差を小さくできる。この結果、図 2の抑圧係数算出で問題であった、雑音入 力時の過剰抑圧や抑圧不足を抑えることができ、ミュージカルノイズを抑止することが できる。
[0016] し力しながら、話者の音声が入力されるときには、図 6に示すように平滑ィ匕振幅成分 が鈍ってしまい、破線で示す音声信号の振幅成分と、実線で示す平滑化振幅成分と の誤差 (以下、「音声推定誤差」という)が大きくなる。
[0017] この結果、音声推定誤差の大きな平滑ィ匕振幅成分と推定雑音振幅に基づいて抑 圧係数を求め、入力振幅成分に抑圧係数を乗算するので、入力信号に含まれる音 声成分を誤って抑圧してしまい、音質の劣化を引き起こすという問題があった。この 現象は特に音声の話頭 (音声の始まりの区間)において顕著である。
[0018] 本発明は、上記の点に鑑みなされたものであり、ミュージカルノイズの発生を抑えつ つ、音声への影響を最小限にし、安定した雑音抑圧性能を実現する雑音抑圧装置 を提供することを総括的な目的とする。
課題を解決するための手段
[0019] この目的を達成するため、本発明は、入力信号の振幅成分を帯域毎に求める振幅 算出手段と、前記入力信号の雑音の振幅成分を推定して推定雑音振幅成分を帯域 毎に求める雑音推定手段と、帯域毎に異なる重み係数を発生する重み係数発生手 段と、前記帯域毎に異なる重み係数を用いて前記入力信号の振幅成分を時間的に 平滑化し平滑化振幅成分を帯域毎に求める振幅平滑化手段と、前記平滑化振幅成 分と前記推定雑音振幅成分から抑圧係数を帯域毎に求める抑圧量算出手段と、前 記入力信号と前記抑圧係数から雑音を抑圧した音声信号を帯域毎に求め出力する 雑音抑圧手段を有し構成する。
発明の効果
[0020] このような雑音抑圧装置によれば、ミュージカルノイズの発生を抑えつつ、音声への 影響を最小限にし、安定した雑音抑圧性能を実現できる。
図面の簡単な説明
[0021] [図 1]従来の雑音抑圧装置の一例のブロック図である。
[図 2]従来の抑圧係数算出方法の一例の原理図である。
[図 3]従来の雑音推定誤差を説明するための図である。
[図 4]従来の抑圧係数算出方法の他の一例の原理図
[図 5]従来の雑音推定誤差を説明するための図である。
[図 6]従来の音声推定誤差を説明するための図である。
[図 7]本発明における抑圧係数算出の原理図である。
[図 8]本発明における抑圧係数算出の原理図である。
[図 9]FIRフィルタを使用する場合の振幅平滑ィ匕部の構成図である。
[図 10]IIRフィルタを使用する場合の振幅平滑ィ匕部の構成図である。
[図 11]本発明における重み係数の一例を示す図である。
[図 12]平滑化振幅成分と推定雑音振幅成分から抑圧係数を求める関係式を示す図 である。
[図 13]本発明の雑音推定誤差を説明するための図である。
[図 14]本発明の音声推定誤差を説明するための図である。
[図 15]雑音が重畳した音声の入力信号の波形図である。
[図 16]従来の雑音抑圧装置の出力音声信号の波形図である。
[図 17]本発明の雑音抑圧装置の出力音声信号の波形図である。
[図 18]本発明の雑音抑圧装置の第 1実施形態のブロック図である。
[図 19]本発明の雑音抑圧装置の第 2実施形態のブロック図である。
[図 20]本発明の雑音抑圧装置の第 3実施形態のブロック図である。 [図 21]非線形関数 funcを示す図である。
圆 22]本発明の雑音抑圧装置の第 4実施形態のブロック図である。
圆 23]信号対雑音比と重み係数の関係を示す図である。
圆 24]本発明の雑音抑圧装置の第 5実施形態のブロック図である。
圆 25]本発明装置を適用した携帯電話の一実施形態のブロック図である。
圆 26]本発明装置を適用した携帯電話の他の実施形態のブロック図である。
符号の説明
21 振幅平滑化部
22 抑圧係数算出部
23 重み係数算出部
30 FFT咅
31, 41 振幅算出部
32, 42 雑音推定部
33 振幅平滑化部
34 振幅保持部
35 重み係数保持部
36, 46 抑圧係数算出部
37, 47 雑音抑圧部
40 チャンネル分割部
43 振幅平滑化部
44 振幅保持部
45 重み係数算出部
48 チャンネル合成部
発明を実施するための最良の形態
[0023] 以下、図面に基づいて本発明の実施形態について説明する。
[0024] 本発明における抑圧係数算出の原理図を図 7および図 8に示す。本発明では図 4 と同様に、抑圧係数を算出する前に入力振幅成分の平滑化を行う。
[0025] 図 7において、振幅平滑ィ匕部 21では現フレーム nの振幅成分 | X (f) |と重み係 数 w (f)を用いて平滑ィ匕振幅成分 P ωを得る。抑圧係数算出部 22は、平滑ィ匕振 m n
幅成分 P (f)と、推定雑音振幅成分 (f)に基づいて抑圧係数 G (f)を求める。
[0026] 図 8において、重み係数算出部 23は、入力振幅成分から特徴量 (信号対雑音比や 入力信号の振幅等)を算出し、特徴量に基づいて重み係数 w (f)を適応的に制御 する。振幅平滑ィ匕部 21では現フレーム nの振幅成分 I X (f) Iと重み係数算出部 2 3からの重み係数 w (f)を用いて平滑ィ匕振幅成分 P (f)を得る。抑圧係数算出部 22
m n
は、平滑化振幅成分 ρ ωと、推定雑音振幅成分 ωに基づいて抑圧係数 G (f) を求める。
[0027] 平滑化の方法としては FIRフィルタを使用する方法と IIRフィルタを使用する方法が あり、本発明では 、ずれの平滑化方法を選択してもよ 、。
(FIRフィルタを使用する場合)
FIRフィルタを使用する場合の振幅平滑化部 21の構成を図 9に示す。同図中、振 幅保持部 25では、過去 Nフレーム分の入力振幅成分 (平滑化前の振幅成分)を保持 する。さらに平滑ィ匕部 26において、過去 Nフレーム分の平滑化前の振幅成分と、現 在の振幅成分から(5)式にしたがって平滑ィヒ後の振幅成分を求める。
[0028] [数 5]
Figure imgf000009_0001
m-l
(IIRフィルタを使用する場合)
IIRフィルタを使用する場合の振幅平滑化部の構成を図 10に示す。同図中、振幅 保持部 27では、過去 Nフレーム分の平滑ィ匕後の振幅成分を保持する。さらに平滑ィ匕 部 28において、過去 Nフレーム分の平滑化後の振幅成分と、現在の振幅成分から( 6)式にしたがって平滑ィ匕後の振幅成分を求める。
[0029] [数 6]
Figure imgf000010_0001
上記の(5) , (6)式において、 mはフィルタを構成する遅延素子数であり、 w (f)—
0 w (f)はフィルタを構成する m+ 1個の乗算器それぞれの重み係数であり、この値を 調整することで、入力信号を平滑ィ匕する際の平滑ィ匕の強さを制御することができる。
[0030] 従来は(3) , (4)式から明らかなように全周波数帯域において同じで重み係数を使 用していた力 本発明では(5) , (6)式のように、重み係数 w (f)は、周波数の関数と して表わされ、帯域毎に異なる値を使用することを特徴として 、る。
[0031] 図 11に本発明における重み係数 w (f)の一例を示す。図 11では、入力信号の性
0
質が低周波数帯域は変動しにくく高周波数帯域は変動しやすいことを想定しており、 現フレームの振幅成分 I X (f) Iに力かる重み係数 w (f)を実線に示すように低域 n 0
で大きく高域で小さくなる値とすることで、高周波数帯域の変動に追随し、かつ、低周 波数帯域には平滑ィ匕をより強くかけている。なお、帯域毎に重み係数の時間的な総 和は 1とされており、 w (f) = l-w (f)とした場合、 w (f)は一点鎖線に示すようにな
1 0 1
る。
[0032] また、従来の (4)式は重み係数としての平滑化係数 exが定数であつたが、本発明 では、重み係数 w (f)を変数として、図 8に示す重み係数算出部 23で入力振幅成分 力 信号対雑音比や入力信号の振幅などの特徴量を算出し、特徴量に基づいて重 み係数を適応的に制御する。
[0033] 平滑化振幅成分 P (f)と推定雑音振幅成分; z (f)から抑圧係数 G (f)を求める際 の関係式としては、任意のものを選択可能である。例えば(1)式を用いても良ぐさら には、図 12に示すような関係式を適用しても良い。図 12では、 P (ί) / μ (f)が小さ くなるほど G (f)を小さくしている。
[0034] 本発明の雑音抑圧装置では、抑圧係数を算出する前に入力振幅成分を平滑化す るため、話者の音声が入力されないときは、図 13に示すように、実線で示す雑音の 振幅成分と、破線で示す推定雑音振幅成分との差である雑音推定誤差を小さくでき る。
[0035] さらに、話者の音声が入力されるときにも、図 14に示すように、破線で示す音声信 号の振幅成分と、実線で示す平滑ィ匕振幅成分との差である音声推定誤差を小さくで きる。この結果、音声への影響を最小限にしつつ、ミュージカルノイズの発生を抑え 安定した雑音抑圧性能を実現できる。
[0036] ここで、図 15に示すように、雑音が重畳した音声の入力信号が供給された場合、図 4の抑圧係数算出方法を用いた従来の雑音抑圧装置の出力音声信号は図 16に示 す波形となり、本発明の雑音抑圧装置の出力音声信号は図 17に示す波形となる。
[0037] 図 16の波形と図 17の波形を比べてみると、話頭の区間 τにおいて、図 17の波形 の劣化が小さいことが分かる。それぞれの出力音を比較するために、雑音入力時の 抑圧性能を音声が無い区間で測定し、音声入力時の音質劣化を話頭の区間で測定 した結果を以下に示す。
[0038] 雑音入力時の抑圧性能 (非音声区間で測定)は、従来の雑音抑圧装置が約 14dB で、本発明の雑音抑圧装置が約 14dBである。音声入力時の音質劣化 (音声の話頭 区間で測定)は、従来の雑音抑圧装置が約 4dBであるのに対し、本発明の雑音抑圧 装置は約 ldBとなり、約 3dB改善される。これにより、本発明は音声入力時に音声成 分の抑圧を小さくして音質劣化を軽減することが可能となる。
[0039] 図 18は、本発明の雑音抑圧装置の第 1実施形態のブロック図を示す。この実施形 態はチャネル分割 '合成に FFT (Fast Fourier Transform) /IFFT (Inverse F FT)を使用し、 FIRフィルタによる平滑ィ匕方法を採用し、抑圧係数の算出には(1)式 を採用している。
[0040] 同図中、 FFT部 30は、単位時間(フレーム)毎に、現フレーム nの入力信号 X (k)を 時間領域 kカゝら周波数領域 fに変換し、入力信号の周波数領域信号 X (f)を求める。 なお、添字 nはフレーム番号を表している。
[0041] 振幅算出部 31は周波数領域信号 X (f)から入力振幅成分 I X (f) Iを求める。雑 音推定部 32は音声区間検出を行い、話者音声の非検出時に入力振幅成分 I X (f ) Iから(7)式にしたがって推定雑音振幅成分; z (f)を求める。 [0042] [数 7]
音声非検出時 ... (7)
Figure imgf000012_0001
音声検出時
振幅平滑ィ匕部 33は、入力振幅成分 | X (f) |と、振幅保持部 34で保持している 直前フレームの入力振幅成分 | X (f) |と、重み係数保持部 35で保持している重 n-1
み係数 w (f)から(8)式にしたがって平均化振幅成分 P (f)を求める。ただし、 f は m n S 音声をデジタルィ匕する際のサンプリング周波数である。また、重み係数 w (f)は図 11 に示すものとする。
[0043] [数 8]
Figure imgf000012_0002
1, 0 の時
W0(f) = 0.8 ≤ の時
4 0.5 /の時
Figure imgf000012_0003
w!(f) =】.0— w0(f)
抑圧係数算出部 36は、平均化振幅成分 P (f)と推定雑音振幅成分; z (f)から (9) 式にしたがって抑圧係数 G (f)を求める。
[0044] [数 9] μη(ί)
Gn(f) = l ~
PJf)
雑音抑圧部 37は、 Xn(f)と Gn(f)から(10)式にしたがって雑音抑圧後の振幅成分 s*n(f)を求める。
[数 10]
S (f) = X f) x Gn(f) •(10)
IFFT部 37は、振幅成分 (f)を周波数領域力 時間領域に変換し、雑音抑圧後 の信号 s* (k)を求める。
[0046] 図 19は、本発明の雑音抑圧装置の第 2実施形態のブロック図を示す。この実施形 態はチャネル分割'合成にバンドパスフィルタを使用し、 FIRフィルタによる平滑ィ匕方 法を採用し、抑圧係数の算出には( 1)式を採用して 、る。
[0047] 同図中、チャンネル分割部 40は、帯域フィルタ (BPF)を用いて入力信号 x (k)を(
11)式にしたがって帯域信号 X (i, k)に分割する。なお、添字 iはチャンネル番号
BPF
を表す。
[0048] [数 11]
M-l
xBPF(i,k)=∑(BPF(i -)xx(k-j)) … " 。
BPF(i, j). 帯域分割用の FIRフィルタ係数
M: 上記 F/?フィルタの次数
振幅算出部 41は、帯域信号 X (i, k)力 各フレームにおいて(12)式にしたがつ
BPF
て帯域別入力振幅 Pow(i, n)を算出する。なお、添字 nはフレーム番号を表す。
[数 12]
Pow(i, =— x∑ (xBPF ( k-l))2 … 2)
1ST' フレーム長 雑音推定部 42は音声区間検出を行い話者音声の非検出時に帯域別入力振幅成 分 Pow(i, n)から(13)式にしたがって推定雑音の振幅成分 (i, n)を求める。
[数 13]
. _ (0.99χ μ(ΐ, n-l) + 0.01 Pow(i, n ) 音声非検出時
μ{1'η) = \i(i,n-l) 音声検出時 重み係数算出部 45は、帯域別入力振幅成分 Pow(i, n)を所定の閾値 THR1と比 較して重み係数 w(i, m)を算出する。ただし、 m=0, 1, 2とする。
Pow(i, n)≥THRlのとき、 w(i, 0)=0.7
w(i, 1)=0.2
w(i, 2) =0.1
Pow(i, n)<THRlのとき、
w(i, 0) =0.4
w(i, 1)=0.3
w(i, 2) =0.3
つまり、チャンネル毎に重み係数の時間的な総和は 1とされている。
[0051] 振幅平滑ィ匕部 43は、振幅保持部 44で保持している帯域別入力振幅成分 Pow(i, n-1), Pow(i, n— 2)と、振幅算出部 41からの帯域別入力振幅成分 Pow(i, n)と、 重み係数 w(i, m)から(14)式にしたがって平滑ィ匕入力振幅成分 Pow (i, n)を算
AV
出する。
[0052] [数 14]
2
PowAV(i,n)= > iw(i,m)x Pow( i,n-m )) .·'(14)
m-0 抑圧係数算出部 46は、平滑化入力振幅成分 Pow (i, n)と推定雑音振幅成分; z
AV
(i, n)から(15)式により抑圧係数 G(i, n)を算出する。
[0053] [数 15]
G(iln) "
Figure imgf000015_0001
雑音抑圧部 47において、帯域信号 X (i, k)と抑圧係数 G(i, n)から(16)式にし
BPF
たがって雑音抑圧後の帯域信号 s* (i, k)を求める。
BPF
[0054] [数 16] SB*PF (i, k) = xBPF (i, k) x G(i, n) · · · ( 16) チャンネル合成部 48は加算回路で構成され、帯域信号 s* (i, k)を(17)式にし
BPF
たがって加算合成して出力音声信号 s* (k)を求める。
[0055] [数 17]
Figure imgf000016_0001
L: 帯域分割数 図 20は、本発明の雑音抑圧装置の第 3実施形態のブロック図を示す。この実施形 態はチャネル分割'合成に FFTZIFFTを使用し、 IIRフィルタによる平滑ィ匕方法を 採用し、抑圧係数の算出には非線形関数を採用している。
[0056] 同図中、 FFT部 30は、単位時間(フレーム)毎に、現フレーム nの入力信号 x (k)を 時間領域 kカゝら周波数領域 fに変換し、入力信号の周波数領域信号 X (f)を求める。 なお、添字 nはフレーム番号を表している。
[0057] 振幅算出部 31は周波数領域信号 X (f)から入力振幅成分 I X (f) Iを求める。雑 音推定部 32は音声区間検出を行い、話者音声の非検出時に入力振幅成分 I X (f
) Iから(7)式にしたがって推定雑音振幅成分; z (f)を求める。
[0058] 振幅平滑化部 51は、入力振幅成分 I X (f) Iと、振幅保持部 52で保持している 過去 2フレームの平均化振幅成分 P (f) , P (f)と、重み係数保持部 53で保持し
n-1 n-2
ている重み係数 w (f)から(18)式にしたがって平均化振幅成分 P (f)を求める。
m n
[0059] [数 18] Pn(f) =w0 (f) · \Xn(f)\ +w} (f) · PnJf) +w2 (f) · Pn_2(f)
•'•(18)
重み係数算出部 53は、平均化振幅成分 Pn(f)を所定の閾値 THR2と比較して重 み係数 w (f)を算出する。ただし、 m=0, 1, 2とする。
P (f)≥THR2のとき、
w (f) = l. 0
m
w (f) =0. 0
m
w (f) =0. 0
m
P (f) <THR2のとき、
w (f) =0. 6
m
w (f) =0. 2
m
w (f) =0. 2
m
つまり、帯域毎に重み係数の時間的な総和は lとされている。
[0060] 抑圧係数算出部 54は、平均化振幅成分 Pn(f)と推定雑音振幅成分 )から(19 )式に示す非線形関数 funcを用いて抑圧係数 G (f)を求める。なお、非線形関数 fu ncを図 21に示す。
[0061] [数 19]
Figure imgf000017_0001
雑音抑圧部 37は、 X (f)と G (f)から(10)式にしたがって雑音抑圧後の振幅成分 S* (f)を求める。 IFFT部 37は、振幅成分 (f)を周波数領域力も時間領域に変 換し、雑音抑圧後の信号 s* (k)を求める。
[0062] このように、重み係数を平滑ィヒ後の振幅成分に基づいて制御することにより、非定 常な雑音に強固で安定した制御が可能となる。
[0063] 図 22は、本発明の雑音抑圧装置の第 4実施形態のブロック図を示す。この実施形 態はチャネル分割'合成に FFTZIFFTを使用し、 FIRフィルタによる平滑ィ匕方法を 採用し、抑圧係数の算出には非線形関数を採用している。
[0064] 同図中、 FFT部 30は、単位時間(フレーム)毎に、現フレーム nの入力信号 X (k)を 時間領域 kカゝら周波数領域 fに変換し、入力信号の周波数領域信号 X (f)を求める。 なお、添字 nはフレーム番号を表している。
[0065] 振幅算出部 31は周波数領域信号 X (f)から入力振幅成分 I X (f) Iを求める。雑 音推定部 32は音声区間検出を行い、話者音声の非検出時に入力振幅成分 I X (f ) Iから(7)式にしたがって推定雑音振幅成分; z (f)を求める。
[0066] 信号対雑音比計算部 56は、現フレームの入力振幅成分 I X (f) Iと、推定雑音振 幅成分 (f)から、(20)式にしたがって帯域毎に信号対雑音比 SNR (f)を求める。
[0067] [数 20]
Figure imgf000018_0001
重み係数算出部 57は、信号対雑音比 SNR (f)カゝら重み係数 w (f)を求める。なお n 0
SNR (f)と w (f)の関係を図 23に示す。また、 w (f)から w (f)を(21)式にしたが n 0 0 1
つて算出する。つまり、帯域毎に重み係数の時間的な総和は 1とされている。
[0068] [数 21]
w1(f) = 0 ~ w0(f) · ' ' (2ΐ)
振幅平滑化部 58は、現フレームの入力振幅成分 I X (f) Iと、振幅保持部 34で 保持している直前フレームの入力振幅成分 | X (f) み係数算出部 57から n-1 Iと、重 の重み係数 w (f)即ち w (f) , w (f)から(22)式にしたがって平均化振幅成分 P (f m 0 1 n
)を求める。
[0069] [数 22]
Figure imgf000019_0001
抑圧係数算出部 36は、平均化振幅成分 Pn(f)と推定雑音振幅成分 /z n(f)から (9) 式にしたがって抑圧係数 G (f)を求める。雑音抑圧部 37は、 X (f)と G (f)から(10) 式にしたがって雑音抑圧後の振幅成分 (f)を求める。 IFFT部 37は、振幅成分 S * (f)を周波数領域力 時間領域に変換し、雑音抑圧後の信号 s* (k)を求める。
[0070] このように、重み係数を信号対雑音比に基づいて制御することにより、マイクの音量 によらず安定した制御が可能となる。
[0071] 図 24は、本発明の雑音抑圧装置の第 5実施形態のブロック図を示す。この実施形 態はチャネル分割'合成に FFTZIFFTを使用し、 IIRフィルタによる平滑ィ匕方法を 採用し、抑圧係数の算出には非線形関数を採用している。
[0072] 同図中、 FFT部 30は、単位時間(フレーム)毎に、現フレーム nの入力信号 x (k)を 時間領域 kカゝら周波数領域 fに変換し、入力信号の周波数領域信号 X (f)を求める。 なお、添字 nはフレーム番号を表している。
[0073] 振幅算出部 31は周波数領域信号 X (f)から入力振幅成分 I X (f) Iを求める。雑 音推定部 32は音声区間検出を行い、話者音声の非検出時に入力振幅成分 I X (f ) Iから(7)式にしたがって推定雑音振幅成分; z (f)を求める。
[0074] 振幅平滑化部 51は、入力振幅成分 I X (f) Iと、振幅保持部 52で保持している 過去 2フレームの平均化振幅成分 P (f) , P (f)と、重み係数保持部 61からの重 n-1 n-2
み係数 w (f)から(18)式にしたがって平均化振幅成分 P (f)を求める。
m n
[0075] 信号対雑音比計算部 60にお 、て、平滑化振幅成分 P (f)と、推定雑音振幅成分 μ (f)から、(23)式にしたがって帯域毎に信号対雑音比 SNR (f)を算出する。
[0076] [数 23] SNRn(f) = -^ •(23)
重み係数算出部 61は、信号対雑音比 SNR (f)カゝら重み係数 w (f)を求める。なお n 0
SNR (f)と w (f)の関係を図 23に示す。また、 w (f)から w (f)を(21)式にしたが n 0 0 1
つて算出する。
[0077] 抑圧係数算出部 54は、平均化振幅成分 P (f)と推定雑音振幅成分; z (f)から(19 )式に示す非線形関数 funcを用いて抑圧係数 G (f)を求める。雑音抑圧部 37は、 X (f)と G (f)力 (10)式にしたがって雑音抑圧後の振幅成分 (f)を求める。 IFFT 部 37は、振幅成分 (f)を周波数領域力も時間領域に変換し、雑音抑圧後の信号 s* (k)を求める。
[0078] このように、重み係数を平滑ィ匕後の信号対雑音比に基づいて制御することにより、 非定常な雑音に強固で安定した制御が可能となり、マイクの音量によらず安定した制 御が可能る。
[0079] 図 25は、本発明装置を適用した携帯電話の一実施形態のブロック図を示す。同図 中、マイクロホン 71の出力音声信号は、本発明の雑音抑圧装置 70にて雑音抑圧さ れたのちエンコーダ 72で符号ィ匕され、送信部 73から公衆網 74に送出される。
[0080] 図 26は、本発明装置を適用した携帯電話の他の実施形態のブロック図を示す。同 図中、公衆網 74から送信された信号は受信部 75で受信され、デコーダ 76にて復号 され、本発明の雑音抑圧装置 70にて雑音抑圧される。こののち、スピーカ 77に供給 され発音される。
[0081] なお、図 25と図 26を複合ィ匕して送話系と受話系の双方に本発明の雑音抑圧装置 70を設けても良い。
[0082] なお、振幅算出部 31, 41が請求項記載の振幅算出手段に対応し、雑音推定部 32 , 42が雑音推定手段に対応し、重み係数保持部 35,重み係数算出部 45,信号対 雑音比計算部 56, 60が重み係数発生手段に対応し、振幅平滑化部 33, 43が振幅 平滑ィ匕手段に対応し、抑圧係数算出部 36, 46が抑圧量算出手段に対応し、 37, 4 7が雑音抑圧手段に対応し、 FFT部 30,チャンネル分割部 40が周波数分割手段に 対応し、 IFFT部 38,チャンネル合成部 48が周波数合成手段に対応する。

Claims

請求の範囲
[1] 入力信号を複数の帯域に分割し、帯域信号を出力する周波数分割手段と、
前記帯域信号の振幅成分を求める振幅算出手段と、
前記入力信号に含まれる雑音の振幅成分を推定して推定雑音振幅成分を帯域毎 に求める雑音推定手段と、
帯域毎に異なる重み係数を発生する重み係数発生手段と、
前記重み係数を用いて前記帯域信号の振幅成分を時間的に平滑化した平滑化振 幅成分を求める振幅平滑化手段と、
帯域毎に前記平滑化振幅成分と前記推定雑音振幅成分から抑圧係数を求める抑 圧量算出手段と、
前記帯域信号を前記抑圧係数に基づいて抑圧する雑音抑圧手段と、 前記雑音抑圧手段が出力する複数の帯域の雑音抑圧後の帯域信号を合成して出 力する周波数合成手段を
有することを特徴とする雑音抑圧装置。
[2] 入力信号を複数の帯域に分割し、帯域信号を出力する周波数分割手段と、
前記帯域信号の振幅成分を求める振幅算出手段と、
前記入力信号に含まれる雑音の振幅成分を推定して推定雑音振幅成分を帯域毎 に求める雑音推定手段と、
重み係数を時間的に変化させ、出力する重み係数発生手段と、
前記重み係数を用いて前記帯域信号の振幅成分を時間的に平滑化した平滑化振 幅成分を求める振幅平滑化手段と、
帯域毎に前記平滑化振幅成分と前記推定雑音振幅成分から抑圧係数を求める抑 圧量算出手段と、
前記帯域信号を前記抑圧係数に基づいて抑圧する雑音抑圧手段と、 前記雑音抑圧手段が出力する複数の帯域の雑音抑圧後の帯域信号を合成して出 力する周波数合成手段を
有することを特徴とする雑音抑圧装置。
[3] 請求項 1または 2記載の雑音抑圧装置において、 前記重み係数発生手段は、予め設定された重み係数を出力することを特徴とする 雑音抑圧装置。
[4] 請求項 1または 2記載の雑音抑圧装置において、
前記重み係数発生手段は、前記入力信号の振幅成分に基づいて帯域毎に重み 係数を算出することを特徴とする雑音抑圧装置。
[5] 請求項 1または 2記載の雑音抑圧装置において、
前記重み係数発生手段は、前記平滑化振幅成分に基づいて帯域毎に重み係数を 算出することを特徴とする雑音抑圧装置。
[6] 請求項 1または 2記載の雑音抑圧装置において、
前記重み係数発生手段は、前記入力信号の振幅成分と前記推定雑音振幅成分の 比に基づいて帯域毎に重み係数を算出することを特徴とする雑音抑圧装置。
[7] 請求項 1または 2記載の雑音抑圧装置において、
前記重み係数発生手段は、前記平滑化振幅成分と前記推定雑音振幅成分の比に 基づいて帯域毎に重み係数を算出することを特徴とする雑音抑圧装置。
[8] 請求項 1乃至 7の 、ずれか記載の雑音抑圧装置にお!、て、
前記重み係数発生手段は、時間的な総和が 1となる重み係数を発生することを特 徴とする雑音抑圧装置。
[9] 請求項 1乃至 8の 、ずれか記載の雑音抑圧装置にお!、て、
前記周波数分割手段は、高速フーリエ変換器であり、
前記周波数合成手段は、高速逆フーリエ変換器であることを特徴とする雑音抑圧 装置。
[10] 請求項 1乃至 8の 、ずれか記載の雑音抑圧装置にお!、て、
前記周波数分割手段は、複数のバンドパスフィルタで構成され、
前記周波数合成手段は、加算回路で構成されたことを特徴とする雑音抑圧装置。
[11] 請求項 1乃至 10のいずれか記載の雑音抑圧装置において、
前記振幅平滑化手段は、現在の入力信号の振幅成分と過去の入力信号の振幅成 分を前記重み係数にしたがって帯域毎に重みづけ加算することを特徴とする雑音抑 圧装置。
[12] 請求項 1乃至 10のいずれか記載の雑音抑圧装置において、
前記振幅平滑化手段は、現在の入力信号の振幅成分と過去の平滑化振幅成分を 前記重み係数にしたがって帯域毎に重みづけ加算することを特徴とする雑音抑圧装 置。
[13] 請求項 1乃至 12のいずれか記載の雑音抑圧装置において、
前記重み係数発生手段は、低域で大きく高域で小さくなる値の重み係数を発生す ることを特徴とする雑音抑圧装置。
PCT/JP2004/016027 2004-10-28 2004-10-28 雑音抑圧装置 WO2006046293A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
CN2004800441051A CN101027719B (zh) 2004-10-28 2004-10-28 噪声抑制装置
EP04793135A EP1806739B1 (en) 2004-10-28 2004-10-28 Noise suppressor
JP2006542170A JP4423300B2 (ja) 2004-10-28 2004-10-28 雑音抑圧装置
PCT/JP2004/016027 WO2006046293A1 (ja) 2004-10-28 2004-10-28 雑音抑圧装置
US11/727,062 US20070232257A1 (en) 2004-10-28 2007-03-23 Noise suppressor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2004/016027 WO2006046293A1 (ja) 2004-10-28 2004-10-28 雑音抑圧装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US11/727,062 Continuation US20070232257A1 (en) 2004-10-28 2007-03-23 Noise suppressor

Publications (1)

Publication Number Publication Date
WO2006046293A1 true WO2006046293A1 (ja) 2006-05-04

Family

ID=36227545

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2004/016027 WO2006046293A1 (ja) 2004-10-28 2004-10-28 雑音抑圧装置

Country Status (5)

Country Link
US (1) US20070232257A1 (ja)
EP (1) EP1806739B1 (ja)
JP (1) JP4423300B2 (ja)
CN (1) CN101027719B (ja)
WO (1) WO2006046293A1 (ja)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007336232A (ja) * 2006-06-15 2007-12-27 Nippon Telegr & Teleph Corp <Ntt> 特定方向収音装置、特定方向収音プログラム、記録媒体
JP2008065090A (ja) * 2006-09-07 2008-03-21 Toshiba Corp ノイズサプレス装置
JP2008064733A (ja) * 2006-08-09 2008-03-21 Fujitsu Ltd 音源方向推定装置、音源方向推定方法、及びコンピュータプログラム
JP2008076975A (ja) * 2006-09-25 2008-04-03 Fujitsu Ltd 音信号補正方法、音信号補正装置及びコンピュータプログラム
JP2008275616A (ja) * 2007-04-26 2008-11-13 Gebr Loepfe Ag 周波数に応じた糸又は糸前駆体における欠陥箇所の検出
JP2008301079A (ja) * 2007-05-30 2008-12-11 Pioneer Electronic Corp 音響装置、遅延時間測定方法、遅延時間測定プログラム及びその記憶媒体
JP2009025490A (ja) * 2007-07-18 2009-02-05 Nippon Telegr & Teleph Corp <Ntt> 収音装置、収音方法、その方法を用いた収音プログラム、および記録媒体
JP2009044588A (ja) * 2007-08-10 2009-02-26 Nippon Telegr & Teleph Corp <Ntt> 特定方向収音装置、特定方向収音方法、特定方向収音プログラム、記録媒体
JP2010032802A (ja) * 2008-07-29 2010-02-12 Kenwood Corp 雑音抑制装置、雑音抑制方法、及び雑音抑制プログラム
JP2010532879A (ja) * 2007-07-06 2010-10-14 オーディエンス,インコーポレイテッド アダプティブ・インテリジェント・ノイズ抑制システム及び方法
JP2011191669A (ja) * 2010-03-16 2011-09-29 Sony Corp 音声処理装置、音声処理方法およびプログラム
JP2012113190A (ja) * 2010-11-26 2012-06-14 Nara Institute Of Science & Technology 音響処理装置
JP2014079084A (ja) * 2012-10-10 2014-05-01 Nippon Signal Co Ltd:The 車上装置、及び、これを用いた列車制御装置
JP2017122769A (ja) * 2016-01-05 2017-07-13 株式会社東芝 雑音抑圧装置、雑音抑圧方法及びプログラム

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8489396B2 (en) * 2007-07-25 2013-07-16 Qnx Software Systems Limited Noise reduction with integrated tonal noise reduction
DE602007004217D1 (de) * 2007-08-31 2010-02-25 Harman Becker Automotive Sys Schnelle Schätzung der Spektraldichte der Rauschleistung zur Sprachsignalverbesserung
JP5453740B2 (ja) * 2008-07-02 2014-03-26 富士通株式会社 音声強調装置
JP5535198B2 (ja) * 2009-04-02 2014-07-02 三菱電機株式会社 雑音抑圧装置
JP2010249939A (ja) * 2009-04-13 2010-11-04 Sony Corp ノイズ低減装置、ノイズ判定方法
CN102804260B (zh) * 2009-06-19 2014-10-08 富士通株式会社 声音信号处理装置以及声音信号处理方法
CN102074241B (zh) * 2011-01-07 2012-03-28 蔡镇滨 一种通过快速声音波形修复实现声音还原的方法
JP6182895B2 (ja) * 2012-05-01 2017-08-23 株式会社リコー 処理装置、処理方法、プログラム及び処理システム
JP6135106B2 (ja) * 2012-11-29 2017-05-31 富士通株式会社 音声強調装置、音声強調方法及び音声強調用コンピュータプログラム
JP6439682B2 (ja) 2013-04-11 2018-12-19 日本電気株式会社 信号処理装置、信号処理方法および信号処理プログラム
EP3211538A4 (en) 2015-05-08 2018-01-17 Huawei Technologies Co. Ltd. Signal processing method and apparatus
GB201617409D0 (en) * 2016-10-13 2016-11-30 Asio Ltd A method and system for acoustic communication of data
GB201617408D0 (en) 2016-10-13 2016-11-30 Asio Ltd A method and system for acoustic communication of data
US11296739B2 (en) * 2016-12-22 2022-04-05 Nuvoton Technology Corporation Japan Noise suppression device, noise suppression method, and reception device and reception method using same
GB201704636D0 (en) 2017-03-23 2017-05-10 Asio Ltd A method and system for authenticating a device
GB2565751B (en) 2017-06-15 2022-05-04 Sonos Experience Ltd A method and system for triggering events
GB2570634A (en) 2017-12-20 2019-08-07 Asio Ltd A method and system for improved acoustic transmission of data
CN114650203B (zh) * 2022-03-22 2023-10-27 吉林省广播电视研究所(吉林省广播电视局科技信息中心) 单频振幅抑噪测量方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6021612A (ja) * 1983-07-15 1985-02-04 Matsushita Electric Ind Co Ltd グラフイツク・イコライザ
JP2000330597A (ja) * 1999-05-20 2000-11-30 Matsushita Electric Ind Co Ltd 雑音抑圧装置
JP2002073066A (ja) * 2000-08-31 2002-03-12 Matsushita Electric Ind Co Ltd 雑音抑圧装置及び雑音抑圧方法
JP2002140100A (ja) * 2000-11-02 2002-05-17 Matsushita Electric Ind Co Ltd 騒音抑圧装置
JP2003044087A (ja) * 2001-08-03 2003-02-14 Matsushita Electric Ind Co Ltd 騒音抑圧装置、騒音抑圧方法、音声識別装置、通信機器および補聴器
JP2003131689A (ja) * 2001-10-25 2003-05-09 Nec Corp ノイズ除去方法及び装置

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IL84948A0 (en) * 1987-12-25 1988-06-30 D S P Group Israel Ltd Noise reduction system
PT1010168E (pt) * 1997-02-21 2002-02-28 Lernout & Hauspie Speechprod Eliminacao acelerada de ruido de convolucao
CA2312721A1 (en) * 1997-12-08 1999-06-17 Mitsubishi Denki Kabushiki Kaisha Sound signal processing method and sound signal processing device
US6415253B1 (en) * 1998-02-20 2002-07-02 Meta-C Corporation Method and apparatus for enhancing noise-corrupted speech
AU721270B2 (en) * 1998-03-30 2000-06-29 Mitsubishi Denki Kabushiki Kaisha Noise reduction apparatus and noise reduction method
US6088668A (en) * 1998-06-22 2000-07-11 D.S.P.C. Technologies Ltd. Noise suppressor having weighted gain smoothing
JP3454206B2 (ja) * 1999-11-10 2003-10-06 三菱電機株式会社 雑音抑圧装置及び雑音抑圧方法
US6529868B1 (en) * 2000-03-28 2003-03-04 Tellabs Operations, Inc. Communication system noise cancellation power signal calculation techniques
US6862567B1 (en) * 2000-08-30 2005-03-01 Mindspeed Technologies, Inc. Noise suppression in the frequency domain by adjusting gain according to voicing parameters
US20050091049A1 (en) * 2003-10-28 2005-04-28 Rongzhen Yang Method and apparatus for reduction of musical noise during speech enhancement
US7454332B2 (en) * 2004-06-15 2008-11-18 Microsoft Corporation Gain constrained noise suppression
US20050288923A1 (en) * 2004-06-25 2005-12-29 The Hong Kong University Of Science And Technology Speech enhancement by noise masking

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6021612A (ja) * 1983-07-15 1985-02-04 Matsushita Electric Ind Co Ltd グラフイツク・イコライザ
JP2000330597A (ja) * 1999-05-20 2000-11-30 Matsushita Electric Ind Co Ltd 雑音抑圧装置
JP2002073066A (ja) * 2000-08-31 2002-03-12 Matsushita Electric Ind Co Ltd 雑音抑圧装置及び雑音抑圧方法
JP2002140100A (ja) * 2000-11-02 2002-05-17 Matsushita Electric Ind Co Ltd 騒音抑圧装置
JP2003044087A (ja) * 2001-08-03 2003-02-14 Matsushita Electric Ind Co Ltd 騒音抑圧装置、騒音抑圧方法、音声識別装置、通信機器および補聴器
JP2003131689A (ja) * 2001-10-25 2003-05-09 Nec Corp ノイズ除去方法及び装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
KATO M. ET AL: "Omomitsuki Zatsuon Suitei to MMSE STSA-ho ni Motozuku Kohinshitsu Zatsuon Yokuatsu", THE INSTITUTE OF ELECTRONICS, INFORMATION AND COMMUNICATION ENGINEERS GIJUTSU KENKYU HOKOKU UGAZO KOGAKU], vol. 101, no. 19, 13 April 2001 (2001-04-13), pages 53 - 60, XP002999304 *
See also references of EP1806739A4 *

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007336232A (ja) * 2006-06-15 2007-12-27 Nippon Telegr & Teleph Corp <Ntt> 特定方向収音装置、特定方向収音プログラム、記録媒体
JP2008064733A (ja) * 2006-08-09 2008-03-21 Fujitsu Ltd 音源方向推定装置、音源方向推定方法、及びコンピュータプログラム
JP2008065090A (ja) * 2006-09-07 2008-03-21 Toshiba Corp ノイズサプレス装置
JP2008076975A (ja) * 2006-09-25 2008-04-03 Fujitsu Ltd 音信号補正方法、音信号補正装置及びコンピュータプログラム
US8249270B2 (en) 2006-09-25 2012-08-21 Fujitsu Limited Sound signal correcting method, sound signal correcting apparatus and computer program
JP2008275616A (ja) * 2007-04-26 2008-11-13 Gebr Loepfe Ag 周波数に応じた糸又は糸前駆体における欠陥箇所の検出
JP2008301079A (ja) * 2007-05-30 2008-12-11 Pioneer Electronic Corp 音響装置、遅延時間測定方法、遅延時間測定プログラム及びその記憶媒体
JP2010532879A (ja) * 2007-07-06 2010-10-14 オーディエンス,インコーポレイテッド アダプティブ・インテリジェント・ノイズ抑制システム及び方法
JP2009025490A (ja) * 2007-07-18 2009-02-05 Nippon Telegr & Teleph Corp <Ntt> 収音装置、収音方法、その方法を用いた収音プログラム、および記録媒体
JP2009044588A (ja) * 2007-08-10 2009-02-26 Nippon Telegr & Teleph Corp <Ntt> 特定方向収音装置、特定方向収音方法、特定方向収音プログラム、記録媒体
JP2010032802A (ja) * 2008-07-29 2010-02-12 Kenwood Corp 雑音抑制装置、雑音抑制方法、及び雑音抑制プログラム
JP2011191669A (ja) * 2010-03-16 2011-09-29 Sony Corp 音声処理装置、音声処理方法およびプログラム
JP2012113190A (ja) * 2010-11-26 2012-06-14 Nara Institute Of Science & Technology 音響処理装置
JP2014079084A (ja) * 2012-10-10 2014-05-01 Nippon Signal Co Ltd:The 車上装置、及び、これを用いた列車制御装置
JP2017122769A (ja) * 2016-01-05 2017-07-13 株式会社東芝 雑音抑圧装置、雑音抑圧方法及びプログラム

Also Published As

Publication number Publication date
JP4423300B2 (ja) 2010-03-03
CN101027719A (zh) 2007-08-29
CN101027719B (zh) 2010-05-05
US20070232257A1 (en) 2007-10-04
JPWO2006046293A1 (ja) 2008-05-22
EP1806739B1 (en) 2012-08-15
EP1806739A4 (en) 2008-06-04
EP1806739A1 (en) 2007-07-11

Similar Documents

Publication Publication Date Title
WO2006046293A1 (ja) 雑音抑圧装置
JP4282227B2 (ja) ノイズ除去の方法及び装置
EP2008379B1 (en) Adjustable noise suppression system
US8560308B2 (en) Speech sound enhancement device utilizing ratio of the ambient to background noise
EP1141948B1 (en) Method and apparatus for adaptively suppressing noise
US8521530B1 (en) System and method for enhancing a monaural audio signal
US8477963B2 (en) Method, apparatus, and computer program for suppressing noise
EP2031583B1 (en) Fast estimation of spectral noise power density for speech signal enhancement
JP2001134287A (ja) 雑音抑圧装置
KR20060125572A (ko) 노이즈 억제를 위한 방법 및 장치
WO2006082636A1 (ja) 信号処理方法および信号処理装置
JP2004341339A (ja) 雑音抑圧装置
JP2007006525A (ja) ノイズ除去の方法及び装置
EP2689419A1 (en) Method and arrangement for damping dominant frequencies in an audio signal
JP2003140700A (ja) ノイズ除去方法及び装置
JPH11265199A (ja) 送話器
EP2689418A1 (en) Method and arrangement for damping of dominant frequencies in an audio signal
EP1278185A2 (en) Method for improving noise reduction in speech transmission
WO2020110228A1 (ja) 情報処理装置、プログラム及び情報処理方法
JP2003131689A (ja) ノイズ除去方法及び装置
JP3310225B2 (ja) 雑音レベル時間変動率計算方法及び装置と雑音低減方法及び装置
JP2007226264A (ja) 雑音抑圧装置
JP5131149B2 (ja) 雑音抑圧装置及び雑音抑圧方法
JP4478045B2 (ja) エコー消去装置、エコー消去方法、エコー消去プログラムおよびその記録媒体
JP4209348B2 (ja) エコー抑圧方法、この方法を実施する装置、プログラムおよび記録媒体

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BW BY BZ CA CH CN CO CR CU CZ DK DM DZ EC EE EG ES FI GB GD GE GM HR HU ID IL IN IS JP KE KG KP KZ LC LK LR LS LT LU LV MA MD MK MN MW MX MZ NA NI NO NZ PG PH PL PT RO RU SC SD SE SG SK SY TJ TM TN TR TT TZ UA UG US UZ VN YU ZA ZM

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ NA SD SZ TZ UG ZM ZW AM AZ BY KG MD RU TJ TM AT BE BG CH CY DE DK EE ES FI FR GB GR HU IE IT MC NL PL PT RO SE SI SK TR BF CF CG CI CM GA GN GQ GW ML MR SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2006542170

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 2004793135

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 11727062

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 200480044105.1

Country of ref document: CN

NENP Non-entry into the national phase

Ref country code: DE

WWP Wipo information: published in national office

Ref document number: 2004793135

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 11727062

Country of ref document: US