WO2006082636A1 - 信号処理方法および信号処理装置 - Google Patents

信号処理方法および信号処理装置 Download PDF

Info

Publication number
WO2006082636A1
WO2006082636A1 PCT/JP2005/001515 JP2005001515W WO2006082636A1 WO 2006082636 A1 WO2006082636 A1 WO 2006082636A1 JP 2005001515 W JP2005001515 W JP 2005001515W WO 2006082636 A1 WO2006082636 A1 WO 2006082636A1
Authority
WO
WIPO (PCT)
Prior art keywords
noise
spectrum
signal
input
section
Prior art date
Application number
PCT/JP2005/001515
Other languages
English (en)
French (fr)
Inventor
Mitsuyoshi Matsubara
Takeshi Otani
Kaori Endo
Yasuji Ota
Original Assignee
Fujitsu Limited
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Limited filed Critical Fujitsu Limited
Priority to JP2007501472A priority Critical patent/JP4519169B2/ja
Priority to CN200580047603A priority patent/CN100593197C/zh
Priority to PCT/JP2005/001515 priority patent/WO2006082636A1/ja
Priority to EP05709635A priority patent/EP1845520A4/en
Publication of WO2006082636A1 publication Critical patent/WO2006082636A1/ja
Priority to US11/826,122 priority patent/US20070265840A1/en

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals

Definitions

  • the present invention relates to a signal processing method and a signal processing device, and more particularly to a method and a device necessary for audio signal processing such as a noise canceller and VAD used in, for example, a digital cellular phone.
  • noise canceller As a technique for making a voice easy to hear by suppressing background noise in a call voice in a digital mobile phone or the like.
  • VAD is a technology for reducing the power consumption of the transmitter by turning the transmission output ONZOFF according to the presence or absence of audio for the input signal. In these noise cancellers and VADs, it is necessary to determine the section where there is voice or no voice during a call, and the section.
  • a long-term average of power calculated in the past is regarded as noise power, and this is compared with the current section power, and a section with large power in the current section is determined as a voice section.
  • noise power a long-term average of power calculated in the past
  • SNR signal-to-noise ratio
  • the input signal is subjected to time-frequency conversion at regular intervals to calculate a frequency domain signal (hereinafter referred to as input spectrum) of the input signal.
  • input spectrum a frequency domain signal
  • the long-term average of the input spectrum calculated in the past is regarded as the noise spectrum (hereinafter referred to as the average noise spectrum).
  • the noise spectrum hereinafter referred to as the average noise spectrum.
  • Patent Document 1 JP 2001-265367 A
  • Patent Document 1 discloses a method in which noise updating is performed by controlling the time constant of noise updating according to the value of the signal-to-noise ratio SNR for each band regardless of the section determination result. Are also disclosed.
  • the present invention has been made to solve the above-described problems, and it is possible to estimate the noise spectrum due to the influence of speech in the signal section while increasing the follow-up speed of the estimated noise in the sudden increase section of the noise level. It is an object of the present invention to provide a signal processing method and apparatus in which errors are unlikely to occur.
  • a signal processing method includes a time domain signal extraction step for extracting a time domain signal that is sampling data of an input signal, A frequency domain signal analysis step of calculating an input spectrum by converting a domain signal into a frequency domain signal, and using a minimum component of the input spectrum, a noise spectrum that is a frequency domain signal of a noise component included in the input signal is obtained. It includes a step of estimating. This will be described with reference to the drawings.
  • sections (i) and (iv) in the figure are “noise-only sections” (hereinafter referred to as noise sections). There is a sudden increase in noise level in section (iii).
  • Sections (ii) and (V) are “voice and noise mixed sections” (hereinafter referred to as mixed sections). To do. ).
  • Fig. 2 shows typical input spectra in the sections (i), (ii), (iv), and (v) above.
  • the minimum part of the input spectrum A is connected by a straight line and is called the minimum spectrum B as shown in FIG.
  • the input spectrum A which is the input signal force frequency domain signal in the time domain of a predetermined section is calculated.
  • the noise estimation step the minimum spectrum B is obtained using the minimum value of the input spectrum A, and the noise spectrum that is the frequency domain signal of the noise component in the current frame is estimated.
  • the estimated noise is calculated using the minimum portion of the spectrum, so that an estimation error of the noise spectrum due to the influence of the voice signal is unlikely to occur and the noise level rapidly increases. It is also possible to increase the tracking speed of the estimated noise.
  • the estimated noise spectrum is averaged for a long time, and more stable noise estimation is possible.
  • each frame includes a section or speech in which speech and noise are mixed.
  • An interval determination step for determining which of the noise intervals is not included may be further included.
  • the mixed section and the noise section can be identified, and noise suppression and power saving can be performed.
  • An excellent system can be constructed.
  • the noise estimation step when the determination result in the section determination step up to the previous frame indicates the mixed section, the instantaneous noise spectrum is calculated.
  • the average noise spectrum can be obtained using the input noise spectrum, and the average noise spectrum can be obtained using the input spectrum when the noise interval is indicated.
  • the average noise spectrum is obtained using the instantaneous noise spectrum as described above.
  • the determination result indicates the noise section, the average noise spectrum is obtained based on the input spectrum because the input spectrum is not required to use the instantaneous noise spectrum.
  • the determination result in the section determination step is taken into consideration, and the suppression amount for the input signal is calculated for each band based on the noise spectrum and the input spectrum.
  • the method may further include a suppression amount calculating step for suppressing noise of the input signal.
  • the suppression amount for the input signal is calculated based on the noise spectrum and the input spectrum, and this suppression amount is suppressed in the case of the mixed section, for example, in consideration of the determination result in the section determination step. If the amount is reduced and the amount of suppression is increased in the noise interval, more effective noise suppression can be achieved.
  • the input signal may be an audio signal.
  • an effective application is provided.
  • FIG. 3 is a configuration block diagram showing a signal processing device functioning as a noise estimation device and a noise interval determination device according to the first embodiment of the present invention.
  • This signal processing device is composed of a time domain signal extraction unit 1, a frequency domain signal analysis unit 2, a noise estimation device 3a, and a section determination device 4a. Details of each block will be described below.
  • the time domain signal extraction unit 1 quantizes an analog input speech signal and extracts a time domain signal X (k) as sample key data per unit time (frame) (where n is O).
  • the frequency domain signal analyzer 2 performs frequency analysis on the time domain signal X (k) using, for example, FFT (Fast Fourier Transform), etc., and calculates the spectrum amplitude of the input signal. Calculate an input spectrum X (1) (corresponding to input spectrum A in Fig. 2). For FFT, see “Digital Signal Processing Series No.
  • the input spectrum X (D may be divided into a plurality of bands and a band spectrum calculated by weighted equalization in each band may be used instead of the input spectrum.
  • the noise estimation device 3a includes an instantaneous noise estimation unit 31.
  • This instantaneous noise estimation unit 31 estimates the instantaneous noise spectrum ⁇ (1), which is the noise spectrum in the current frame, from the rough shape of the input spectrum X (1) calculated by the frequency domain signal analysis unit 2.
  • instantaneous noise vector ⁇ ⁇ ⁇ ⁇ (D is calculated by the following procedure.
  • the minimum value m (k) of the input spectrum X (!) Force is also selected.
  • an input spectrum X (1) that satisfies the following conditional expression is selected as the minimum value m (k).
  • a minimum spectrum M (!) (Corresponding to the minimum spectrum B in FIG. 2) is calculated from the minimum value m (k). Where f is the frequency of the kth minimum m (k), the minimum spectrum M (! Is the minimum
  • n k n can be expressed as a function of the values m (k) and f.
  • a power higher-order polynomial, a linear function, or the like showing an example in which a nonlinear function is used to calculate the minimal spectrum M (£) may be used.
  • the instantaneous noise spectrum N (!) Is calculated using the minimum spectrum M (!) Obtained in this way.
  • the instantaneous noise spectrum N (1) can be calculated by adding or multiplying the minimum spectrum M (1) by the correction coefficient a (D).
  • the correction coefficient a (£) may be a constant calculated empirically from actual noise in advance (in consideration of noise dispersion or the like) or may be a variable calculated for each frame.
  • a (D is a variable are shown as Calculation Example 1 and Calculation Example 2.
  • a variance value ⁇ (1) of the input spectrum ⁇ ( ⁇ ) is calculated in the past section determined as noise by the noise Z speech determination unit 42 in the subsequent stage, and this variance is calculated.
  • the correction coefficient ⁇ (£) is calculated from the value ⁇ (£).
  • the dispersion value ⁇ (1) can be calculated for each frequency band, or
  • it may be calculated by a weighted average or the like in a specific band.
  • the calculation is performed according to the integral value Rxm of the ratio between the input spectrum X (1) and the minimum spectrum (£).
  • the integral value Rxm can be expressed by the following equation.
  • the integral value Rxm corresponds to the area of the shaded area in FIG. 5, and is small in the noise section shown in (1) of the figure, and is large in the voice and noise mixed section shown in (2) of the figure. Take. Therefore,
  • the correction coefficient ⁇ ⁇ ( ⁇ is defined as a function of the integral value Rxm n as shown in FIG. 6 for example, the correction coefficient ⁇ (£) at the time of instantaneous noise calculation is changed according to the contribution of the audio signal in the input signal, It is possible to estimate a noise spectrum closer to the actual situation.
  • the integral value Rxm may be calculated in a specific band.
  • the Rxm-1, Rxm-2, ⁇ -1 ( ⁇ ), ⁇ _2 ( ⁇ ) may be used the same value in good instrument a particular band even with different values in each frequency band. This is appropriately selected to correspond to the actual noise spectrum.
  • the instantaneous noise spectrum N (D estimated by the instantaneous noise estimation unit 31 in this way is output from the noise estimation device 3a.
  • the section determination device 4a includes a noise Z speech determination parameter calculation unit 41a and a noise Z speech determination unit 42.
  • the noise Z speech determination parameter calculation unit 41a uses the instantaneous noise spectrum N (D calculated by the instantaneous noise estimation unit 31 and the input spectrum X (1) from the frequency domain signal analysis unit 2 for section determination. Parameters are calculated.
  • the power of the input signal is calculated from the input spectrum X (D, and the instantaneous noise spectrum N (D power is calculated as the instantaneous noise power. Then, the signal calculated from each power is calculated.
  • the SNR is used as a parameter for interval determination.
  • the outside of the input X (D and the instantaneous noise spectrum N the integrated value R of the signal-to-noise ratio for each band calculated from D is determined
  • the integral value R can be expressed by the following equation.
  • Equation 7 L: Number of frequency bands
  • the frequency integration range for obtaining the integral value R may be limited to a specific band.
  • the noise Z speech determination unit 42 performs section determination by comparing the section determination parameter calculated by the noise Z speech determination parameter calculation unit 41a with a threshold value, and outputs a determination result vad_flag. That is, if the judgment result vadjkg is FALSE, the frame is audio. If the judgment result vad_flag power is TRUE, it means that the frame is a noise section that does not contain speech.
  • the signal-to-noise ratio SNR or the integral value R calculated by the noise Z speech determination parameter calculation unit 41a is used as the section determination parameter.
  • the noise Z speech determination parameter calculation unit 41a is configured to calculate both the signal-to-noise ratio SNR and the integral value R, and both the signal-to-noise ratio SNR and the integral value R are calculated.
  • FIG. 7 shows a signal processing device that functions as a noise estimation device and a noise section determination device according to the second embodiment of the present invention. Similar to the signal processing device according to the first embodiment, this signal processing device includes a time domain signal extraction unit 1, a frequency domain signal analysis unit 2, a noise estimation device 3b, and a section determination device 4b. ing. However, here, as in the first embodiment, the instantaneous noise spectrum is not directly used as the estimated noise spectrum, but the average noise spectrum is calculated, and this average noise spectrum is calculated as the estimated noise spectrum. Is output as The blocks having the same numbers as those in FIG. 3 are the same as those in the first embodiment, and the description thereof is omitted here.
  • the average noise estimation unit 32b uses the instantaneous noise spectrum N (D calculated by the instantaneous noise estimation unit 31 to calculate the average noise spectrum.
  • calculation example 1 calculation is performed using an FIR filter. At this time, the average noise spectrum
  • N n (f) is calculated by the weighted average of the instantaneous noise spectrum ⁇ ( ⁇ ) for the past K frames including the current frame. This can be expressed as: [0064] [Equation 8]
  • N n (f) ⁇ fi n (f) x N n (f) Equation (8) n (f): Weight coefficient
  • the weighting coefficient ⁇ (£) may be set to a different value for each frequency.
  • calculation example 2 calculation is performed using an IIR filter. At this time, the average noise spectrum
  • N f) f) ⁇ N mundane_, (f) + ( ⁇ -(f)) x N f) Equation (9) ⁇ (): Weighting factor
  • the weight coefficient (£) may be set to a different value for each frequency.
  • the noise Z voice determination parameter calculation unit 41b receives N n (f), and the signal-to-noise ratio SNR and the signal-to-noise for each band described in the noise Z sound determination parameter calculation unit 41a of the first embodiment are used.
  • the integral R of the ratio is the instantaneous noise spectrum N (average noise spectrum instead of D
  • the same calculation may be performed using N n (f).
  • the subsequent processing in the noise Z speech determination unit 42 is the same as in the first embodiment.
  • FIG. 8 shows a signal processing device that functions as a noise estimation device and a noise section determination device according to the third embodiment of the present invention. Similar to the signal processing device according to the first embodiment, this signal processing device includes a time domain signal extraction unit 1, a frequency domain signal analysis unit 2, a noise estimation device 3c, and a section determination device 4c. Yes. However, the difference from the second embodiment is that the input spectrum of the section determined as the noise section is used as it is in the next frame. This is in the point used for calculating the average noise spectrum. Note that blocks having the same numbers as those in FIG. 3 are the same as those in the first embodiment, and a description thereof is omitted here.
  • N n (f) is calculated.
  • N n (f) first the input spectrum X (!) And the average noise spectrum calculated up to the previous frame in the interval determination device 4c)
  • the section is determined using.
  • N n (f) is calculated.
  • the input signal is the noise component itself, and therefore the input spectrum may be used without using the instantaneous noise spectrum as described above.
  • the integrated value R of the signal-to-noise ratio SNR and the signal-to-noise ratio for each band calculated by the noise Z speech determination parameter calculation unit 41a of the first embodiment Is the instantaneous noise spectrum N (the average noise spectrum calculated up to the previous frame by the average noise estimator 32c instead of D).
  • FIG. 9 shows a signal processing device that functions as a noise suppression device according to the fourth embodiment of the present invention.
  • This noise suppression device includes the time domain signal extraction unit 1, the frequency domain signal analysis unit 2, the noise estimation device 3a, and the interval determination device 4a already described in the signal processing device according to the first embodiment.
  • the noise suppression apparatus according to the fourth embodiment further includes a suppression amount calculation unit 5, a suppression unit 6, and a time domain signal synthesis unit 7.
  • the frequency domain signal analysis unit 2 uses the FFT to generate the input spectrum X (D. Then, the suppression amount calculation unit 5 calculates the input cusp outside X calculated by the frequency domain signal analysis unit 2. (D and the instantaneous noise spectrum N calculated by the instantaneous noise estimation unit 31 (D is used to calculate the suppression coefficient G (1) for each band.
  • the suppression coefficient G (D is calculated from the following equation).
  • G n (f) W n (f) (0 ⁇ G n (f) ⁇ l) (10)
  • the coefficient W (£) in this equation (10) is the coefficient W (1) is small when the determination result vadjlag in the noise Z speech determination unit 42 indicates a mixed section, and the noise section
  • the coefficient W (D) is increased, the suppression coefficient in the noise section can be made larger than that in the mixed section. Therefore, the suppression amount can be increased.
  • the suppression unit 6 calculates the amplitude spectrum Y (D for each band after noise suppression using the suppression coefficient G (D and the input spectrum X (D) calculated by the suppression amount calculation unit 5.
  • the amplitude spectrum ⁇ ( ⁇ ) is calculated from the following equation.
  • the time domain signal synthesizer 7 inversely transforms the amplitude spectrum Y (D into the frequency domain force time domain by IFFT (Inverse Fast Fourier Transform) and calculates the output signal y (t).
  • IFFT Inverse Fast Fourier Transform
  • the noise estimation device 3a and the section determination device 4a the first embodiment is used.
  • the noise estimation device 3a and the section determination device 4a may be those shown in the second embodiment or the third embodiment.
  • the suppression amount calculation unit 5 uses the instantaneous noise spectrum N (average noise spectrum instead of D).
  • the suppression coefficient G (D is calculated using N n (f).
  • the input spectrum by band calculated by the FIR filter instead of the input spectrum X (D is calculated by FFT.
  • the output signal y (t) in the time domain can be calculated using inverse transform corresponding to the input amplitude for each band instead of IFFT.
  • FIG. 1 is a waveform diagram showing changes in an input audio signal for each section in order to explain the principle of the present invention.
  • FIG. 2 is a spectrum diagram showing the spectrum of the input speech signal in FIG. 1 for each section.
  • FIG. 3 is a configuration block diagram showing a signal processing device according to the first embodiment of the present invention.
  • FIG. 4 is a spectrum diagram showing an example of a minimum spectrum calculated by the signal processing device according to the first embodiment of the present invention.
  • FIG. 5 is a spectrum diagram for explaining calculation of a correction coefficient to be multiplied to the minimum spectrum calculated by the signal processing device according to the first embodiment of the present invention.
  • FIG. 6 is a relationship diagram for explaining calculation of a correction coefficient to be multiplied to the minimum spectrum calculated by the signal processing device according to the first embodiment of the present invention.
  • FIG. 7 is a structural block diagram showing a signal processing device according to a second embodiment of the present invention.
  • FIG. 8 is a structural block diagram showing a signal processing device according to a third embodiment of the present invention.
  • FIG. 9 is a configuration block diagram showing a signal processing device functioning as a noise suppression device according to a fourth embodiment of the present invention.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Quality & Reliability (AREA)
  • Noise Elimination (AREA)

Abstract

 雑音レベルの急増区間において推定雑音の追従速度を高めつつ、且つ音声区間において音声の影響による雑音スペクトルの推定誤差が生じ難いような信号処理方法及び装置を提供するため、入力信号の標本化データである時間領域信号を抽出し、フレーム毎に、該時間領域信号を周波数領域信号に変換して入力スペクトルを算出し、さらに、該入力スペクトルの極小値を求めて該入力音声信号に含まれる雑音成分の周波数領域信号である雑音スペクトルを推定する。さらには、入力スペクトルと雑音スペクトルとを比較して、雑音区間か、又は雑音と音声の混在区間かを判定する。

Description

明 細 書
信号処理方法および信号処理装置
技術分野
[0001] 本発明は、信号処理方法および信号処理装置に関し、特に、例えば、ディジタル 携帯電話等で用いられるノイズキャンセラや VAD等の音声信号処理に必要な方法 および装置に関するものである。
背景技術
[0002] ディジタル方式携帯電話等において、通話音声中の背景雑音を抑圧して音声を聞 こえ易くする技術としてノイズキャンセラがある。また、入力信号について、音声の有 無に応じて送信出力の ONZOFFを行うことで送信部の省電力化を図る技術として VADがある。これらノイズキャンセラや VAD等では通話中に音声が存在する区間も しくは音声が存在しな!、区間を判定する必要がある。
[0003] 区間判定の方法として、例えば、過去において算出した電力の長期平均を雑音の 電力とみなし、これと現区間の電力とを比較して、現区間の電力の大きい区間を音声 区間と判定するという方法がある。しかしながら、このような単純な電力の比較だけで は、背景雑音レベルが大きく信号対雑音比 SNRが小さい場合に、音声を雑音と誤判 定してしまう場合がある。
[0004] この対策として音声の周波数領域信号を利用して、区間判定を行う手法が提案さ れている(例えば、特許文献 1参照。 ) o以下にこの技術を説明する。
[0005] 入力信号について、一定期間毎に時間 周波数変換を行い、入力信号の周波数 領域信号 (以降、入力スペクトルと称する。)を算出する。ここで、過去において算出 した入力スペクトルの長期平均を雑音のスペクトル (以降、平均雑音スペクトルと称す る。)とみなす。この平均雑音スペクトルと入力スペクトルについて帯域別の信号対雑 音比 SNRを算出し、所望の帯域において帯域別の信号対雑音比 SNRの平均値、正 (負)変動量、分散値などを算出する。そして、これらの値を用いて区間判定を行う。 また、上記区間判定により雑音区間と判定された場合のみ、入カスペ外ルを用いて 平均雑音スペクトルの更新を行う。以上のようにして、より精度の高い区間判定を実 現しようとするものである。
特許文献 1:特開 2001— 265367
発明の開示
発明が解決しょうとする課題
[0006] し力しながら、特許文献 1に記載されているような従来の技術では、雑音区間のみ で平均雑音スペクトルの更新を行うため、雑音レベルが急激に増大した場合に雑音 区間を音声区間と誤判定し、その後の平均雑音スペクトルの更新が行われず、誤判 定を継続してしまうと 、う問題がある。
[0007] これを回避するために、特許文献 1には区間判定結果によらず、帯域別の信号対 雑音比 SNRの値に応じて雑音更新の時定数を制御し雑音更新を行う、という方法も 開示されている。
[0008] し力しながら、音声区間において平均雑音スペクトルの更新を行うと、少なからず音 声の影響により平均雑音スペクトルが過大評価されてしまうため、小レベルの音声区 間が雑音区間と誤判定され易くなるという新たな問題が生じる。
[0009] 本発明は上記のような課題を解決するためになされたもので、雑音レベルの急増区 間において推定雑音の追従速度を高めつつ、且つ信号区間において音声の影響に よる雑音スペクトルの推定誤差が生じ難いような信号処理方法及び装置を提供する ことを目的とする。
課題を解決するための手段
[0010] (1)上記の目的を達成するため、本発明に係る信号処理方法は、入力信号の標本 化データである時間領域信号を抽出する時間領域信号抽出ステップと、フレーム毎 に、該時間領域信号を周波数領域信号に変換して入力スペクトルを算出する周波数 領域信号分析ステップと、該入力スペクトルの極小成分を利用して、該入力信号に 含まれる雑音成分の周波数領域信号である雑音スペクトルを推定するステップとを含 むことを特徴としている。これを、図を参照して説明する。
[0011] まず、図 1のような入力信号 (雑音重畳音声)を例とした場合、図中の区間 (i)、 (iv) は「雑音のみの区間」(以下、雑音区間と称する。)であり、区間 (iii)で雑音レベルの 急増が生じている。区間 (ii)、 (V)は「音声と雑音の混在区間」(以下、混在区間と称 する。)である。図 2に上記の区間(i)、 (ii)、 (iv)、 (v)の各区間における典型的な入 力スペクトルを示す。
[0012] また、図 2の区間 (i)と区間 (ii)の入力スペクトル Aを比較すると、区間 (ii)の「音声と 雑音の混在区間」において、入力スペクトル Aの極小部分(図中の黒丸部分)は重畳 雑音によりマスクされており雑音の寄与度が高いので、区間(i)の「雑音のみの区間」 の入力スペクトルの極小部分の値と同等となる。これは、雑音レベルが増加した場合 でも同様で、区間 (iv)の「雑音のみの区間」と区間 (V)の「音声と雑音の混在区間」の スペクトルの極小部分の値は同等となる。以下の説明では、入力スペクトルの極小部 分を直線で結んで、図 2に示す如く極小スペクトル Bと称する。
[0013] このような原理に基づき、本発明では、時間領域信号抽出ステップと周波数領域信 号分析ステップにおいて、所定区間の時間領域の入力信号力 周波数領域信号で ある入力スペクトル Aを算出する。そして、雑音推定ステップにおいて、この入カスペ タトル Aの極小値を用いて、極小スペクトル Bを求め、現フレーム中の雑音成分の周 波数領域信号である雑音スペクトルを推定する。
[0014] このように、本発明ではこのスペクトルの極小部分を利用して推定雑音を算出する ことで、音声信号の影響による雑音スペクトルの推定誤差が生じ難ぐ且つ雑音レべ ルの急増区間においても推定雑音の追従速度を高めることが可能となる。
[0015] (2)上記(1)において、該雑音推定ステップでは、該雑音スペクトルとして、フレー ム毎の瞬時雑音スペクトルを求めることができる。
[0016] 従って、雑音スペクトルの推定ステップはフレーム内で閉じているので、より応答性 の高い雑音の推定が可能となる。また、比較的小規模の回路構成での実装が可能と なる。
[0017] (3)上記(1)にお 、て、該雑音推定ステップでは、該雑音スペクトルとして、該瞬時 雑音スペクトルの複数のフレームにわたる平均雑音スペクトルを求めることができる。
[0018] これにより、推定された雑音スペクトルは、長時間平均されることとなり、より安定した 雑音の推定が可能となる。
[0019] (4)上記(1)乃至(3)のいずれか 1つにおいて、該雑音スペクトルと該入カスペタト ルとを比較して、それぞれのフレームが音声と雑音の混在した区間又は音声を含ま ない雑音区間の何れであるかを判定する区間判定ステップを更に含むことができる。
[0020] すなわち、図 1および図 2に示したように、入力スペクトル Aと、極小スペクトル Bに基 づく瞬時雑音スペクトルを比較することによって、混在区間と雑音区間を特定でき、 雑音抑圧と省電力に優れたシステムを構築できる。
[0021] (5)上記 (4)にお 、て、該雑音推定ステップでは、前フレームまでの該区間判定ス テツプでの判定結果が該混在区間を示して 、るときには、該瞬時雑音スペクトルを用 いて該平均雑音スペクトルを求め、該雑音区間を示しているときには該入カスペタト ルを用いて該平均雑音スペクトルを求めることができる。
[0022] すなわち、該区間判定ステップでの前フレームまでの判定結果力 該混在区間を 示しているときには、上記のとおり、該瞬時雑音スペクトルを用いて該平均雑音スぺク トルを求めるが、該判定結果が該雑音区間を示しているときには、該瞬時雑音スぺク トルを用いる必要はなぐ該入力スペクトルを用いればよいので、この入力スペクトル に基づいて該平均雑音スペクトルを求めることになる。
[0023] (6)上記 (4)にお 、て、該区間判定ステップでの判定結果を考慮し、さらに該雑音 スペクトルと該入力スペクトルに基づき該入力信号に対する抑圧量を帯域毎に算出 して該入力信号の雑音抑圧を行う抑圧量算出ステップをさらに含むことができる。
[0024] これにより、入力信号に対する抑圧量を雑音スペクトルと入力スペクトルに基づいて 算出するが、この抑圧量を該区間判定ステップでの判定結果を考慮して、例えば該 混在区間の場合には抑圧量を小さくし、該雑音区間の場合には抑圧量を大きくすれ ば、より効果的な雑音抑圧が可能となる。
[0025] これにより、応答性と安定性のバランスの取れた雑音推定が可能となる。
[0026] (7)上記(1)乃至(6)のいずれかにおいて、該入力信号は、音声信号でもよい。こ の場合、実効ある応用が提供される。
[0027] なお、本発明では、上記(1)乃至(7)に記載の信号処理方法を、それぞれ実施す る為の信号処理装置を実現する事ができる。
発明の効果
[0028] 本発明によれば、雑音レベルの急増区間において推定雑音の追従速度を高めつ つ、混在区間において音声の影響による雑音スぺ外ルの推定誤差を低減し、正確 な区間判定を行うことができる。
発明を実施するための最良の形態
[0029] 以下、図面を参照して、本発明の実施形態を説明する。
Kp mm
図 3は、本発明の第 1の実施形態による雑音推定装置及び雑音区間判定装置とし て機能する信号処理装置を示す構成ブロック図である。この信号処理装置は、時間 領域信号抽出部 1と、周波数領域信号分析部 2と、雑音推定装置 3aと、区間判定装 置 4aとで構成されている。以下に各ブロックの詳細を説明する。
[0030] 時間領域信号抽出部 1は、アナログの入力音声信号を量子化し、単位時間 (フレー ム)毎の標本ィ匕データとしての時間領域信号 X (k)を抽出する(ここで、 nはフレーム番 号を表す。 ) oまた、周波数領域信号分析部 2は、時間領域信号 X (k)について、例え ば FFT (高速フーリエ変換)などを用いて周波数分析を行い、入力信号のスペクトル 振幅である入力スペクトル X (1) (図 2の入力スペクトル Aに対応)を算出する。ここで、 FFTについては「ディジタル信号処理シリーズ第 1卷ディジタル信号処理 (辻井、鎌 田)、 94一 120頁、昭晃堂」や「コンピュータ音楽 (Curtis Roads著、青柳他訳 '監修) 452— 457頁、東京電機大学出版局」等で詳細に説明されている。
[0031] なお、入力スペクトル X (Dを複数の帯域に分割し、それぞれの帯域で重み付け平 均等により算出した帯域スペクトルを入力スペクトルの代わりに用いても良 、。
[0032] また、 BPF (バンドパスフィルタ)により算出した帯域別入力振幅 'リ
を入力スペクトル X (Dの代わりに用いることができる。ここで、帯域別入力振幅
は以下の手順により算出する。
[0033] 先ず、次式より、入力信号 X (t)を帯域信号
に分割する。 [0034] [数 1]
M-l
(i,リ =∑ (BPF(i, j) xx t-j)) 式 (1) ゾ =o
BPF(i, j) :帯域分割用の FIRフィルタ係数
M : FIRフィルタの次数
i :帯域番号
[0035] 次に、次式より、フレーム毎に帯域別入力振幅
X i) を算出する。
[0036] [数 2] (N : フレーム長) 式 (2)
Figure imgf000008_0001
[0037] 以上のようにして求めた入力スペクトルを、雑音推定装置 3aと区間判定装置 4aへ の入力とする。
[0038] 雑音推定装置 3aは、瞬時雑音推定部 31を備えている。この瞬時雑音推定部 31で は、周波数領域信号分析部 2で算出した入力スペクトル X (1)の概形から現フレーム 中の雑音のスペクトルである瞬時雑音スペクトル Ν (1)を推定する。ここで、瞬時雑音ス ベクトル Ν (Dは以下の手順により算出する。
[0039] 先ず、入力スペクトル X (!)力もスペクトルの極小値 m (k)を選択する。例えば、以下 のような条件式を満たす入力スペクトル X (1)を極小値 m (k)として選択する。
[0040] [数 3]
Xn(f)<Xn(f-\) かつ X f)<Xn(f + 式 (3)
[0041] 次に、極小値 m (k)より極小スペクトル M (!) (図 2の極小スペクトル Bに対応)を算出 する。ここで、 k番目の極小値 m (k)の周波数を f とすると、極小スペクトル M (!)は極小
n k n 値 m (k)と f の関数で表せる。例えば極小スペクトル M (D力 図 4に示すような関数で n k n
ある時、極小スペクトル M (!)は次式で表せる。
[0042] [数 4] M /リ Uん―リ + x (/— ー】) 式 (4)
Figure imgf000009_0001
[0043] なお、図 4では極小スペクトル M (£)の算出に非線形関数を用いた例を示した力 高 次多項式や線形関数等を用いてもょ ヽ。
[0044] 次に、このようにして求めた極小スペクトル M (!)を用いて瞬時雑音スペクトル N (!)を 算出する。ここで、瞬時雑音スペクトル N (1)は、極小スペクトル M (1)に補正係数 a (D を加算、もしくは乗算することにより算出することができる。
[0045] ここで補正係数 a (£)は、事前に実際の雑音から (雑音の分散等を考慮して)経験 的に求めておいた定数でも良ぐフレーム毎に算出した変数でも良い。以下に、 a (D が変数である場合を、算出例 1及び算出例 2として示す。
[0046] 算出例 1としては、後段の雑音 Z音声判定部 42で雑音と判定された過去の区間に おいて入力スペクトル Χ (ί)の分散値 σ (1)を算出しておき、この分散値 σ (£)より補正 係数 α (£)を算出する。ここで分散値 σ (1)は周波数帯域毎に算出しても良ぐまたは
、或る特定の帯域における重み付け平均等により算出しても良い。
[0047] 分散値 σ (£)による補正係数 α (£)の算出の一例として、次のような計算式を用いる ことができる。
[0048] [数 5] (/') = ,, (/) xび„(/) 式 (5)
[0049] ここで、係数 γ (£)は、実験的に求められる経験値である。
[0050] 算出例 2としては、入力スペクトル X (1)と極小スペクトル Μ (£)との比の積分値 Rxmに 応じて算出する。ここで、積分値 Rxmは次式で表せる。
[0051] 園
Rxmn = ( L:周波数帯域数) 式 (6)
Figure imgf000009_0002
[0052] ここで、積分値 Rxmは図 5の斜線領域の面積に対応し、同図(1)に示す雑音区間 では小さぐ同図(2)に示す音声と雑音の混在区間では大きな値をとる。したがって、 補正係数 α η(βを積分値 Rxmnの関数として例えば図 6のように規定すると、入力信号 中の音声信号の寄与度に応じて瞬時雑音算出時の補正係数 α (£)を変化させ、より 実態に近い雑音スペクトルを推定することが可能となる。
[0053] この時、積分値 Rxmを或る特定の帯域において算出しても良い。また Rxm-1、 Rxm-2、 α -1(ί)、 α _2(ί)は各周波数帯域で異なる値を用いても良ぐ或る特定の帯域 において同じ値を用いても良い。これは、現実の雑音スペクトルに対応するように適 宜選択される。
[0054] このようにして瞬時雑音推定部 31で推定された瞬時雑音スペクトル N (Dは雑音推 定装置 3aから出力される。
[0055] これと共に瞬時雑音スぺ外ル N (Dは区間判定装置 4aに送られる。区間判定装置 4 aは、雑音 Z音声判定用パラメータ算出部 41aと雑音 Z音声判定部 42とを備えてい る。雑音 Z音声判定用パラメータ算出部 41aでは、瞬時雑音推定部 31にて算出した 瞬時雑音スペクトル N (Dと、周波数領域信号分析部 2からの入力スペクトル X (1)を用 いて区間判定用のパラメータを算出する。
[0056] この区間判定用のパラメータとしては、例えば入力スペクトル X (Dから入力信号の 電力を算出し、瞬時雑音スペクトル N (D力 瞬時雑音の電力を算出する。そして各電 力から算出した信号対雑音比 SNRを区間判定用のパラメータとして利用する。また は、入カスペ外ル X (Dと瞬時雑音スペクトル N (Dより算出した帯域毎の信号対雑音 比の積分値 R等を、区間判定用のパラメータとして用いてもよい。ここで、積分値 Rは 次式で表せる。
[0057] [数 7] L:周波数帯域数) 式 (7)
Figure imgf000010_0001
[0058] なお、積分値 Rを求める周波数の積分範囲を、或る特定の帯域に限定して算出し ても良い。
[0059] 雑音 Z音声判定部 42では、雑音 Z音声判定用パラメータ算出部 41aにて算出し た区間判定用パラメータと閾値とを比較することにより区間判定を行い、判定結果 vad_flagを出力する。すなわち、判定結果 vadjkgが FALSEなら、そのフレームが音声 を含む混在区間であることを意味し、判定結果 vad_flag力TRUEなら、そのフレームが 音声を含まない雑音区間であることを意味する。
[0060] ここで、区間判定用パラメータとしては、雑音 Z音声判定用パラメータ算出部 41aで 算出した信号対雑音比 SNRまたは積分値 Rを用いる。より効果的な実装としては、雑 音 Z音声判定用パラメータ算出部 41aを、信号対雑音比 SNR及び積分値 Rの両方 を算出するように構成し、信号対雑音比 SNR及び積分値 Rの両方の関数として、区 間判定用パラメータを計算し、判定に利用することもできる。
第 2の実施形
[0061] 図 7は、本発明の第 2の実施形態により雑音推定装置及び雑音区間判定装置とし て機能する信号処理装置を示す。この信号処理装置は、第 1の実施形態による信号 処理装置と同様に、時間領域信号抽出部 1と、周波数領域信号分析部 2と、雑音推 定装置 3bと、区間判定装置 4bとで構成されている。ただし、ここでは、第 1の実施形 態のように、瞬時雑音スペクトルをそのまま推定雑音スペクトルとするのではなぐこれ を用いて、平均雑音スペクトルを算出し、この平均雑音スペクトルを推定雑音スぺタト ルとして出力している。なお、図 3と同じ番号のブロックについては第 1の実施形態と 同様であり、ここでの説明は省略する。
[0062] すなわち、雑音推定装置 3bにおいて、平均雑音推定部 32bは、瞬時雑音推定部 3 1で算出した瞬時雑音スペクトル N (Dを用いて、平均雑音スペクトル
を算出する。以下に平均雑音スペクトル
Nn(f) の具体例として、算出例 1および算出例 2を示す。
[0063] 算出例 1としては、 FIRフィルタを用いて算出する。この時、平均雑音スペクトル
Nn(f) は現フレームも含めた過去 Kフレーム分の瞬時雑音スペクトル Ν (ί)の重み付け平均 により算出する。これは次式で表せる。 [0064] [数 8]
Nn(f) =∑fin (f) x Nn (f) 式 (8) n(f) :重み係数
[0065] ここで、重み係数 β (£)は、周波数毎に異なる値に設定しても良い。
[0066] 算出例 2としては、 IIRフィルタにより算出する。この時、平均雑音スペクトル
は瞬時雑音スペクトル N (1)の長時間平均により算出する。これは次式で表せる。
[0067] [数 9]
N f) = f) χ N„_, (f) + {\ - (f)) x N f) 式 (9) λ( ) :重み係数
[0068] ここでも、重み係数え(£)を、周波数毎に異なる値に設定しても良い。
[0069] このようにして平均雑音推定部 32bにて求めた平均雑音スペクトル
Nn(f) を受けた雑音 Z音声判定用パラメータ算出部 41bでは、第 1の実施形態の雑音 Z音 声判定用パラメータ算出部 41aに記載の信号対雑音比 SNRや帯域毎の信号対雑音 比の積分値 Rを、瞬時雑音スペクトル N (Dの代わりに平均雑音スペクトル
Nn(f) を用いて同様に算出すればよい。この後の雑音 Z音声判定部 42での処理は第 1の 実施形態と同様である。
第 3の実施形
[0070] 図 8は、本発明の第 3の実施形態により雑音推定装置及び雑音区間判定装置とし て機能する信号処理装置を示す。この信号処理装置は、第 1の実施形態による信号 処理装置と同様に、時間領域信号抽出部 1と、周波数領域信号分析部 2と、雑音推 定装置 3cと、区間判定装置 4cとを備えている。ただし、第 2の実施形態との違いは、 雑音区間と判定された区間の入力スペクトルを、そのまま、次のフレームにおける平 均雑音スペクトルの算出に利用する点にある。なお、図 3と同じ番号のブロックについ ては第 1の実施形態と同様であり、ここでの説明は省略する。
[0071] 平均雑音推定部 32cでは、平均雑音スペクトル
Nn(f) を算出する。ここでは、平均雑音スペクトル Nn(f) を算出するに当たり、まず区間判定装置 4cにおいて入力スペクトル X (!)と前フレーム までに算出した平均雑音スペクトル )
を用いて区間判定を行う。
[0072] この結果、混在区間と判定 (vad_flag=FALSE)された区間では瞬時雑音スペクトル N (Dを用いて平均雑音スペクトル
の算出を行い、雑音区間と判定 (vad_flag=TRUE)された区間では入力スペクトル X (D を用いて平均雑音スペクトル
Nn(f) の算出を行う。
[0073] すなわち、判定結果が雑音区間を示しているときには、入力信号が雑音成分その ものであるので、上記のように瞬時雑音スペクトルを用いず入力スペクトルを用いれ ばよい。
[0074] 雑音 Z音声判定用パラメータ算出部 41cでは、第 1の実施形態の雑音 Z音声判定 用パラメータ算出部 41aで算出された信号対雑音比 SNRや帯域毎の信号対雑音比 の積分値 Rを、瞬時雑音スペクトル N (Dの代わりに平均雑音推定部 32cにて前フレ ームまでに算出した平均雑音スペクトル
N„M) を用いて算出する。
第 4の実施形 (雑音 置)
[0075] 図 9は、本発明の第 4の実施形態により雑音抑圧装置として機能する信号処理装 置を示す。この雑音抑圧装置は、第 1の実施形態による信号処理装置で既に説明し た時間領域信号抽出部 1と、周波数領域信号分析部 2と雑音推定装置 3aと区間判 定装置 4aを有している。そして、この第 4の実施形態による雑音抑圧装置では、更に 、抑圧量算出部 5と抑圧部 6と時間領域信号合成部 7とをさらに備えている。
[0076] まず、周波数領域信号分析部 2にて FFTを用いて、入力スペクトル X (Dを生成する 。そして、抑圧量算出部 5では、周波数領域信号分析部 2で算出した入カスペ外ル X (Dと瞬時雑音推定部 31で算出した瞬時雑音スペクトル N (Dを用いて帯域毎の抑 圧係数 G (1)を算出する。ここで、抑圧係数 G (Dは次式より算出する。
[0077] [数 10]
1 Nn (f)
Gn {f) = Wn (f) ( 0 < Gn(f) < l ) 式 (10)
X„{f)
[0078] なお、この式(10)における係数 W (£)は、雑音 Z音声判定部 42での判定結果 vadjlagが混在区間を示しているときには、係数 W (1)を小さいものとし、雑音区間を示 しているときには、係数 W (Dを大きく取ることにより、雑音区間での抑圧係数を混在区 間のものより大きくすることができる。従って、抑圧量を増加させることができる。
[0079] 抑圧部 6では、抑圧量算出部 5で算出した抑圧係数 G (Dと入力スペクトル X (Dとを 用いて雑音抑圧後の帯域毎の振幅スペクトル Y (Dを算出する。ここで、振幅スぺタト ル Υ (ί)は次式より算出する。
[0080] [数 11]
Y„(f) = X„(f) x Gn(f) 式 (11)
[0081] 時間領域信号合成部 7では、振幅スペクトル Y (Dを IFFT (逆高速フーリエ変換)に より周波数領域力 時間領域に逆変換し、出力信号 y (t)を算出する。
[0082] ここで、図 9では、雑音推定装置 3a及び区間判定装置 4aとして、第 1の実施形態に 示したものを用いているが、これらの雑音推定装置 3a及び区間判定装置 4aは第 2の 実施形態、もしくは第 3の実施形態に示したものでも良い。この時、抑圧量算出部 5 では、瞬時雑音スペクトル N (Dの代わりに平均雑音スペクトル
Nn(f) を用いて抑圧係数 G (Dを算出する。
[0083] 以上、本発明を実施例により詳細に説明したが、当業者にとっては、本発明が本願 中に説明した実施例に限定されるものではないということは明らかである。本発明の 装置は、特許請求の範囲の記載により定まる本発明の趣旨及び範囲を逸脱すること なく修正及び変更態様として実施することができる。
[0084] 例えば、本発明の第 4の実施形態による雑音抑圧装置において、 FFTにより算出 した入力スペクトル X (Dに代えて、 FIRフィルタにより算出した帯域別入力振幅
X i) を用いる場合、 IFFTに代えて、帯域別入力振幅に対応した逆変換を用いて、時間 領域の出力信号 y (t)を算出することができる。
図面の簡単な説明
[0085] [図 1]本発明の原理を説明するために、入力音声信号の変化を区間毎に示した波形 図である。
[図 2]図 1の入力音声信号のスペクトルを、それぞれの区間毎に示したスペクトル図で ある。
[図 3]本発明の第 1の実施形態による信号処理装置を示す構成ブロック図である。
[図 4]本発明の第 1の実施形態による信号処理装置で算出された極小スペクトルの例 を示すスペクトル図である。
[図 5]本発明の第 1の実施形態による信号処理装置で算出された極小スペクトルへ乗 算する補正係数の算出を説明するためのスペクトル図である。
[図 6]本発明の第 1の実施形態による信号処理装置で算出された極小スペクトルへ乗 算する補正係数の算出を説明するための関係図である。
[図 7]本発明の第 2の実施形態による信号処理装置を示す構成ブロック図である。 [図 8]本発明の第 3の実施形態による信号処理装置を示す構成ブロック図である。
[図 9]本発明の第 4の実施形態により雑音抑圧装置として機能する信号処理装置を 示す構成ブロック図である。
符号の説明
1 時間領域信号抽出部
2 周波数領域信号分析部
3a、 3b、 3c 雑音推定装置
4a、4b、4c 区間判定装置
5 抑圧量算出部
7 時間領域信号合成部
31 瞬時雑音推定部
32b, 32c 平均雑音推定部
41a、 41b、 41c 音声判定用パラメータ算出部
42 雑音 Z音声判定部
図中、同一符号は同一又は相当部分を示す。

Claims

請求の範囲
[1] 入力信号の標本化データである時間領域信号を抽出する時間領域信号抽出ステ ップと、
フレーム毎に、該時間領域信号を周波数領域信号に変換して入力スペクトルを算 出する周波数領域信号分析ステップと、
該入力スペクトルの極小成分を利用して、該入力信号に含まれる雑音成分の周波 数領域信号である雑音スペクトルを推定する雑音推定ステップと、
を含むことを特徴とする信号処理方法。
[2] 請求項 1において、
該雑音推定ステップ力 該雑音スペクトルとして、フレーム毎の瞬時雑音スペクトル を求めることを特徴とした信号処理方法。
[3] 請求項 2において、
該雑音推定ステップが、該雑音スペクトルとして、該瞬時雑音スペクトルの複数のフ レームにわたる平均雑音スペクトルを求めることを特徴とした信号処理方法。
[4] 請求項 1乃至 3のいずれ力 1つにおいて、
該雑音スペクトルと該入力スペクトルとを比較して、それぞれのフレームが音声と雑 音の混在した区間又は音声を含まない雑音区間の何れであるかを判定する区間判 定ステップを更に含むことを特徴とした信号処理方法。
[5] 請求項 4において、
該雑音推定ステップが、前フレームまでの該区間判定ステップでの判定結果が該 混在区間を示して ヽるときには、該瞬時雑音スぺクトルを用 ヽて該平均雑音スぺタト ルを求め、該雑音区間を示しているときには該入力スペクトルを用いて該平均雑音ス ベクトルを求めることを特徴とした信号処理方法。
[6] 請求項 4において、
該区間判定ステップでの判定結果を考慮し、さらに該雑音スペクトルと該入カスペ タトルに基づき該入力信号に対する抑圧量を帯域毎に算出して該入力信号の雑音 抑圧を行う抑圧量算出ステップをさらに含むことを特徴とした信号処理方法。
[7] 請求項 1乃至 6のいずれ力 1つにおいて、 該入力信号が、音声信号であることを特徴とした信号処理方法。
[8] 入力信号の標本化データである時間領域信号を抽出する時間領域信号抽出部と フレーム毎に、該時間領域信号を周波数領域信号に変換して入力スペクトルを算 出する周波数領域信号分析部と、
該入力スペクトルの極小成分を利用して、該入力信号に含まれる雑音成分の周波 数領域信号である雑音スペクトルを推定する雑音推定部と、
を含むことを特徴とする信号処理装置。
[9] 請求項 8において、
該雑音推定部が、該雑音スペクトルとして、フレーム毎の瞬時雑音スペクトルを求め ることを特徴とした信号処理装置。
[10] 請求項 9において、
該雑音推定部が、該雑音スペクトルとして、該瞬時雑音スペクトルの複数のフレー ムにわたる平均雑音スペクトルを求めることを特徴とした信号処理装置。
[11] 請求項 8乃至 10のいずれ力 1つにおいて、
該雑音スペクトルと該入力スペクトルとを比較して、それぞれのフレームが音声と雑 音の混在した区間又は音声を含まない雑音区間の何れであるかを判定する区間判 定部を更に含むことを特徴とした信号処理装置。
[12] 請求項 11において、
該雑音推定部が、前フレームまでの該区間判定部での判定結果が該混在区間を 示しているときには、該瞬時雑音スペクトルを用いて該平均雑音スペクトルを求め、該 雑音区間を示して 、るときには該入カスペクトルを用 、て該平均雑音スペクトルを求 めることを特徴とした信号処理装置。
[13] 請求項 11において、
該区間判定部での判定結果を考慮し、さらに該雑音スペクトルと該入力スペクトル に基づき該入力信号に対する抑圧量を帯域毎に算出して該入力信号の雑音抑圧を 行う抑圧量算出部をさらに含むことを特徴とした信号処理装置。
[14] 請求項 8乃至 13のいずれ力 1つにおいて、 該入力信号が、音声信号であることを特徴とした信号処理装置。
PCT/JP2005/001515 2005-02-02 2005-02-02 信号処理方法および信号処理装置 WO2006082636A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2007501472A JP4519169B2 (ja) 2005-02-02 2005-02-02 信号処理方法および信号処理装置
CN200580047603A CN100593197C (zh) 2005-02-02 2005-02-02 信号处理方法和装置
PCT/JP2005/001515 WO2006082636A1 (ja) 2005-02-02 2005-02-02 信号処理方法および信号処理装置
EP05709635A EP1845520A4 (en) 2005-02-02 2005-02-02 SIGNAL PROCESSING METHOD AND SIGNAL PROCESSING DEVICE
US11/826,122 US20070265840A1 (en) 2005-02-02 2007-07-12 Signal processing method and device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2005/001515 WO2006082636A1 (ja) 2005-02-02 2005-02-02 信号処理方法および信号処理装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US11/826,122 Continuation US20070265840A1 (en) 2005-02-02 2007-07-12 Signal processing method and device

Publications (1)

Publication Number Publication Date
WO2006082636A1 true WO2006082636A1 (ja) 2006-08-10

Family

ID=36777031

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2005/001515 WO2006082636A1 (ja) 2005-02-02 2005-02-02 信号処理方法および信号処理装置

Country Status (5)

Country Link
US (1) US20070265840A1 (ja)
EP (1) EP1845520A4 (ja)
JP (1) JP4519169B2 (ja)
CN (1) CN100593197C (ja)
WO (1) WO2006082636A1 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010539538A (ja) * 2007-09-12 2010-12-16 ドルビー・ラボラトリーズ・ライセンシング・コーポレーション 雑音レベル推定値の調節を備えたスピーチ強調
JP2015108766A (ja) * 2013-12-05 2015-06-11 日本電信電話株式会社 雑音抑圧方法とその装置とプログラム
JP2016026319A (ja) * 2011-02-14 2016-02-12 フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン オーディオコーデックにおけるノイズ生成
US9536530B2 (en) 2011-02-14 2017-01-03 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Information signal representation using lapped transform
US9583110B2 (en) 2011-02-14 2017-02-28 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Apparatus and method for processing a decoded audio signal in a spectral domain
US9595262B2 (en) 2011-02-14 2017-03-14 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Linear prediction based coding scheme using spectral domain noise shaping
US9595263B2 (en) 2011-02-14 2017-03-14 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Encoding and decoding of pulse positions of tracks of an audio signal
US9620129B2 (en) 2011-02-14 2017-04-11 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Apparatus and method for coding a portion of an audio signal using a transient detection and a quality result
CN114285505A (zh) * 2021-12-16 2022-04-05 重庆会凌电子新技术有限公司 一种自动噪底计算方法和系统

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080084829A1 (en) * 2006-10-05 2008-04-10 Nokia Corporation Apparatus, method and computer program product providing link adaptation
JP2011100029A (ja) * 2009-11-06 2011-05-19 Nec Corp 信号処理方法、情報処理装置、及び信号処理プログラム
WO2012105941A1 (en) * 2011-01-31 2012-08-09 Empire Technology Development Llc Measuring quality of experience in telecommunication system
JP6160045B2 (ja) 2012-09-05 2017-07-12 富士通株式会社 調整装置および調整方法
CN103440870A (zh) * 2013-08-16 2013-12-11 北京奇艺世纪科技有限公司 一种音频降噪方法及装置
CN105791530B (zh) * 2014-12-26 2019-04-16 联芯科技有限公司 输出音量调节方法和装置
TWI684912B (zh) * 2019-01-08 2020-02-11 瑞昱半導體股份有限公司 語音喚醒裝置及方法
CN115291151B (zh) * 2022-09-28 2023-01-13 中国科学院精密测量科学与技术创新研究院 一种基于低相关分段的高精度磁共振信号频率测量方法

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03274600A (ja) * 1990-03-26 1991-12-05 Ricoh Co Ltd 2値化パターン生成方式
JPH0715363A (ja) * 1993-04-16 1995-01-17 Sextant Avionique 雑音に埋没した信号を検出するためのエネルギ・ベースの検出方法
JPH08221093A (ja) * 1995-02-17 1996-08-30 Sony Corp 音声信号の雑音低減方法
JPH09212196A (ja) * 1996-01-31 1997-08-15 Nippon Telegr & Teleph Corp <Ntt> 雑音抑圧装置
JPH09212195A (ja) * 1995-12-12 1997-08-15 Nokia Mobile Phones Ltd 音声活性検出装置及び移動局並びに音声活性検出方法
JPH09311696A (ja) * 1996-05-21 1997-12-02 Nippon Telegr & Teleph Corp <Ntt> 自動利得調整装置
JPH1097278A (ja) * 1996-09-20 1998-04-14 Nippon Telegr & Teleph Corp <Ntt> 音声認識方法および装置
JPH10133689A (ja) * 1996-10-30 1998-05-22 Kyocera Corp 雑音除去装置
JP2000347688A (ja) * 1999-06-09 2000-12-15 Mitsubishi Electric Corp 雑音抑圧装置
JP2001177416A (ja) * 1999-12-17 2001-06-29 Yrp Kokino Idotai Tsushin Kenkyusho:Kk 音声符号化パラメータの取得方法および装置
JP2003280696A (ja) * 2002-03-19 2003-10-02 Matsushita Electric Ind Co Ltd 音声強調装置及び音声強調方法
JP2003308092A (ja) * 2002-04-15 2003-10-31 Mitsubishi Electric Corp 雑音除去装置及び雑音除去方法

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06208395A (ja) * 1992-10-30 1994-07-26 Gijutsu Kenkyu Kumiai Iryo Fukushi Kiki Kenkyusho ホルマント検出装置及び音声加工装置
JP3353994B2 (ja) * 1994-03-08 2002-12-09 三菱電機株式会社 雑音抑圧音声分析装置及び雑音抑圧音声合成装置及び音声伝送システム
SE505156C2 (sv) * 1995-01-30 1997-07-07 Ericsson Telefon Ab L M Förfarande för bullerundertryckning genom spektral subtraktion
KR970011336B1 (ko) * 1995-03-31 1997-07-09 삼성코닝 주식회사 접착용 유리조성물
US6104993A (en) * 1997-02-26 2000-08-15 Motorola, Inc. Apparatus and method for rate determination in a communication system
US7072831B1 (en) * 1998-06-30 2006-07-04 Lucent Technologies Inc. Estimating the noise components of a signal
US7209567B1 (en) * 1998-07-09 2007-04-24 Purdue Research Foundation Communication system with adaptive noise suppression
JP3459363B2 (ja) * 1998-09-07 2003-10-20 日本電信電話株式会社 雑音低減処理方法、その装置及びプログラム記憶媒体
SE9903553D0 (sv) * 1999-01-27 1999-10-01 Lars Liljeryd Enhancing percepptual performance of SBR and related coding methods by adaptive noise addition (ANA) and noise substitution limiting (NSL)
FR2797343B1 (fr) * 1999-08-04 2001-10-05 Matra Nortel Communications Procede et dispositif de detection d'activite vocale
US6959274B1 (en) * 1999-09-22 2005-10-25 Mindspeed Technologies, Inc. Fixed rate speech compression system and method
JP4282227B2 (ja) * 2000-12-28 2009-06-17 日本電気株式会社 ノイズ除去の方法及び装置
US7171357B2 (en) * 2001-03-21 2007-01-30 Avaya Technology Corp. Voice-activity detection using energy ratios and periodicity
US6820054B2 (en) * 2001-05-07 2004-11-16 Intel Corporation Audio signal processing for speech communication
EP1681670A1 (en) * 2005-01-14 2006-07-19 Dialog Semiconductor GmbH Voice activation
JP4670483B2 (ja) * 2005-05-31 2011-04-13 日本電気株式会社 雑音抑圧の方法及び装置
US7366658B2 (en) * 2005-12-09 2008-04-29 Texas Instruments Incorporated Noise pre-processor for enhanced variable rate speech codec

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03274600A (ja) * 1990-03-26 1991-12-05 Ricoh Co Ltd 2値化パターン生成方式
JPH0715363A (ja) * 1993-04-16 1995-01-17 Sextant Avionique 雑音に埋没した信号を検出するためのエネルギ・ベースの検出方法
JPH08221093A (ja) * 1995-02-17 1996-08-30 Sony Corp 音声信号の雑音低減方法
JPH09212195A (ja) * 1995-12-12 1997-08-15 Nokia Mobile Phones Ltd 音声活性検出装置及び移動局並びに音声活性検出方法
JPH09212196A (ja) * 1996-01-31 1997-08-15 Nippon Telegr & Teleph Corp <Ntt> 雑音抑圧装置
JPH09311696A (ja) * 1996-05-21 1997-12-02 Nippon Telegr & Teleph Corp <Ntt> 自動利得調整装置
JPH1097278A (ja) * 1996-09-20 1998-04-14 Nippon Telegr & Teleph Corp <Ntt> 音声認識方法および装置
JPH10133689A (ja) * 1996-10-30 1998-05-22 Kyocera Corp 雑音除去装置
JP2000347688A (ja) * 1999-06-09 2000-12-15 Mitsubishi Electric Corp 雑音抑圧装置
JP2001177416A (ja) * 1999-12-17 2001-06-29 Yrp Kokino Idotai Tsushin Kenkyusho:Kk 音声符号化パラメータの取得方法および装置
JP2003280696A (ja) * 2002-03-19 2003-10-02 Matsushita Electric Ind Co Ltd 音声強調装置及び音声強調方法
JP2003308092A (ja) * 2002-04-15 2003-10-31 Mitsubishi Electric Corp 雑音除去装置及び雑音除去方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1845520A4 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010539538A (ja) * 2007-09-12 2010-12-16 ドルビー・ラボラトリーズ・ライセンシング・コーポレーション 雑音レベル推定値の調節を備えたスピーチ強調
JP2016026319A (ja) * 2011-02-14 2016-02-12 フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン オーディオコーデックにおけるノイズ生成
US9536530B2 (en) 2011-02-14 2017-01-03 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Information signal representation using lapped transform
US9583110B2 (en) 2011-02-14 2017-02-28 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Apparatus and method for processing a decoded audio signal in a spectral domain
US9595262B2 (en) 2011-02-14 2017-03-14 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Linear prediction based coding scheme using spectral domain noise shaping
US9595263B2 (en) 2011-02-14 2017-03-14 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Encoding and decoding of pulse positions of tracks of an audio signal
US9620129B2 (en) 2011-02-14 2017-04-11 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Apparatus and method for coding a portion of an audio signal using a transient detection and a quality result
JP2017223968A (ja) * 2011-02-14 2017-12-21 フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン オーディオコーデックにおけるノイズ生成
JP2015108766A (ja) * 2013-12-05 2015-06-11 日本電信電話株式会社 雑音抑圧方法とその装置とプログラム
CN114285505A (zh) * 2021-12-16 2022-04-05 重庆会凌电子新技术有限公司 一种自动噪底计算方法和系统

Also Published As

Publication number Publication date
JPWO2006082636A1 (ja) 2008-06-26
EP1845520A1 (en) 2007-10-17
JP4519169B2 (ja) 2010-08-04
CN101111888A (zh) 2008-01-23
US20070265840A1 (en) 2007-11-15
CN100593197C (zh) 2010-03-03
EP1845520A4 (en) 2011-08-10

Similar Documents

Publication Publication Date Title
WO2006082636A1 (ja) 信号処理方法および信号処理装置
EP2008379B1 (en) Adjustable noise suppression system
JP3963850B2 (ja) 音声区間検出装置
EP2444966B1 (en) Audio signal processing device and audio signal processing method
JP4836720B2 (ja) ノイズサプレス装置
EP1312162B1 (en) Voice enhancement system
US9113241B2 (en) Noise removing apparatus and noise removing method
JP4423300B2 (ja) 雑音抑圧装置
EP2031583B1 (en) Fast estimation of spectral noise power density for speech signal enhancement
JP5071346B2 (ja) 雑音抑圧装置及び雑音抑圧方法
JPH07306695A (ja) 音声信号の雑音低減方法及び雑音区間検出方法
JP2003534570A (ja) 適応ビームフォーマーにおいてノイズを抑制する方法
JP5245714B2 (ja) 雑音抑圧装置及び雑音抑圧方法
WO2012102977A1 (en) Method and apparatus for masking wind noise
CA2358203A1 (en) Method and apparatus for adaptively suppressing noise
JPWO2010035308A1 (ja) エコー消去装置
JP5526524B2 (ja) 雑音抑圧装置及び雑音抑圧方法
JP2004341339A (ja) 雑音抑圧装置
JP2000330597A (ja) 雑音抑圧装置
JP2001159899A (ja) 騒音抑圧装置
EP1278185A2 (en) Method for improving noise reduction in speech transmission
WO2017128910A1 (zh) 一种语音出现概率的确定方法、装置及电子设备
JP2002140100A (ja) 騒音抑圧装置
CN117280414A (zh) 基于动态神经网络的噪声降低
JP2004032387A (ja) ハウリング制御装置及び補聴器

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2007501472

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 2005709635

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 11826122

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 200580047603.6

Country of ref document: CN

NENP Non-entry into the national phase

Ref country code: DE

WWP Wipo information: published in national office

Ref document number: 2005709635

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 11826122

Country of ref document: US