WO2016185757A1 - オーディオ信号処理装置、オーディオ信号処理方法及びオーディオ信号処理プログラム - Google Patents

オーディオ信号処理装置、オーディオ信号処理方法及びオーディオ信号処理プログラム Download PDF

Info

Publication number
WO2016185757A1
WO2016185757A1 PCT/JP2016/056204 JP2016056204W WO2016185757A1 WO 2016185757 A1 WO2016185757 A1 WO 2016185757A1 JP 2016056204 W JP2016056204 W JP 2016056204W WO 2016185757 A1 WO2016185757 A1 WO 2016185757A1
Authority
WO
WIPO (PCT)
Prior art keywords
signal
unit
mask
frequency division
division unit
Prior art date
Application number
PCT/JP2016/056204
Other languages
English (en)
French (fr)
Inventor
真音 菅野
Original Assignee
株式会社Jvcケンウッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Jvcケンウッド filed Critical 株式会社Jvcケンウッド
Publication of WO2016185757A1 publication Critical patent/WO2016185757A1/ja
Priority to US15/814,875 priority Critical patent/US10388264B2/en

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K11/00Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/16Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/175Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound
    • G10K11/1752Masking
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • G10L21/0232Processing in the frequency domain
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • G10L2021/02161Number of inputs available containing the signal or the noise to be suppressed
    • G10L2021/02163Only one microphone

Definitions

  • the present disclosure relates to an audio signal processing device, an audio signal processing method, and an audio signal processing program that suppress noise.
  • noise suppression techniques include a spectral subtraction (SS) method and a comb filter (comb filter) method.
  • the comb filter method has a problem that if an error occurs in the pitch frequency, the audio signal is suppressed or the noise signal is emphasized.
  • Patent Document 1 describes a speech processing apparatus that solves the problems of the spectral subtraction method and the comb filter method.
  • the speech processing apparatus described in Patent Document 1 calculates a spectrum by frequency-dividing an input signal for each frame, and estimates a noise spectrum based on the spectrum of a plurality of frames. Then, the speech processing device described in Patent Literature 1 determines whether the frequency component is a speech component or a noise component for each frequency division unit of the input signal based on the estimated noise spectrum and the spectrum of the input signal. Identify.
  • the speech processing apparatus described in Patent Literature 1 generates a coefficient for emphasizing a frequency division unit identified as a speech component and a coefficient for suppressing the frequency division unit identified as a noise component. To do.
  • the speech processing apparatus described in Patent Document 1 multiplies the input signal by a coefficient for each frequency division unit to obtain a noise suppression effect.
  • Patent Document 1 sometimes fails to obtain sufficient accuracy in either the noise spectrum estimation accuracy or the discrimination accuracy between speech components and noise components. This is because noise spectrum estimation and discrimination between a speech component and a noise component for each frequency division unit are performed based on a spectrum having the same frequency division width.
  • the noise spectrum estimation is preferably performed based on a spectrum with a certain frequency division width (for example, about several hundred to several thousand Hz) in order to suppress the influence of sudden noise components.
  • a certain frequency division width for example, about several hundred to several thousand Hz
  • An object of the embodiment is to provide an audio signal processing device, an audio signal processing method, and an audio signal processing program capable of suppressing noise sufficiently with little deterioration of sound.
  • the frequency domain transform unit that divides the input signal into predetermined frames and generates a first signal that is a signal for each first frequency division unit;
  • a noise estimation signal generation unit that generates a second signal that is a signal for each second frequency division unit wider than one frequency division unit;
  • a peak range detection unit that obtains a peak range of the first signal; and Based on the second signal stored in the storage unit storing the second signal and the second signal, a representative value is calculated for each second frequency division unit, and the representative value and the second signal are calculated.
  • the degree of suppression or enhancement for each first frequency division unit based on the signal comparison unit that compares the signal for each second frequency division unit, the peak range, and the comparison result by the signal comparison unit
  • Mask generation unit for generating a mask for determining The the first signal, an audio signal processing apparatus and a mask application unit for multiplying the mask generated by the mask generator is provided.
  • the input signal is divided for each predetermined frame, a first signal that is a signal for each first frequency division unit is generated, and from the first frequency division unit, Generating a second signal which is a signal for each wide second frequency division unit, obtaining a peak range of the first signal, storing the second signal in a storage unit, and storing the second signal in the storage unit
  • a representative value is calculated for each of the second frequency division units based on the second signal, the representative value and the second signal are compared for each of the second frequency division units, and the peak Based on the range and the comparison result between the representative value and the second signal, a mask for determining the degree of suppression or enhancement for each first frequency division unit is generated, and the first signal is An audio signal processing method for multiplying a generated mask is provided.
  • the computer divides the input signal into predetermined frames, and generates a first signal that is a signal for each first frequency division unit.
  • a noise estimation signal generation step for generating a second signal that is a signal for each second frequency division unit wider than the first frequency division unit; and a peak range detection step for obtaining a peak range of the first signal; , Based on the storage step of storing the second signal in the storage unit and the second signal stored in the storage unit, a representative value is calculated for each second frequency division unit, and the representative value And the second signal for each second frequency division unit, the peak range, and the first frequency division based on the comparison result obtained in the signal comparison step.
  • unit Provided is an audio signal processing program for executing a mask generation step for generating a mask for determining a degree of suppression or enhancement, and a mask application step for multiplying the first signal by the mask generated in the mask generation step Is done.
  • the audio signal processing device According to the audio signal processing device, the audio signal processing method, and the audio signal processing program of the embodiment, there is little deterioration of sound and noise can be sufficiently suppressed.
  • FIG. 1 is a block diagram illustrating an audio signal processing apparatus according to the first embodiment.
  • FIG. 2 is a schematic diagram showing the relationship between the frequency domain signal X (f, ⁇ ) and the noise estimation signal Y (f, ⁇ ).
  • FIG. 3 is a frequency distribution diagram schematically showing the spectrum of the signal X (f, ⁇ ) in the frequency domain.
  • FIG. 4 is a flowchart showing processing in the audio signal processing apparatus according to the first embodiment, and shows an audio signal processing method and a procedure that the audio signal processing program causes a computer to execute.
  • FIG. 5 is a block diagram showing an audio signal processing apparatus according to the second embodiment.
  • FIG. 6 is a diagram illustrating an example of a two-dimensional filter for mask smoothing.
  • FIG. 1 shows a block diagram of an audio signal processing apparatus 1 according to the first embodiment.
  • the audio signal processing apparatus 1 of Embodiment 1 includes a signal input unit 10, a frequency domain conversion unit 11, a noise estimation signal generation unit 12, a storage unit 13, a signal comparison unit 14, a peak range detection unit 15, a mask generation unit 16, A mask application unit 17 is provided.
  • the signal input unit 10 and the storage unit 13 are configured by hardware.
  • the frequency domain conversion unit 11, the noise estimation signal generation unit 12, the signal comparison unit 14, the peak range detection unit 15, the mask generation unit 16, and the mask application unit 17 are audio signals that are executed by a calculation unit such as a CPU or DSP. Realized by a processing program.
  • the audio signal processing program is stored in various computer-readable media and supplied to the computer. Each component realized by the program may be configured by hardware.
  • the signal input unit 10 acquires an audio input signal from a voice acquisition unit (not shown).
  • the signal input unit 10 converts the input audio input signal into a digital signal x (t). t indicates time.
  • t indicates time.
  • the input audio input signal is already a digital value, a configuration for converting it into a digital signal is not necessary.
  • the frequency domain converter 11 converts the signal x (t) input from the signal input unit 10 into a frequency domain signal X (f, ⁇ ). f represents a frequency, and ⁇ represents a frame number.
  • the signal X (f, ⁇ ) is the first signal.
  • the frequency domain transform unit 11 divides the signal x (t) by a window function having a predetermined frame length, performs a transform process to the frequency domain such as FFT for each of the divided frames, and performs frequency domain signal X (f, ⁇ ) is generated.
  • the frequency domain transform unit 11 supplies the generated signal X (f, ⁇ ) to the noise estimation signal generation unit 12, the peak range detection unit 15, and the mask application unit 17.
  • the noise estimation signal generation unit 12 groups the signal X (f, ⁇ ) generated by the frequency domain conversion unit 11 for each predetermined frequency division unit, thereby making the frequency estimation unit more than the frequency division unit of the signal X (f, ⁇ ).
  • a noise estimation signal Y (f, ⁇ ) divided by a wide frequency division width is generated.
  • the noise estimation signal generation unit 12 calculates an amplitude value a (f, ⁇ ) or a power value S (f, ⁇ ) from the signal X (f, ⁇ ), and for each signal in a predetermined frequency range. Find the sum or average of these values.
  • the noise estimation signal Y (f, ⁇ ) is the second signal.
  • FIG. 2 schematically shows the relationship between X (f, ⁇ ) and Y (f, ⁇ ). Each block represents a signal component for each frequency division unit.
  • n is the frequency division number of X (f, ⁇ )
  • m is the frequency division number of Y (f, ⁇ ).
  • the frequency division unit f′1 of Y (f, ⁇ ) shown in FIG. 2 is generated based on the frequency division units f1 to f4 of X (f, ⁇ ) shown in FIG. Similarly, frequency division units f′2, f′3,... F′m ⁇ 1, f′m are frequency division units f5 to f8, f9 to f12,... Fn-15 to fn-8, fn-7, respectively. Are generated based on fn. As will be described later, the frequency division width may be different depending on the frequency band. In FIG. 2, for example, the frequency division unit f'1 and the frequency division unit f'm have different frequency division widths.
  • the noise estimation signal generation unit 12 supplies the generated noise estimation signal Y (f, ⁇ ) to the storage unit 13 and the signal comparison unit 14.
  • the frequency domain transform unit 11 may directly generate the noise estimation signal Y (f, ⁇ ) from the signal x (t). In this case, the frequency domain conversion unit 11 also operates as a noise estimation signal generation unit, and the noise estimation signal generation unit 12 that is separate from the frequency domain conversion unit 11 is not necessary.
  • the noise estimation signal generation unit 12 generates the noise estimation signal Y (f, ⁇ ) with a frequency division width wider than X (f, ⁇ ) will be described.
  • a sudden noise signal particularly a tone noise signal
  • a frequency division width of about several tens Hz is compared with a frequency division width of about several hundred to several thousand Hz.
  • the ratio of the noise signal component in the frequency division unit increases. If it does so, in the determination process of the signal comparison part 14 mentioned later, the probability that the place which should determine with a noise will be misidentified as a voice will become high.
  • the frequency domain converter 11 generates the signal X (f, ⁇ ) with a frequency division width of about several tens of Hz.
  • the processing in the signal comparison unit 14 and the processing in the peak range detection unit 15 have different desirable frequency division widths. Therefore, the noise estimation signal generation unit 12 generates the noise estimation signal Y (f, ⁇ ) with a wider frequency division width than when the frequency domain conversion unit 11 generates the signal X (f, ⁇ ).
  • the noise estimation signal generation unit 12 generates the noise estimation signal Y (f, ⁇ ) with the following frequency division width in each frequency band.
  • Each frequency division width is about 100 Hz to 300 Hz in a frequency region of less than 1 kHz, about 300 Hz to 500 Hz in a frequency region of about 1 kHz to less than 2 kHz, and about 1 kHz to 2 kHz in a frequency region of 2 kHz or more.
  • the storage unit 13 stores the noise estimation signal Y (f, ⁇ ) generated by the noise estimation signal generation unit 12. Specifically, the storage unit 13 stores the frequency division unit determined as noise without satisfying a predetermined condition in the determination of the signal comparison unit 14 described later. On the other hand, the storage unit 13 does not store a frequency division unit that satisfies a predetermined condition and is determined to be speech.
  • the time length of the signal stored in the storage unit 13 is preferably about 50 to 200 ms.
  • the storage unit 13 stores all the frequency division units and the determination result of the signal comparison unit 14, and the signal comparison unit 14 determines a representative value V (f described later) based on the frequency division unit determined to be noise. ) May be calculated.
  • the signal comparison unit 14 calculates a representative value V (f) such as an average value, a median value, or a mode value for each frequency division unit.
  • the noise estimation signal Y (f, ⁇ ) indicates the noise estimation signal of the latest frame.
  • Y (f, ⁇ 1) indicates a noise estimation signal of a frame that is one frame past the latest frame
  • Y (f, ⁇ 2) is a frame that is two frames past the latest frame.
  • a noise estimation signal is shown.
  • the signal comparison unit 14 calculates an average value using three frames using, for example, the following equation (1).
  • V (f) (Y (f, ⁇ ) + Y (f, ⁇ 1) + Y (f, ⁇ 2)) / 3 (1)
  • the signal comparison unit 14 may calculate a simple average that treats the signal of each frame equivalently as the representative value V (f), as in Expression (1). Further, the signal comparison unit 14 may calculate the representative value V (f) by weighting with emphasis on a frame close to the current time as in the following equation (2).
  • V (f) 0.5 ⁇ Y (f, ⁇ ) + 0.3 ⁇ Y (f, ⁇ -1) + 0.2 ⁇ Y (f, ⁇ -2) (2)
  • the storage unit 13 may store the representative value V (f) calculated by the signal comparison unit 14 instead of storing the past noise estimation signal.
  • the signal comparison unit 14 calculates a new representative value V (f) using Expression (3) and stores it in the storage unit 13.
  • is a value satisfying 0 ⁇ ⁇ 1.
  • V (f) ⁇ ⁇ V (f) + (1 ⁇ ) ⁇ Y (f, ⁇ ) (3)
  • the signal comparison unit 14 compares the calculated representative value V (f) with the noise estimation signal Y (f, ⁇ ) and determines whether or not a predetermined condition is satisfied. Specifically, the signal comparison unit 14 obtains a comparison value such as a difference or ratio between the representative value V (f) and the noise estimation signal Y (f, ⁇ ), and determines whether or not the comparison value belongs to a predetermined range. Determine.
  • the signal comparison unit 14 calculates the representative value V (f) based on the frequency division unit determined to be noise in the past noise estimation signal Y (f, ⁇ ). Therefore, there is a high probability that the noise estimation signal Y (f, ⁇ ) that shows a prominent value by comparison with the representative value V (f) includes the frequency component of the audio signal.
  • the predetermined condition used for the comparison between the representative value V (f) and the noise estimation signal Y (f, ⁇ ) is set for each frequency band. It is desirable to set to. Therefore, when the comparison is made using the ratio Y (f, ⁇ ) / V (f), the range of 2 to 3 times or more in the frequency band below 1 kHz is 1 to 2 times or more in the frequency band of 1 kHz or more. These ranges are desirable predetermined conditions.
  • the peak range detection unit 15 After completion of the comparison determination process, the peak range detection unit 15 obtains a peak frequency range using the spectrum of the signal X (f, ⁇ ).
  • FIG. 3A is a frequency distribution diagram schematically showing the spectrum of the signal X (f, ⁇ ) including sound.
  • the amplitude value of the frequency component of the audio signal indicates a larger amplitude value than the other frequency components. Therefore, the frequency component of the audio signal can be obtained by detecting the peak frequency range of the signal X (f, ⁇ ).
  • the frequency range of the arrow section in FIG. 3B indicates the peak frequency range.
  • the peak range detection unit 15 detects the peak frequency range.
  • the peak range detection unit 15 calculates a differential value in the frequency axis direction of the frequency domain signal X (f, ⁇ ) generated by the frequency domain conversion unit 11. By calculating a range in which the differential value shows a predetermined slope, a peak frequency range that is an upwardly convex range is obtained.
  • the peak range detection unit 15 applies a low-pass filter to the spectrum to smooth the spectrum, calculates a frequency range in which a difference or ratio between the original spectrum and the smoothed spectrum is within a predetermined range, and calculates a peak frequency range. You may ask for.
  • the broken line schematically shows the original spectrum of the signal X (f, ⁇ )
  • the solid line schematically shows the smoothed spectrum. In this example, a point where the solid line and the broken line intersect is used as a boundary, and a range where the value of the broken line is larger than the value of the solid line can be obtained as the peak frequency.
  • the peak range detection unit 15 may change the determination method for each constant frequency region. For example, when the differential value is used, the range of the inclination may be changed for each frequency region. Further, when comparing with the smoothed spectrum, the degree of smoothing may be changed for each frequency region, or the smoothed spectrum may be moved in parallel. Thus, the calculation of the peak frequency range is not limited to the above method, and other methods may be employed.
  • the mask generation unit 16 suppresses or enhances each frequency component of the signal X (f, ⁇ ) based on the determination result (comparison result) by the signal comparison unit 14 and the peak frequency range detected by the peak range detection unit 15.
  • a mask M (f, ⁇ ) to be generated is generated.
  • the mask generation unit 16 determines that the signal comparison unit 14 is speech, and sets the frequency component detected as the peak range by the peak range detection unit 15 as a frequency component to be emphasized, and suppresses other frequency components.
  • a mask M (f, ⁇ ) as a frequency component is generated.
  • the degree of emphasis and suppression in each frequency component is determined dynamically from the representative value V (f), and the emphasis and suppression values corresponding to the representative value V (f) are determined in advance.
  • the mask generation unit 16 may compare the spectrum without noise and the representative value V (f) to calculate a suppression coefficient that suppresses the noise corresponding to the spectrum without noise.
  • the mask generation unit 16 may determine a suppression coefficient table in advance and select a suppression coefficient corresponding to the representative value V (f) from the table.
  • the mask application unit 17 multiplies the signal X (f, ⁇ ) by the mask M (f, ⁇ ) generated by the mask generation unit 16. By multiplying the signal X (f, ⁇ ) by the mask M (f, ⁇ ), the noise frequency component contained in the signal X (f, ⁇ ) is suppressed, and the frequency component of speech is emphasized.
  • the mask application unit 17 outputs a suppressed signal X (f, ⁇ ).
  • the frequency domain transform unit 11 divides the signal x (t) input from the signal input unit 10 by a window function having a predetermined frame length in step S10.
  • step S11 the frequency domain conversion unit 11 performs a conversion process to a frequency domain such as FFT for each divided frame to generate a frequency domain signal X (f, ⁇ ).
  • the frequency domain transform unit 11 supplies the generated signal X (f, ⁇ ) to the noise estimation signal generation unit 12, the peak range detection unit 15, and the mask application unit 17.
  • the noise estimation signal generation unit 12 generates a noise estimation signal Y (f, ⁇ ) from the signal X (f, ⁇ ) in step S12.
  • step S13 the signal comparison unit 14 calculates the representative value V (f) for each frequency division unit based on the noise estimation signal stored in the storage unit 13.
  • step S14 the signal comparison unit 14 determines whether or not each processing from step S15 to step S17 has been completed for all frequency division units in the predetermined frequency range. When completed (step S14: YES), the signal comparison unit 14 shifts the process to step S18. If not completed (step S14: NO), the signal comparison unit 14 shifts the process to step S15.
  • step S15 the signal comparison unit 14 calculates a comparison value such as a difference or ratio between the representative value V (f) and the noise estimation signal Y (f, ⁇ ).
  • the signal comparison unit 14 determines whether or not the comparison value satisfies a predetermined condition in step S16. When the comparison value satisfies the predetermined condition (step S16: YES), the signal comparison unit 14 returns the process to step S14. When the comparison value does not satisfy the predetermined condition (step S16: NO), the signal comparison unit 14 shifts the process to step S17.
  • the storage unit 13 stores the noise estimation signal Y (f, ⁇ ) in step S17.
  • the peak range detection unit 15 obtains the peak frequency range using the spectrum of the signal X (f, ⁇ ) in step S18.
  • step S19 the mask generation unit 16 suppresses or emphasizes each frequency component of the signal X (f, ⁇ ) based on the result of the signal comparison unit 14 and the peak frequency range detected by the peak range detection unit 15.
  • a mask M (f, ⁇ ) to be generated is generated.
  • step S20 the mask application unit 17 multiplies the signal X (f, ⁇ ) by the mask M (f, ⁇ ) generated by the mask generation unit 16. This completes the processing of the audio signal.
  • FIG. 5 shows a block diagram of the audio signal processing apparatus 2 of the second embodiment.
  • the audio signal processing device 2 according to the second embodiment includes a mask storage unit 20 and a mask smoothing unit 21 in addition to the configuration of the audio signal processing device 1 according to the first embodiment. Therefore, the description of the common configuration is omitted.
  • the mask storage unit 20 stores the mask M (f, ⁇ ) generated by the mask generation unit 16 for a predetermined number of frames. In the second embodiment, it is desirable that the mask storage unit 20 stores a mask having a frame number of about 100 ms. The mask storage unit 20 discards past masks exceeding the predetermined number of frames and sequentially stores new masks.
  • the mask smoothing unit 21 performs a smoothing process on the mask M (f, ⁇ ) using the mask stored in the mask storage unit 20. Specifically, the mask smoothing unit 21 generates a smoothed mask by smoothing the mask M (f, ⁇ ) by convolving a smoothing filter such as a two-dimensional Gaussian filter with a mask arranged in time series. . The mask application unit 17 multiplies the signal X (f, ⁇ ) by the smoothing mask.
  • FIG. 6 shows an example of the smoothing filter.
  • the smoothing filter shown in FIG. 6 has a configuration in which the coefficient is smaller as the past frame is increased, and the coefficient is larger as the frequency component is closer to the frequency component to be smoothed.
  • the smoothing filter shown in FIG. 6 sets all the coefficients in the frames after the current frame to 0.
  • emphasis or suppression is performed using a mask of coefficients that are smoothly continuous in the time axis direction and the frequency axis direction, so that processing that achieves both noise suppression and natural speech can be realized.
  • the audio signal processing apparatus, audio signal processing method, and audio signal processing program of the present invention can be used for any electronic device that handles audio signals including audio components.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Quality & Reliability (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Circuit For Audible Band Transducer (AREA)

Abstract

周波数領域変換部(11)は、入力信号を所定のフレーム毎に分割し、第一の周波数分割単位毎の信号X(f,τ)を生成する。ノイズ推定信号生成部(12)は、第一の周波数分割単位よりも広い第二の周波数分割単位毎の信号Y(f,τ)を生成する。ピーク範囲検出部(15)は、信号X(f,τ)のピーク範囲を求める。記憶部(13)は信号Y(f,τ)を記憶する。信号比較部(14)は、記憶部(13)に記憶されている信号Y(f,τ)に基づいて、第二の周波数分割単位毎に代表値を算出し、代表値と信号Y(f,τ)とを第二の周波数分割単位毎に比較する。マスク生成部(16)は、ピーク範囲と、信号比較部(14)による比較結果とに基づいて、第一の周波数分割単位毎に抑圧または強調の度合いを決定するマスクM(f,τ)を生成する。マスク適用部(17)は、信号X(f,τ)にマスクM(f,τ)を乗算する。

Description

オーディオ信号処理装置、オーディオ信号処理方法及びオーディオ信号処理プログラム
 本開示は、ノイズを抑圧するオーディオ信号処理装置、オーディオ信号処理方法及びオーディオ信号処理プログラムに関する。
 オーディオ信号の伝送品質や認識精度の向上を目的として、オーディオ信号に混入したノイズ信号を抑圧する様々な技術が提案されている。従前のノイズ抑圧技術の一例としては、スペクトルサブトラクション(SS)法やコムフィルタ(櫛形フィルタ)法が挙げられる。
 しかし、スペクトルサブトラクション法では、音声情報を用いずにノイズ情報のみでノイズを抑圧するため、音声信号の劣化や、ミュージカルノイズと呼ばれるトーン性ノイズが生じる問題があった。また、コムフィルタ法では、ピッチ周波数に誤差が生じると、音声信号が抑圧されたり、ノイズ信号が強調されたりする問題があった。
 特許文献1には、スペクトルサブトラクション法やコムフィルタ法の課題を解決する音声処理装置が記載されている。
 まず、特許文献1に記載の音声処理装置は、入力信号をフレーム毎に周波数分割してスペクトルを算出し、複数フレームのスペクトルに基づいて、ノイズスペクトルを推定する。そして、特許文献1に記載の音声処理装置は、推定したノイズスペクトルと、入力信号のスペクトルとに基づいて、入力信号の周波数分割単位毎に、音声成分であるか、またはノイズ成分であるかを識別する。
 次に、特許文献1に記載の音声処理装置は、音声成分であると識別された周波数分割単位を強調する係数と、ノイズ成分であると識別された周波数分割単位を抑圧する係数とをそれぞれ生成する。そして、特許文献1に記載の音声処理装置は、これらの周波数分割単位毎の係数を入力信号に乗算し、ノイズ抑圧効果を得る。
特開2006-126859号公報
 しかしながら、特許文献1に記載の音声処理装置は、ノイズスペクトル推定精度、または、音声成分とノイズ成分との識別精度のいずれかにおいて、十分な精度が得られない場合があった。なぜならば、ノイズスペクトル推定と、周波数分割単位毎の音声成分とノイズ成分との識別とを、同じ周波数分割幅のスペクトルに基づいて行うためである。
 ノイズスペクトル推定は、突発的なノイズ成分の影響を抑えるため、一定程度の周波数分割幅(例えば数百~数千Hz程度)のスペクトルに基づいて行うことが望ましい。一方、音声成分とノイズ成分との識別は、正確な音声ピッチ検出を要することから、ノイズスペクトル推定よりも狭い周波数分割幅(例えば数十Hz程度)のスペクトルに基づいて行うことが望ましい。
 従って、特許文献1に記載の音声処理装置においては、音声が劣化することがあり、また、ノイズ抑圧が不十分であった。
 実施形態は、音声の劣化が少なく、かつ、ノイズを十分に抑圧できるオーディオ信号処理装置、オーディオ信号処理方法及びオーディオ信号処理プログラムを提供することを目的とする。
 実施の形態の第1の態様によれば、入力信号を所定のフレーム毎に分割し、第一の周波数分割単位毎の信号である第一の信号を生成する周波数領域変換部と、前前記第一の周波数分割単位よりも広い第二の周波数分割単位毎の信号である第二の信号を生成するノイズ推定信号生成部と、前記第一の信号のピーク範囲を求めるピーク範囲検出部と、前記第二の信号を記憶する記憶部と、前記記憶部に記憶されている第二の信号に基づいて、前記第二の周波数分割単位毎に代表値を算出し、前記代表値と前記第二の信号とを前記第二の周波数分割単位毎に比較する信号比較部と、前記ピーク範囲と、前記信号比較部による比較結果とに基づいて、前記第一の周波数分割単位毎に抑圧または強調の度合いを決定するマスクを生成するマスク生成部と、前記第一の信号に、前記マスク生成部によって生成されたマスクを乗算するマスク適用部とを備えるオーディオ信号処理装置が提供される。
 実施の形態の第2の態様によれば、入力信号を所定のフレーム毎に分割し、第一の周波数分割単位毎の信号である第一の信号を生成し、前記第一の周波数分割単位よりも広い第二の周波数分割単位毎の信号である第二の信号を生成し、前記第一の信号のピーク範囲を求め、前記第二の信号を記憶部に記憶し、前記記憶部に記憶されている第二の信号に基づいて、前記第二の周波数分割単位毎に代表値を算出し、前記代表値と前記第二の信号とを前記第二の周波数分割単位毎に比較し、前記ピーク範囲と、前記代表値と前記第二の信号との比較結果とに基づいて、前記第一の周波数分割単位毎に抑圧または強調の度合いを決定するマスクを生成し、前記第一の信号に、生成されたマスクを乗算するオーディオ信号処理方法が提供される。
 実施の形態の第2の態様によれば、コンピュータに、入力信号を所定のフレーム毎に分割し、第一の周波数分割単位毎の信号である第一の信号を生成する周波数領域変換ステップと、前記第一の周波数分割単位よりも広い第二の周波数分割単位毎の信号である第二の信号を生成するノイズ推定信号生成ステップと、前記第一の信号のピーク範囲を求めるピーク範囲検出ステップと、前記第二の信号を記憶部に記憶させる記憶ステップと、前記記憶部に記憶されている第二の信号に基づいて、前記第二の周波数分割単位毎に代表値を算出し、前記代表値と前記第二の信号とを前記第二の周波数分割単位毎に比較する信号比較ステップと、前記ピーク範囲と、前記信号比較ステップで得られた比較結果とに基づいて、前記第一の周波数分割単位毎に抑圧または強調の度合いを決定するマスクを生成するマスク生成ステップと、前記第一の信号に、前記マスク生成ステップにおいて生成されたマスクを乗算するマスク適用ステップとを実行させるオーディオ信号処理プログラムが提供される。
 実施形態のオーディオ信号処理装置、オーディオ信号処理方法及びオーディオ信号処理プログラムによれば、音声の劣化が少なく、かつ、ノイズを十分に抑圧できる。
図1は、実施の形態1のオーディオ信号処理装置を示すブロック図である。 図2は、周波数領域の信号X(f,τ)とノイズ推定信号Y(f,τ)との関係を示す模式図である。 図3は、周波数領域の信号X(f,τ)のスペクトルを模式的に示す周波数分布図である。 図4は、実施の形態1のオーディオ信号処理装置における処理を示し、オーディオ信号処理方法、及びオーディオ信号処理プログラムがコンピュータに実行させる手順を示すフローチャートである。 図5は、実施の形態2のオーディオ信号処理装置を示すブロック図である。 図6は、マスク平滑化のための二次元フィルタの一例を示す図である。
<実施の形態1>
 以下、図面を参照して実施の形態1について説明する。図1に実施の形態1のオーディオ信号処理装置1のブロック図を示す。実施の形態1のオーディオ信号処理装置1は、信号入力部10、周波数領域変換部11、ノイズ推定信号生成部12、記憶部13、信号比較部14、ピーク範囲検出部15、マスク生成部16、マスク適用部17を有する。
 信号入力部10、記憶部13はハードウェアにより構成される。また、周波数領域変換部11、ノイズ推定信号生成部12、信号比較部14、ピーク範囲検出部15、マスク生成部16、マスク適用部17は、CPUやDSP等の演算部により実行されるオーディオ信号処理プログラムにより実現される。この場合、オーディオ信号処理プログラムは、様々なコンピュータ可読媒体に格納され、コンピュータに供給される。プログラムにより実現される各構成要素はハードウェアによって構成されてもよい。
 信号入力部10は、図示しない音声取得部からオーディオ入力信号を取得する。そして、信号入力部10は、入力されたオーディオ入力信号をデジタル信号x(t)に変換する。tは時刻を示す。なお、入力されるオーディオ入力信号が既にデジタル値となっている場合、デジタル信号に変換するための構成は必要ない。
 周波数領域変換部11は、信号入力部10から入力された信号x(t)を周波数領域の信号X(f,τ)に変換する。fは周波数、τはフレーム番号を示す。信号X(f,τ)は第一の信号である。周波数領域変換部11は、予め定めたフレーム長の窓関数により信号x(t)を分割し、分割したフレーム毎にFFT等の周波数領域への変換処理を施して周波数領域の信号X(f,τ)を生成する。周波数領域変換部11は、生成した信号X(f,τ)を、ノイズ推定信号生成部12、ピーク範囲検出部15、及びマスク適用部17へ供給する。
 ノイズ推定信号生成部12は、周波数領域変換部11で生成した信号X(f,τ)を所定の周波数分割単位毎にグループ化することによって、信号X(f,τ)の周波数分割単位よりも広い周波数分割幅で分割したノイズ推定信号Y(f,τ)を生成する。具体的には、ノイズ推定信号生成部12は、信号X(f,τ)から振幅値a(f,τ)またはパワー値S(f,τ)を算出し、所定の周波数範囲の信号毎に、これらの値の和や平均値を求める。ノイズ推定信号Y(f,τ)は第二の信号である。
 図2は、X(f,τ)とY(f,τ)との関係を模式的に示している。各ブロックは周波数分割単位毎の信号成分を示している。nはX(f,τ)の周波数分割数、mはY(f,τ)の周波数分割数である。
 図2に示すY(f,τ)の周波数分割単位f’1は、図2に示すX(f,τ)の周波数分割単位f1~f4に基づいて生成したものである。同様にして、周波数分割単位f’2、f’3、…f’m-1、f’mはそれぞれ周波数分割単位f5~f8、f9~f12、…fn-15~fn-8、fn-7~fnに基づいて生成したものである。後述するように、周波数分割幅は、周波数帯域によって異なるようにしてもよい。図2において、例えば、周波数分割単位f’1と周波数分割単位f’mとは異なる周波数分割幅としている。
 ノイズ推定信号生成部12は、生成したノイズ推定信号Y(f,τ)を、記憶部13及び信号比較部14へ供給する。周波数領域変換部11が、信号x(t)からノイズ推定信号Y(f,τ)を直接生成してもよい。この場合、周波数領域変換部11がノイズ推定信号生成部としても動作し、周波数領域変換部11とは別体のノイズ推定信号生成部12は不要となる。
 ここで、ノイズ推定信号生成部12が、X(f,τ)よりも広い周波数分割幅でノイズ推定信号Y(f,τ)を生成する理由について説明する。突発的なノイズ信号、特にトーン性のノイズ信号が、信号入力部10へ入力された場合、数十Hz程度の周波数分割幅では、数百~数千Hz程度の周波数分割幅と比較して、周波数分割単位におけるノイズ信号成分が占める割合が大きくなる。そうすると、後述する信号比較部14の判定処理において、ノイズと判定すべきところを音声と誤判定する確率が高くなる。
 一方、後述するピーク範囲検出部15では、音声を構成する各周波数成分が正確にピークとして表れるようにする必要がある。従って、周波数領域変換部11は、数十Hz程度の周波数分割幅で信号X(f,τ)を生成するのが望ましい。
 このように、信号比較部14における処理と、ピーク範囲検出部15における処理とは、望ましい周波数分割幅が異なる。従って、周波数領域変換部11が信号X(f,τ)を生成する際と比較して広い周波数分割幅で、ノイズ推定信号生成部12はノイズ推定信号Y(f,τ)を生成する。
 ノイズ推定信号生成部12は、各周波数帯域において以下の周波数分割幅でノイズ推定信号Y(f,τ)を生成することが望ましい。1kHz未満程度の周波数領域では100Hz~300Hz程度、1kHz以上2kHz未満程度の周波数領域では300Hz~500Hz程度、2kHz以上の周波数領域では1kHz~2kHz程度の各周波数分割幅である。
 記憶部13は、ノイズ推定信号生成部12で生成したノイズ推定信号Y(f,τ)を記憶する。具体的には、記憶部13は、後述する信号比較部14の判定において所定の条件を満たさずノイズと判定した周波数分割単位を記憶する。一方、記憶部13は、所定の条件を満たし、音声と判定した周波数分割単位は記憶しない。記憶部13が記憶する信号の時間長は、50~200ms程度であることが望ましい。
 なお、記憶部13は、全ての周波数分割単位と、信号比較部14の判定結果とを記憶し、信号比較部14は、ノイズと判定した周波数分割単位に基づいて、後述する代表値V(f)を算出してもよい。
 信号比較部14は、記憶部13に記憶されているノイズ推定信号に基づいて、周波数分割単位毎に、平均値や中央値、最頻値等の代表値V(f)を算出する。ノイズ推定信号Y(f,τ)は、最新のフレームのノイズ推定信号を示す。同様にして、Y(f,τ-1)は、最新のフレームより1フレーム過去のフレームのノイズ推定信号を示し、Y(f,τ-2)は、最新のフレームより2フレーム過去のフレームのノイズ推定信号を示す。信号比較部14は、例えば以下の式(1)を用いて、3フレームを用いた平均値を算出する。
 V(f)=(Y(f,τ)+Y(f,τ-1)+Y(f,τ-2))/3 …(1)
 信号比較部14は、式(1)のように、各フレームの信号を等価に扱う単純平均を代表値V(f)として算出してもよい。また、信号比較部14は、以下の式(2)のように、現在に近いフレームを重視した重み付けをして代表値V(f)を算出してもよい。
 V(f)=0.5×Y(f,τ)+0.3×Y(f,τ-1)+0.2×Y(f,τ-2) …(2)
 ここで、記憶部13は、過去のノイズ推定信号を記憶するのではなく、信号比較部14が算出した代表値V(f)を記憶してもよい。この場合、信号比較部14は、式(3)を用いて新たな代表値V(f)を算出し、記憶部13に記憶する。ここでαは、0<α<1を満たす値である。
 V(f)=α×V(f)+(1-α)×Y(f,τ) …(3)
 次に、信号比較部14は、算出した代表値V(f)とノイズ推定信号Y(f,τ)とを比較し、所定の条件を満たしているか否かを判定する。具体的には、信号比較部14は、代表値V(f)とノイズ推定信号Y(f,τ)との差や比などの比較値を求め、比較値が所定の範囲に属するか否かを判定する。
 上記の通り、信号比較部14は、過去のノイズ推定信号Y(f,τ)のうちノイズと判定した周波数分割単位に基づいて、代表値V(f)を算出する。従って、代表値V(f)との比較により突出した値を示すノイズ推定信号Y(f,τ)には、音声信号の周波数成分が含まれている確率が高い。
 ここで、低周波数領域と高周波数領域とでは、ノイズの振幅値が異なるため、代表値V(f)とノイズ推定信号Y(f,τ)との比較に用いる所定の条件は、周波数帯域毎に設定することが望ましい。従って、Y(f,τ)/V(f)の比を用いて比較する場合、1kHz未満の周波数帯域では2~3倍以上となる範囲が、1kHz以上の周波数帯域では1~2倍以上となる範囲が、それぞれ望ましい所定の条件となる。
 比較判定処理終了後、ピーク範囲検出部15は、信号X(f,τ)のスペクトルを用いてピーク周波数範囲を求める。
 図3(a)は、音声を含む信号X(f,τ)のスペクトルを模式的に示す周波数分布図である。音声信号の周波数成分の振幅値は、その他の周波数成分よりも大きな振幅値を示す。従って、信号X(f,τ)のピーク周波数範囲を検出することで、音声信号の周波数成分が求められる。図3(b)の矢印区間の周波数範囲は、ピーク周波数範囲を示す。
 次に、ピーク範囲検出部15が、ピーク周波数範囲を検出する具体例を示す。まず、ピーク範囲検出部15は、周波数領域変換部11で生成した周波数領域の信号X(f,τ)について、周波数軸方向における微分値を算出する。微分値が所定の傾きを示す範囲を算出することで、上に凸となる範囲であるピーク周波数範囲が求められる。
 また、ピーク範囲検出部15は、スペクトルにローパスフィルタを適用して平滑化し、元のスペクトルと平滑化したスペクトルとの差または比が所定の範囲内となる周波数範囲を算出して、ピーク周波数範囲を求めてもよい。図3(c)に示す周波数分布図において、破線は信号X(f,τ)の元のスペクトルを模式的に示し、実線は平滑化したスペクトルを模式的に示している。この例では、実線と破線とが交わる点を境界とし、破線の値が実線の値より大きい範囲をピーク周波数として求めることができる。
 ここで、低周波数領域と高周波数領域とでは、ピークの尖度が異なるため、ピーク範囲検出部15は、一定の周波数領域毎に判定方法を変更してもよい。例えば、微分値を用いる場合は、周波数領域毎に、傾きの範囲を変更すればよい。また、平滑化スペクトルと比較する場合は、周波数領域毎に平滑化の度合いを変更したり、平滑化スペクトルを並行移動したりすればよい。このように、ピーク周波数範囲の算出は、上記の方法に限らず、他の方法を採用してもよい。
 マスク生成部16は、信号比較部14による判定結果(比較結果)と、ピーク範囲検出部15で検出したピーク周波数範囲とに基づいて、信号X(f,τ)の各周波数成分を抑圧または強調するマスクM(f,τ)を生成する。
 具体的には、マスク生成部16は、信号比較部14において音声と判定し、かつ、ピーク範囲検出部15においてピーク範囲として検出した周波数成分を強調する周波数成分とし、他の周波数成分は抑圧する周波数成分とするマスクM(f,τ)を生成する。
 ここで、各周波数成分における強調と抑圧の度合いは、代表値V(f)から動的に決定する方法と、代表値V(f)に応じた強調と抑圧の値を事前に決めておく方法とがある。前者の場合、マスク生成部16は、ノイズがない状態のスペクトルと、代表値V(f)とを比較して、ノイズがない状態のスペクトル相当に抑圧する抑圧係数を算出すればよい。後者の場合、マスク生成部16は、抑圧係数のテーブルを事前に定めておき、代表値V(f)に応じた抑圧係数をテーブルから選択すればよい。
 マスク適用部17は、マスク生成部16で生成したマスクM(f,τ)を、信号X(f,τ)に乗算する。マスクM(f,τ)を信号X(f,τ)に乗算することで、信号X(f,τ)に含まれていたノイズの周波数成分は抑圧され、音声の周波数成分は強調される。マスク適用部17は、抑圧または強調をした信号X(f,τ)を出力する。
 次に、図4を用いて実施の形態1のオーディオ信号処理装置1の動作について説明する。以下に説明する動作は、オーディオ信号処理方法やオーディオ信号処理プログラムで実行される手順についても同様である。
 オーディオ信号の処理が開始されると、周波数領域変換部11は、ステップS10にて、信号入力部10から入力される信号x(t)を予め定めたフレーム長の窓関数により分割する。
 次に周波数領域変換部11は、ステップS11にて、分割したフレーム毎にFFT等の周波数領域への変換処理を施して周波数領域の信号X(f,τ)を生成する。周波数領域変換部11は、生成した信号X(f,τ)をノイズ推定信号生成部12、ピーク範囲検出部15、及びマスク適用部17へ供給する。
 ノイズ推定信号生成部12は、ステップS12にて、信号X(f,τ)からノイズ推定信号Y(f,τ)を生成する。
 信号比較部14は、ステップS13にて、記憶部13に記憶されているノイズ推定信号に基づいて、周波数分割単位毎に代表値V(f)を算出する。
 信号比較部14は、ステップS14にて、所定の周波数範囲の全ての周波数分割単位について、ステップS15からステップS17までの各処理を完了したか否か判定する。完了した場合(ステップS14:YES)、信号比較部14は、処理をステップS18に移行させる。完了していない場合(ステップS14:NO)、信号比較部14は、処理をステップS15に移行させる。
 信号比較部14は、ステップS15にて、代表値V(f)とノイズ推定信号Y(f,τ)との差や比などの比較値を算出する。
 信号比較部14は、ステップS16にて、比較値が所定の条件を満たしているか否かを判定する。比較値が所定の条件を満たしている場合(ステップS16:YES)、信号比較部14は、処理をステップS14に戻す。比較値が所定の条件を満たしていない場合(ステップS16:NO)、信号比較部14は、処理をステップS17に移行させる。
 記憶部13は、ステップS17にて、ノイズ推定信号Y(f,τ)を記憶する。
 ピーク範囲検出部15は、ステップS18にて、信号X(f,τ)のスペクトルを用いてピーク周波数範囲を求める。
 マスク生成部16は、ステップS19にて、信号比較部14の結果と、ピーク範囲検出部15で検出したピーク周波数範囲とに基づいて、信号X(f,τ)の各周波数成分を抑圧または強調するマスクM(f,τ)を生成する。
 マスク適用部17は、ステップS20にて、マスク生成部16で生成したマスクM(f,τ)を、信号X(f,τ)に乗算する。以上でオーディオ信号の処理が終了する。
 以上の処理により、各周波数成分における音声またはノイズの判定を精度良く行うことができるため、音声の劣化が少なく、かつ、ノイズを十分に抑圧できる。
<実施の形態2>
 以下、図面を参照して実施の形態2について説明する。図5に実施の形態2のオーディオ信号処理装置2のブロック図を示す。実施の形態2のオーディオ信号処理装置2は、実施の形態1のオーディオ信号処理装置1の構成に加えて、マスク記憶部20及びマスク平滑化部21を有する。従って、共通する構成については説明を省略する。
 マスク記憶部20は、マスク生成部16で生成したマスクM(f,τ)を所定のフレーム数だけ記憶する。実施の形態2においては、マスク記憶部20は、100ms程度のフレーム数のマスクを記憶しておくことが望ましい。マスク記憶部20は、所定フレーム数を超えた過去のマスクは破棄し、順次新たなマスクを記憶する。
 マスク平滑化部21は、マスク記憶部20に記憶されたマスクを用いて、マスクM(f,τ)の平滑化処理を行う。具体的には、マスク平滑化部21は、二次元ガウシアンフィルタ等の平滑化フィルタを、時系列に並べたマスクに畳み込むことでマスクM(f,τ)を平滑化して平滑化マスクを生成する。マスク適用部17は、信号X(f,τ)に平滑化マスクを乗算する。
 図6に、平滑化フィルタの一例を示す。図6に示す平滑化フィルタは、過去のフレームほど係数が小さく、かつ、平滑化する周波数成分に近接する周波数成分ほど係数が大きくなるような構成としている。
 また、リアルタイム処理において、時系列で現在より後となる係数を畳み込むことはできないため、図6に示す平滑化フィルタは、現在のフレームより後のフレームにおける係数は全て0としている。
 以上の処理により、時間軸方向及び周波数軸方向において滑らかに連続した係数のマスクを用いて強調または抑圧をするため、ノイズ抑圧と自然な音声とを両立する処理が実現できる。
 本発明のオーディオ信号処理装置、オーディオ信号処理方法及びオーディオ信号処理プログラムは、音声成分を含むオーディオ信号を取り扱う任意の電子機器に利用できる。

Claims (5)

  1.  入力信号を所定のフレーム毎に分割し、第一の周波数分割単位毎の信号である第一の信号を生成する周波数領域変換部と、
     前記第一の周波数分割単位よりも広い第二の周波数分割単位毎の信号である第二の信号を生成するノイズ推定信号生成部と、
     前記第一の信号のピーク範囲を求めるピーク範囲検出部と、
     前記第二の信号を記憶する記憶部と、
     前記記憶部に記憶されている第二の信号に基づいて、前記第二の周波数分割単位毎に代表値を算出し、前記代表値と前記第二の信号とを前記第二の周波数分割単位毎に比較する信号比較部と、
     前記ピーク範囲と、前記信号比較部による比較結果とに基づいて、前記第一の周波数分割単位毎に抑圧または強調の度合いを決定するマスクを生成するマスク生成部と、
     前記第一の信号に、前記マスク生成部によって生成されたマスクを乗算するマスク適用部と、
     を備えるオーディオ信号処理装置。
  2.  前記ノイズ推定信号生成部は、前記第一の信号を所定の周波数分割単位毎にグループ化し、前記第二の信号を生成する請求項1に記載のオーディオ信号処理装置。
  3.  前記マスクを記憶するマスク記憶部と、
     前記マスク記憶部に記憶された複数のマスクに基づいて、予め定めた平滑化フィルタを用いて平滑化マスクを生成するマスク平滑化部と、
     をさらに備え、
     前記マスク適用部は、前記第一の信号に、前記マスクとして前記平滑化マスクを乗算する請求項1または2に記載のオーディオ信号処理装置。
  4.  入力信号を所定のフレーム毎に分割し、第一の周波数分割単位毎の信号である第一の信号を生成し、
     前記第一の周波数分割単位よりも広い第二の周波数分割単位毎の信号である第二の信号を生成し、
     前記第一の信号のピーク範囲を求め、
     前記第二の信号を記憶部に記憶し、
     前記記憶部に記憶されている第二の信号に基づいて、前記第二の周波数分割単位毎に代表値を算出し、前記代表値と前記第二の信号とを前記第二の周波数分割単位毎に比較し、
     前記ピーク範囲と、前記代表値と前記第二の信号との比較結果とに基づいて、前記第一の周波数分割単位毎に抑圧または強調の度合いを決定するマスクを生成し、
     前記第一の信号に、生成されたマスクを乗算する、
     オーディオ信号処理方法。
  5.  コンピュータに、
     入力信号を所定のフレーム毎に分割し、第一の周波数分割単位毎の信号である第一の信号を生成する周波数領域変換ステップと、
     前記第一の周波数分割単位よりも広い第二の周波数分割単位毎の信号である第二の信号を生成するノイズ推定信号生成ステップと、
     前記第一の信号のピーク範囲を求めるピーク範囲検出ステップと、
     前記第二の信号を記憶部に記憶させる記憶ステップと、
     前記記憶部に記憶されている第二の信号に基づいて、前記第二の周波数分割単位毎に代表値を算出し、前記代表値と前記第二の信号とを前記第二の周波数分割単位毎に比較する信号比較ステップと、
     前記ピーク範囲と、前記信号比較ステップで得られた比較結果とに基づいて、前記第一の周波数分割単位毎に抑圧または強調の度合いを決定するマスクを生成するマスク生成ステップと、
     前記第一の信号に、前記マスク生成ステップにおいて生成されたマスクを乗算するマスク適用ステップと、
     を実行させるオーディオ信号処理プログラム。
PCT/JP2016/056204 2015-05-18 2016-03-01 オーディオ信号処理装置、オーディオ信号処理方法及びオーディオ信号処理プログラム WO2016185757A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/814,875 US10388264B2 (en) 2015-05-18 2017-11-16 Audio signal processing apparatus, audio signal processing method, and audio signal processing program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015100661A JP6447357B2 (ja) 2015-05-18 2015-05-18 オーディオ信号処理装置、オーディオ信号処理方法及びオーディオ信号処理プログラム
JP2015-100661 2015-05-18

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/814,875 Continuation US10388264B2 (en) 2015-05-18 2017-11-16 Audio signal processing apparatus, audio signal processing method, and audio signal processing program

Publications (1)

Publication Number Publication Date
WO2016185757A1 true WO2016185757A1 (ja) 2016-11-24

Family

ID=57319801

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/056204 WO2016185757A1 (ja) 2015-05-18 2016-03-01 オーディオ信号処理装置、オーディオ信号処理方法及びオーディオ信号処理プログラム

Country Status (3)

Country Link
US (1) US10388264B2 (ja)
JP (1) JP6447357B2 (ja)
WO (1) WO2016185757A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7218811B2 (ja) * 2019-08-08 2023-02-07 日本電気株式会社 雑音推定装置、雑音推定方法及びプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001134287A (ja) * 1999-11-10 2001-05-18 Mitsubishi Electric Corp 雑音抑圧装置
JP2002140100A (ja) * 2000-11-02 2002-05-17 Matsushita Electric Ind Co Ltd 騒音抑圧装置
JP2008116686A (ja) * 2006-11-06 2008-05-22 Nec Engineering Ltd 雑音抑圧装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2861238B2 (ja) * 1990-04-20 1999-02-24 ソニー株式会社 ディジタル信号符号化方法
FI97758C (fi) * 1992-11-20 1997-02-10 Nokia Deutschland Gmbh Järjestelmä audiosignaalin käsittelemiseksi
FI100840B (fi) * 1995-12-12 1998-02-27 Nokia Mobile Phones Ltd Kohinanvaimennin ja menetelmä taustakohinan vaimentamiseksi kohinaises ta puheesta sekä matkaviestin
JP4445460B2 (ja) 2000-08-31 2010-04-07 パナソニック株式会社 音声処理装置及び音声処理方法
US8218783B2 (en) * 2008-12-23 2012-07-10 Bose Corporation Masking based gain control
ATE550754T1 (de) * 2009-07-30 2012-04-15 Nxp Bv Verfahren und vorrichtung zur aktiven geräuschsminderung unter anwendung von wahrnehmungsmaskierung

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001134287A (ja) * 1999-11-10 2001-05-18 Mitsubishi Electric Corp 雑音抑圧装置
JP2002140100A (ja) * 2000-11-02 2002-05-17 Matsushita Electric Ind Co Ltd 騒音抑圧装置
JP2008116686A (ja) * 2006-11-06 2008-05-22 Nec Engineering Ltd 雑音抑圧装置

Also Published As

Publication number Publication date
US20180075833A1 (en) 2018-03-15
US10388264B2 (en) 2019-08-20
JP6447357B2 (ja) 2019-01-09
JP2016218160A (ja) 2016-12-22

Similar Documents

Publication Publication Date Title
JP4863713B2 (ja) 雑音抑制装置、雑音抑制方法、及びコンピュータプログラム
JP4886715B2 (ja) 定常率算出装置、雑音レベル推定装置、雑音抑圧装置、それらの方法、プログラム及び記録媒体
US10510363B2 (en) Pitch detection algorithm based on PWVT
JP6260504B2 (ja) オーディオ信号処理装置、オーディオ信号処理方法及びオーディオ信号処理プログラム
EP2828856B1 (en) Audio classification using harmonicity estimation
JP2018521366A (ja) 音響信号をサウンドオブジェクトに分解する方法及びシステム、サウンドオブジェクト及びその利用
WO2005124739A1 (ja) 雑音抑圧装置および雑音抑圧方法
RU2719543C1 (ru) Устройство и способ для определения предварительно определенной характеристики, относящейся к обработке искусственного ограничения частотной полосы аудиосигнала
JP2010539792A (ja) スピーチ増強
JP6439682B2 (ja) 信号処理装置、信号処理方法および信号処理プログラム
JP2001265367A (ja) 音声区間判定装置
US9418677B2 (en) Noise suppressing device, noise suppressing method, and a non-transitory computer-readable recording medium storing noise suppressing program
US10297272B2 (en) Signal processor
JP6447357B2 (ja) オーディオ信号処理装置、オーディオ信号処理方法及びオーディオ信号処理プログラム
US20060195500A1 (en) Determination of a common fundamental frequency of harmonic signals
WO2010061505A1 (ja) 発話音声検出装置
JP2014106337A (ja) 音声帯域拡張装置及びプログラム、並びに、音声特徴量算出装置及びプログラム
JP3693022B2 (ja) 音声認識方法及び音声認識装置
JP2019035935A (ja) 音声認識装置
US11769517B2 (en) Signal processing apparatus, signal processing method, and signal processing program
KR101890265B1 (ko) 오디오 신호 처리 장치, 오디오 신호 처리 방법 및 오디오 신호 처리 프로그램을 기록한 컴퓨터 판독 가능한 기록 매체
JP6329408B2 (ja) 音声処理装置、音声処理装置の解析方法およびプログラム
US10109291B2 (en) Noise suppression device, noise suppression method, and computer program product
JP6930089B2 (ja) 音響処理方法および音響処理装置
JP5495858B2 (ja) 音楽音響信号のピッチ推定装置及び方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16796152

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16796152

Country of ref document: EP

Kind code of ref document: A1