WO2018229821A1 - 信号処理装置、遠隔会議装置、および信号処理方法 - Google Patents

信号処理装置、遠隔会議装置、および信号処理方法 Download PDF

Info

Publication number
WO2018229821A1
WO2018229821A1 PCT/JP2017/021616 JP2017021616W WO2018229821A1 WO 2018229821 A1 WO2018229821 A1 WO 2018229821A1 JP 2017021616 W JP2017021616 W JP 2017021616W WO 2018229821 A1 WO2018229821 A1 WO 2018229821A1
Authority
WO
WIPO (PCT)
Prior art keywords
signal
signal processing
microphone
component
sound
Prior art date
Application number
PCT/JP2017/021616
Other languages
English (en)
French (fr)
Inventor
窒登 川合
光平 金森
井上 貴之
Original Assignee
ヤマハ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ヤマハ株式会社 filed Critical ヤマハ株式会社
Priority to CN201780091855.1A priority Critical patent/CN110731088B/zh
Priority to JP2019524558A priority patent/JP6973484B2/ja
Priority to PCT/JP2017/021616 priority patent/WO2018229821A1/ja
Priority to EP17913502.5A priority patent/EP3641337A4/en
Publication of WO2018229821A1 publication Critical patent/WO2018229821A1/ja
Priority to US16/701,771 priority patent/US10978087B2/en
Priority to JP2021142224A priority patent/JP7215541B2/ja

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • G10L21/0232Processing in the frequency domain
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0264Noise filtering characterised by the type of parameter measurement, e.g. correlation techniques, zero crossing techniques or predictive techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0272Voice signal separating
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0316Speech enhancement, e.g. noise reduction or echo cancellation by changing the amplitude
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/32Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
    • H04R1/40Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
    • H04R1/406Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/005Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L2021/02082Noise filtering the noise being echo, reverberation of the speech

Definitions

  • Embodiments of the present invention relate to a signal processing device, a remote conference device, and a signal processing method that acquire sound of a sound source using a microphone.
  • Patent Documents 1 and 2 disclose a configuration in which a target sound is emphasized by a spectral subtraction method.
  • the configurations of Patent Literature 1 and Patent Literature 2 extract a correlation component between two microphone signals as a target sound.
  • the configurations of Patent Document 1 and Patent Document 2 are both techniques for performing noise estimation by filter processing using an adaptive algorithm and performing target sound enhancement processing using a spectral subtraction method.
  • an object of an embodiment of the present invention is to provide a signal processing device, a remote conference device, and a signal processing method capable of obtaining a correlation component with higher accuracy than before.
  • the signal processing device includes a first microphone, a second microphone, and a signal processing unit.
  • the signal processing unit performs an echo removal process on at least one of the sound collection signal of the first microphone and the sound collection signal of the second microphone, and uses the signal after the echo is removed by the echo removal process Thus, a correlation component between the sound collection signal of the first microphone and the sound collection signal of the second microphone is obtained.
  • a correlation component can be obtained with higher accuracy than in the past.
  • FIG. 1 is a schematic diagram showing a configuration of a signal processing device 1.
  • FIG. It is a top view which shows the directivity of microphone 10A and microphone 10B.
  • 1 is a block diagram showing a configuration of a signal processing device 1.
  • FIG. 3 is a block diagram illustrating an example of a configuration of a signal processing unit 15.
  • FIG. 3 is a flowchart showing the operation of the signal processing unit 15.
  • 3 is a block diagram showing a functional configuration of a noise estimation unit 21.
  • FIG. 3 is a block diagram showing a functional configuration of a noise suppression unit 23.
  • FIG. 3 is a block diagram showing a functional configuration of a distance estimation unit 24.
  • FIG. 1 is a schematic external view showing the configuration of the signal processing apparatus 1.
  • the signal processing device 1 includes a cylindrical casing 70, a microphone 10A, a microphone 10B, and a speaker 50.
  • the signal processing apparatus 1 of the present embodiment collects sound, outputs a collected sound signal related to the collected sound to another apparatus, inputs a sound emission signal from the other apparatus, and outputs it from a speaker. And used as a remote conference device.
  • the microphone 10 ⁇ / b> A and the microphone 10 ⁇ / b> B are arranged at the outer peripheral position of the housing 70 on the upper surface of the housing 70.
  • the speaker 50 is arranged on the upper surface of the housing 70 so that the sound emission direction is the upper surface direction of the housing 70.
  • the shape of the housing 70, the microphone arrangement mode, and the speaker arrangement mode are merely examples, and the present invention is not limited to this example.
  • FIG. 2 is a plan view showing the directivity of the microphone 10A and the microphone 10B.
  • the microphone 10 ⁇ / b> A is a directional microphone that has the strongest sensitivity in the front (left direction in the figure) and no sensitivity in the rear (right direction in the figure).
  • the microphone 10B is an omnidirectional microphone having uniform sensitivity in all directions.
  • the directivity of the microphone 10A and the microphone 10B shown in FIG. 2 is an example.
  • both microphone 10A and microphone 10B may be omnidirectional microphones.
  • FIG. 3 is a block diagram showing the configuration of the signal processing apparatus 1.
  • the signal processing device 1 includes a microphone 10A, a microphone 10B, a speaker 50, a signal processing unit 15, a memory 150, and an interface (I / F) 19.
  • the signal processing unit 15 is composed of a CPU or a DSP.
  • the signal processing unit 15 performs signal processing by reading and executing the program 151 stored in the memory 150 that is a storage medium.
  • the signal processing unit 15 controls the level of the sound collection signal Xu of the microphone 10A or the sound collection signal Xo of the microphone 10B, and outputs it to the I / F 19.
  • descriptions of the A / D converter and the D / A converter are omitted, and unless otherwise specified, all the various signals are digital signals.
  • the I / F 19 transmits the signal input from the signal processing unit 15 to another device. Further, a sound emission signal is input from another device and input to the signal processing unit 15. The signal processing unit 15 adjusts the level of a sound emission signal input from another device and outputs sound from the speaker 50.
  • FIG. 4 is a block diagram showing a functional configuration of the signal processing unit 15.
  • the signal processing unit 15 realizes the configuration shown in FIG. 4 by the above program.
  • the signal processing unit 15 includes an echo removal unit 20, a noise estimation unit 21, a speech enhancement unit 22, a noise suppression unit 23, a distance estimation unit 24, and a gain adjuster 25.
  • FIG. 5 is a flowchart showing the operation of the signal processing unit 15.
  • the echo removal unit 20 receives the sound collection signal Xo from the microphone 10B and removes an echo component from the input sound collection signal Xo (S11).
  • the echo removing unit 20 may remove the echo component from the sound collection signal Xu from the microphone 10A, or remove the echo component from both the sound collection signal Xu from the microphone 10A and the sound collection signal Xo from the microphone 10B. Also good.
  • the echo removal unit 20 inputs a signal (sound emission signal) to be output to the speaker 50.
  • the echo removal unit 20 performs echo removal processing using an adaptive filter. That is, the echo removing unit 20 estimates a feedback component from which the sound emission signal is output from the speaker 50 and reaches the microphone 10B through the acoustic space.
  • the echo removing unit 20 estimates the feedback component by processing the sound emission signal with an FIR filter that simulates the impulse response in the acoustic space.
  • the echo removing unit 20 removes the estimated feedback component from the collected sound signal Xo.
  • the echo removing unit 20 updates the filter coefficient of the FIR filter using an adaptive algorithm such as LMS or RLS.
  • the noise estimation unit 21 inputs the sound collection signal Xu of the microphone 10A and the output signal of the echo removal unit 20.
  • the noise estimation unit 21 estimates a noise component based on the sound collection signal Xu of the microphone 10A and the output signal of the echo removal unit 20.
  • FIG. 6 is a block diagram showing a functional configuration of the noise estimation unit 21.
  • the noise estimation unit 21 includes a filter calculation unit 211, a gain adjuster 212, and an adder 213.
  • the filter calculation unit 211 calculates the gain W (f, k) for each frequency in the gain adjuster 212 (S12).
  • the noise estimation unit 21 performs Fourier transform on the collected sound signal Xo and the collected sound signal Xu, respectively, to convert them into frequency axis signals Xo (f, k) and Xu (f, k). “F” is a frequency, and “k” represents a frame number.
  • the gain adjuster 212 extracts the target sound by multiplying the collected sound signal Xu (f, k) by the gain W (f, k) for each frequency.
  • the gain of the gain adjuster 212 is updated by the filter calculation unit 211 using an adaptive algorithm.
  • the target sound extracted by the processing of the gain adjuster 212 and the filter calculation unit 211 is only the direct sound correlation component from the sound source to the microphone 10A and the microphone 10B, and the impulse response corresponding to the indirect sound component is ignored. . Therefore, the filter calculation unit 211 performs an update process considering only a few frames in an update process using an adaptive algorithm such as NLMS or RLS.
  • the noise estimator 21 calculates the output signal W (f, k) ⁇ Xu (f, k) of the gain adjuster 212 from the collected sound signal Xo (f, k), as shown in the following equation. ) Is subtracted to directly remove the sound component from the collected sound signal Xo (f, k) (S13).
  • the noise estimation unit 21 can estimate the noise component E (f, k) obtained by removing the direct sound correlation component from the collected sound signal Xo (f, k).
  • the signal processing unit 15 performs noise removal processing by the spectral subtraction method using the noise component E (f, k) estimated by the noise estimation unit 21 in the noise suppression unit 23 (S14).
  • FIG. 7 is a block diagram showing a functional configuration of the noise suppression unit 23.
  • the noise suppression unit 23 includes a filter calculation unit 231 and a gain adjuster 232.
  • the noise suppression unit 23 uses the noise component E (f, k) estimated by the noise estimation unit 21 as shown in Equation 2 below, and uses the spectral gain
  • Gn ( f, k) the noise component E (f, k) estimated by the noise estimation unit 21 as shown in Equation 2 below.
  • ⁇ (f, k) is a coefficient by which the noise component is multiplied, and has different values for each time and frequency.
  • ⁇ (f, k) is appropriately set according to the use environment of the signal processing device 1. For example, the frequency at which the level of the noise component increases can be set so that the value of ⁇ increases.
  • the signal to be subtracted by the spectral subtraction method is the output signal X′o (f, k) of the speech enhancement unit 22.
  • the speech enhancement unit 22 performs the signal Xo (f, k) after the echo removal and the output signal W (f) of the gain adjuster 212 before the noise removal processing by the noise suppression unit 23 as shown in the following Equation 3.
  • K) ⁇ Xu (f, k) is obtained (S141).
  • the output signal W (f, k) ⁇ Xu (f, k) of the gain adjuster 212 is a correlation component with Xo (f, k) and corresponds to the target sound. Therefore, the speech enhancement unit 22 obtains the average of the signal Xo (f, k) after the echo removal and the output signal W (f, k) ⁇ Xu (f, k) of the gain adjuster 212, Emphasize the sound that is sound.
  • the gain adjuster 232 multiplies the output signal X′o (f, k) of the speech enhancement unit 22 by the spectral gain
  • the filter calculation unit 231 may calculate a spectral gain G′n (f, k) that further enhances the harmonic component, as shown in the following Equation 4.
  • Equation 4 an integral multiple component (that is, a harmonic component) of each frequency component is emphasized.
  • f / i is a decimal
  • interpolation processing is performed as shown in Equation 5 below.
  • the noise component subtraction process using the spectral subtraction method subtracts more high frequency components, which may degrade sound quality.
  • the harmonic component is emphasized by the above-described spectrum gain G′n (f, k), deterioration of sound quality can be prevented.
  • the gain adjuster 25 inputs the output signal Yn (f, k) in which the speech enhancement is performed and the noise component is suppressed, and performs gain adjustment.
  • the distance estimator 24 determines the gain Gf (k) of the gain adjuster 25.
  • FIG. 8 is a block diagram showing a functional configuration of the distance estimation unit 24.
  • the distance estimation unit 24 includes a gain calculation unit 241.
  • the gain calculation unit 241 receives the output signal E (f, k) from the noise estimation unit 21 and the output signal X ′ (f, k) from the speech enhancement unit 22 and estimates the distance between the microphone and the sound source (S15). .
  • the gain calculation unit 241 performs noise suppression processing by the spectral subtraction method as shown in Equation 6 below.
  • the noise component multiplication coefficient ⁇ is a fixed value, which is different from the coefficient ⁇ (f, k) in the noise suppression unit 23 described above.
  • the gain calculation unit 241 further obtains the average value Gth (k) of the levels of all frequency components for the signal after the noise suppression processing.
  • Mbin is the upper limit of the frequency.
  • the average value Gth (k) corresponds to the ratio between the target sound and noise. The ratio between the target sound and the noise decreases as the distance between the microphone and the sound source increases, and increases as the distance between the microphone and the sound source decreases. That is, the average value Gth (k) corresponds to the distance between the microphone and the sound source.
  • the gain calculation unit 241 functions as a distance estimation unit that estimates the distance of the sound source based on the ratio between the target sound (the signal after the speech enhancement process) and the noise component.
  • the gain calculator 241 changes the gain Gf (k) of the gain adjuster 25 according to the average value Gth (k) (S16). For example, as shown in Expression 6, when the average value Gth (k) exceeds the threshold value, the gain Gf (k) is set to a predetermined value a, and when the average value Gth (k) is equal to or less than the threshold value, the gain Gf (K) is set to a predetermined value b (b ⁇ a). Thereby, the signal processing apparatus 1 can emphasize the sound of the sound source close to the apparatus as the target sound without collecting the sound of the sound source far from the apparatus.
  • the sound of the sound pickup signal Xo of the omnidirectional microphone 10B is emphasized, the gain is adjusted, and the sound is output to the I / F 19.
  • the sound pickup of the directional microphone 10A is used.
  • the sound of the signal Xu may be emphasized, the gain may be adjusted, and output to the I / F 19.
  • the microphone 10B is an omnidirectional microphone, it can pick up sounds around the entire periphery. Therefore, it is preferable to adjust the gain of the collected sound signal Xo of the microphone 10B and output it to the I / F 19.
  • the signal processing device includes a first microphone (microphone 10 ⁇ / b> A), a second microphone (microphone 10 ⁇ / b> B), and a signal processing unit 15.
  • the signal processing unit 15 (echo removal unit 20) performs echo removal processing on at least one of the sound collection signal Xu of the microphone 10A and the sound collection signal Xo of the microphone 10B.
  • the signal processing unit 15 (noise estimation unit 21) uses the signal Xo (f, k) after the echo is removed by the echo removal processing to collect the sound collection signal of the first microphone and the sound collection signal of the second microphone.
  • the signal processing unit 15 performs the filtering process by the adaptive algorithm using the current input signal or the current input signal and some past input signals, and thereby outputs the output signal W (f, k) that is a correlation component. ) ⁇ Xu (f, k) is obtained.
  • Patent Document 1 Japanese Patent Laid-Open No. 2009-049998
  • Patent Document 2 International Publication No. 2014/024248
  • an adaptive algorithm is used to estimate a noise component.
  • the calculation load increases as the number of taps increases.
  • processing using an adaptive filter includes a reverberant component of speech, it is difficult to estimate a noise component with high accuracy.
  • the output signal W (f, k) ⁇ Xu (f, k) of the gain adjuster 212 which is a direct sound correlation component
  • the filter calculation unit 211 is calculated by the filter calculation unit 211 through update processing using an adaptive algorithm.
  • the update process is an update process that ignores the impulse response corresponding to the component of the indirect sound and considers only one frame (current input value). Therefore, the signal processing unit 15 of the present embodiment can significantly reduce the calculation load in the process of estimating the noise component E (f, k).
  • the update process of the adaptive algorithm is a process in which the indirect sound component is ignored, and the reverberation component of the voice is not affected, so that the correlation component can be estimated with high accuracy.
  • the update process is not limited to one frame (current input value).
  • the filter calculation unit 211 may perform update processing including some past signals.
  • the signal processing unit 15 performs speech enhancement processing using the correlation component.
  • the correlation component is an output signal W (f, k) ⁇ Xu (f, k) of the gain adjuster 212 in the noise estimation unit 21.
  • the speech enhancement unit 22 obtains the average of the signal Xo (f, k) after the echo removal and the output signal W (f, k) ⁇ Xu (f, k) of the gain adjuster 212, thereby obtaining the target sound. Emphasize a certain voice.
  • the speech enhancement process is performed using the correlation component calculated by the noise estimation unit 21, the speech can be enhanced with high accuracy.
  • the signal processing unit 15 uses the correlation component to remove the correlation component.
  • the noise suppression unit 23 performs noise component removal processing using a spectral subtraction method.
  • the noise suppression unit 23 uses the signal after the correlation component is removed by the noise estimation unit 21 as the noise component.
  • the noise suppression unit 23 uses the highly accurate noise component E (f, k) calculated by the noise estimation unit 21 as the noise component in the spectral subtraction method, the noise suppression unit 23 can suppress the noise component with higher accuracy than before. .
  • the noise suppression unit 23 further performs harmonic component enhancement processing in the spectral subtraction method. Thereby, since the harmonic component is emphasized, the deterioration of the sound quality can be prevented.
  • the noise suppression unit 23 sets a different gain ⁇ (f, k) for each frequency or for each time in the spectral subtraction method. As a result, the coefficient to be multiplied by the noise component is set to an appropriate value according to the environment.
  • the signal processing unit 15 includes a distance estimation unit 24 that estimates the distance of the sound source.
  • the signal processing unit 15 adjusts the gain of the sound collection signal of the first microphone or the sound collection signal of the second microphone according to the distance estimated by the distance estimation unit 24. Thereby, the signal processing apparatus 1 can emphasize the sound of the sound source close to the apparatus as the target sound without collecting the sound of the sound source far from the apparatus.
  • the distance estimation unit 24 calculates the ratio between the signal X ′ (f, k) after the speech enhancement process using the correlation component and the noise component E (f, k) extracted by the correlation component removal process. Is used to estimate the distance of the sound source. Thereby, the distance estimation unit 24 can estimate the distance with higher accuracy.

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Quality & Reliability (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Otolaryngology (AREA)
  • General Health & Medical Sciences (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Obtaining Desirable Characteristics In Audible-Bandwidth Transducers (AREA)

Abstract

信号処理装置は、第1マイクと、第2マイクと、信号処理部と、を備えている。信号処理部は、前記第1マイクの収音信号または前記第2マイクの収音信号の少なくともいずれかに対して、エコー除去処理を行ない、該エコー除去処理でエコーを除去した後の信号を用いて、前記第1マイクの収音信号および前記第2マイクの収音信号の相関成分を求める。

Description

信号処理装置、遠隔会議装置、および信号処理方法
 本発明の一実施形態は、マイクを用いて音源の音を取得する信号処理装置、遠隔会議装置、および信号処理方法に関する。
 特許文献1および特許文献2には、スペクトルサブトラクション法により目的音を強調する構成が開示されている。特許文献1および特許文献2の構成は、2つのマイク信号の相関成分を目的音として抽出する。また、特許文献1および特許文献2の構成は、いずれも、適応アルゴリズムによるフィルタ処理により、ノイズ推定を行ない、スペクトルサブトラクション法による目的音の強調処理を行なう手法である。
特開2009-049998号公報 国際公開第2014/024248号
 マイクを用いて音源の音を取得する装置の場合には、スピーカから出力された音がエコー成分として回り込む場合がある。エコー成分は、2つのマイク信号に同じ成分として入力されるため、相関性が非常に高くなる。そのため、エコー成分が目的音となってしまい、エコー成分が強調される可能性がある。
 そこで、本発明の一実施形態の目的は、従来よりも高精度に相関成分を求めることができる、信号処理装置、遠隔会議装置、および信号処理方法を提供することにある。
 信号処理装置は、第1マイクと、第2マイクと、信号処理部と、を備えている。信号処理部は、前記第1マイクの収音信号または前記第2マイクの収音信号の少なくともいずれかに対して、エコー除去処理を行ない、該エコー除去処理でエコーを除去した後の信号を用いて、前記第1マイクの収音信号および前記第2マイクの収音信号の相関成分を求める。
 本発明の一実施形態によれば、従来よりも高精度に相関成分を求めることができる。
信号処理装置1の構成を示す概略図である。 マイク10Aおよびマイク10Bの指向性を示す平面図である。 信号処理装置1の構成を示すブロック図である。 信号処理部15の構成の一例を示すブロック図である。 信号処理部15の動作を示すフローチャートである。 雑音推定部21の機能的構成を示すブロック図である。 雑音抑圧部23の機能的構成を示すブロック図である。 距離推定部24の機能的構成を示すブロック図である。
 図1は、信号処理装置1の構成を示す外観の概略図である。図1においては、収音および放音に係る主構成を記載して、その他の構成は記載していない。信号処理装置1は、円筒形状の筐体70、マイク10A、マイク10B、およびスピーカ50を備えている。本実施形態の信号処理装置1は、一例として、音声を収音し、収音した音声に係る収音信号を他装置に出力し、他装置から放音信号を入力してスピーカから出力することで、遠隔会議装置として利用される。
 マイク10Aおよびマイク10Bは、筐体70の上面のうち、筐体70の外周位置に配置されている。スピーカ50は、放音方向が筐体70の上面方向になるように、該筐体70の上面に配置されている。ただし、筐体70の形状、マイクの配置態様、およびスピーカの配置態様は一例であり、この例に限るものではない。
 図2は、マイク10Aおよびマイク10Bの指向性を示す平面図である。図2に示すように、マイク10Aは、装置の前方(図中の左方向)の感度が最も強く、後方(図中の右方向)に感度が無い、指向性マイクである。マイク10Bは、全方向に均一な感度を有する無指向性マイクである。ただし、図2に示すマイク10Aおよびマイク10Bの指向性は、一例である。例えばマイク10Aおよびマイク10Bがともに無指向性マイクであってもよい。
 図3は、信号処理装置1の構成を示すブロック図である。信号処理装置1は、マイク10A、マイク10B、スピーカ50、信号処理部15、メモリ150、およびインタフェース(I/F)19を備えている。
 信号処理部15は、CPUまたはDSPからなる。信号処理部15は、記憶媒体であるメモリ150に記憶されたプログラム151を読み出して実行することにより、信号処理を行なう。例えば、信号処理部15は、マイク10Aの収音信号Xuまたはマイク10Bの収音信号Xoのレベルを制御して、I/F19に出力する。なお、本実施形態ではA/DコンバータおよびD/Aコンバータの記載は省略し、特に記載がない限り、各種の信号は、全てデジタル信号である。
 I/F19は、信号処理部15から入力された信号を他装置に送信する。また、他装置から放音信号を入力し、信号処理部15に入力する。信号処理部15は、他装置から入力された放音信号のレベル調整等を行ない、スピーカ50から音声を出力させる。
 図4は、信号処理部15の機能的構成を示すブロック図である。信号処理部15は、上記プログラムにより、図4に示す構成を実現する。信号処理部15は、エコー除去部20、雑音推定部21、音声強調部22、雑音抑圧部23、距離推定部24、およびゲイン調整器25を備えている。図5は、信号処理部15の動作を示すフローチャートである。
 エコー除去部20は、マイク10Bの収音信号Xoを入力し、入力した収音信号Xoからエコー成分を除去する(S11)。なお、エコー除去部20は、マイク10Aの収音信号Xuからエコー成分を除去してもよいし、マイク10Aの収音信号Xuおよびマイク10Bの収音信号Xoの両方からエコー成分を除去してもよい。
 エコー除去部20は、スピーカ50に出力する信号(放音信号)を入力する。エコー除去部20は、適応型フィルタによるエコー除去処理を行なう。すなわち、エコー除去部20は、放音信号がスピーカ50から出力され、音響空間を経てマイク10Bに至る帰還成分を推定する。エコー除去部20は、該音響空間におけるインパルス応答を模擬したFIRフィルタで放音信号を処理することにより、帰還成分を推定する。エコー除去部20は、推定した帰還成分を収音信号Xoから除去する。エコー除去部20は、LMSまたはRLS等の適応アルゴリズムを用いて上記FIRフィルタのフィルタ係数を更新する。
 雑音推定部21は、マイク10Aの収音信号Xuおよびエコー除去部20の出力信号を入力する。雑音推定部21は、マイク10Aの収音信号Xuおよびエコー除去部20の出力信号に基づいて、雑音成分を推定する。
 図6は、雑音推定部21の機能的構成を示すブロック図である。雑音推定部21は、フィルタ計算部211、ゲイン調整器212、および加算器213を備えている。フィルタ計算部211は、ゲイン調整器212における、周波数毎のゲインW(f,k)を算出する(S12)。
 なお、雑音推定部21は、収音信号Xoおよび収音信号Xuを、それぞれフーリエ変換して、周波数軸の信号Xo(f,k)およびXu(f,k)に変換する。「f」は周波数であり、「k」は、フレーム番号を表す。
 ゲイン調整器212は、収音信号Xu(f,k)に上記周波数毎のゲインW(f,k)を乗ずることで目的音を抽出する。ゲイン調整器212のゲインは、フィルタ計算部211により、適応アルゴリズムによる更新処理がなされる。ただし、ゲイン調整器212およびフィルタ計算部211の処理により抽出する目的音は、音源からマイク10Aおよびマイク10Bに至る直接音の相関成分だけであり、間接音の成分に相当するインパルス応答は無視する。したがって、フィルタ計算部211は、NLMSまたはRLS等の適応アルゴリズムによる更新処理において、数フレーム分のみ考慮した更新処理を行なう。
 そして、雑音推定部21は、加算器213において、以下の数式で示すように、収音信号Xo(f,k)からゲイン調整器212の出力信号W(f,k)・Xu(f,k)を差し引くことで、収音信号Xo(f,k)から直接音の成分を除去する(S13)。
Figure JPOXMLDOC01-appb-M000001
 これにより、雑音推定部21は、収音信号Xo(f,k)から直接音の相関成分を除去した、ノイズ成分E(f,k)を推定することができる。
 次に、信号処理部15は、雑音抑圧部23において、雑音推定部21で推定したノイズ成分E(f,k)を用いて、スペクトルサブトラクション法による雑音除去処理を行なう(S14)。
 図7は、雑音抑圧部23の機能的構成を示すブロック図である。雑音抑圧部23は、フィルタ計算部231およびゲイン調整器232を備えている。雑音抑圧部23は、スペクトルサブトラクション法による雑音除去処理を行なうため、以下の数式2に示すように、雑音推定部21で推定したノイズ成分E(f,k)を用いて、スペクトルゲイン|Gn(f,k)|を求める。
Figure JPOXMLDOC01-appb-M000002
 ここで、β(f,k)は、ノイズ成分に乗算する係数であり、時間および周波数毎に異なる値を有する。β(f,k)は、信号処理装置1の利用環境に応じて適宜設定される。例えば、ノイズ成分のレベルが高くなる周波数についてはβの値が大きくなるように設定することができる。
 また、本実施形態において、スペクトルサブトラクション法による減算対象の信号は、音声強調部22の出力信号X’o(f,k)である。音声強調部22は、雑音抑圧部23による雑音除去処理の前に、以下の数式3に示すように、エコー除去後の信号Xo(f,k)と、ゲイン調整器212の出力信号W(f,k)・Xu(f,k)との平均を求める(S141)。
Figure JPOXMLDOC01-appb-M000003
 ゲイン調整器212の出力信号W(f,k)・Xu(f,k)は、Xo(f,k)との相関成分であり、目的音に相当する。したがって、音声強調部22は、エコー除去後の信号Xo(f,k)と、ゲイン調整器212の出力信号W(f,k)・Xu(f,k)との平均を求めることで、目的音である音声を強調する。
 ゲイン調整器232は、フィルタ計算部231で算出されたスペクトルゲイン|Gn(f,k)|に音声強調部22の出力信号X’o(f,k)を乗ずることで、出力信号Yn(f,k)を求める。
 なお、フィルタ計算部231は、以下の数式4で示すように、さらに高調波成分を強調させるスペクトルゲインG’n(f,k)を算出してもよい。
Figure JPOXMLDOC01-appb-M000004
 ここで、iは整数である。当該数式4によれば、各周波数成分の整数倍成分(すなわち高調波成分)が強調される。ただし、f/iの値が小数となる場合には、以下の数式5に示す様に補間処理を行なう。
Figure JPOXMLDOC01-appb-M000005
 スペクトルサブトラクション法によるノイズ成分の減算処理は、高域成分がより多く減算されるため、音質が劣化する可能性がある。しかし、本実施形態では、上述のスペクトルゲインG’n(f,k)により、高調波成分が強調されるため、音質の劣化を防止することができる。
 そして、図4に示す様に、ゲイン調整器25は、音声強調がなされて雑音成分が抑圧された出力信号Yn(f,k)を入力し、ゲイン調整を行なう。ゲイン調整器25のゲインGf(k)は、距離推定部24が決定する。
 図8は、距離推定部24の機能的構成を示すブロック図である。距離推定部24は、ゲイン計算部241を備えている。ゲイン計算部241は、雑音推定部21の出力信号E(f,k)および音声強調部22の出力信号X’(f,k)を入力し、マイクと音源との距離を推定する(S15)。
 ゲイン計算部241は、以下の数式6に示すように、スペクトルサブトラクション法による雑音抑圧処理を行なう。ただし、雑音成分の乗算係数γは固定値であり、上述の雑音抑圧部23における係数β(f,k)とは異なる値である。
Figure JPOXMLDOC01-appb-M000006
 ゲイン計算部241は、さらに、雑音抑圧処理後の信号について、全周波数成分のレベルの平均値Gth(k)を求める。Mbinは、周波数の上限である。当該平均値Gth(k)は、目的音と雑音との比率に相当する。目的音と雑音との比率は、マイクと音源との距離が遠くなるほど低い値となり、マイクと音源との距離が近いほど高い値となる。すなわち、当該平均値Gth(k)は、マイクと音源との距離に対応する。これにより、ゲイン計算部241は、目的音(音声強調処理がなされた後の信号)と、雑音成分と、の比率に基づいて、音源の距離を推定する、距離推定部として機能する。
 そして、ゲイン計算部241は、当該平均値Gth(k)の値に応じて、ゲイン調整器25のゲインGf(k)を変更する(S16)。例えば、数式6に示したように、平均値Gth(k)が閾値を超える場合にゲインGf(k)を所定値aに設定し、平均値Gth(k)が閾値以下である場合にゲインGf(k)を所定値b(b<a)に設定する。これにより、信号処理装置1は、装置から遠い音源の音を収音せず、装置に近い音源の音を目的音として強調することができる。
 なお、本実施形態では、無指向性のマイク10Bの収音信号Xoの音声を強調し、ゲイン調整して、I/F19に出力する態様となっているが、指向性のマイク10Aの収音信号Xuの音声を強調し、ゲインを調整して、I/F19に出力する態様としてもよい。ただし、マイク10Bは、無指向性マイクであるため、全周囲の音を収音することができる。よって、マイク10Bの収音信号Xoのゲインを調整して、I/F19に出力することが好ましい。
 本実施形態に示す技術的思想は、まとめると以下の通りである。
 1.信号処理装置は、第1マイク(マイク10A)と、第2マイク(マイク10B)と、信号処理部15と、を備える。信号処理部15(エコー除去部20)は、マイク10Aの収音信号Xuまたはマイク10Bの収音信号Xoの少なくともいずれかに対して、エコー除去処理を行なう。信号処理部15(雑音推定部21)は、該エコー除去処理でエコーを除去した後の信号Xo(f,k)を用いて、第1マイクの収音信号および前記第2マイクの収音信号の相関成分である出力信号W(f,k)・Xu(f,k)を求める。
 特許文献1(特開2009-049998号公報)および特許文献2(国際公開第2014/024248号)の様に、2つの信号を用いて相関成分を求める場合には、エコーが発生した場合に、当該エコー成分を相関成分として求めることになり、該エコー成分を目的音として強調してしまう。しかし、本実施形態の信号処理装置は、エコー除去後の信号を用いて相関成分を求めるため、従来よりも高精度に相関成分を求めることができる。
 2.信号処理部15は、現在の入力信号か、または現在の入力信号およびいくつかの過去の入力信号を用いて、適応アルゴリズムによるフィルタ処理を行なうことにより、相関成分である出力信号W(f,k)・Xu(f,k)を求める。
 例えば、特許文献1(特開2009-049998号公報)および特許文献2(国際公開第2014/024248号)では、ノイズ成分を推定するために、適応アルゴリズムを用いている。適応アルゴリズムを用いた適応フィルタは、タップ数が多くなるほど計算負荷が過大となる。また、適応フィルタを用いた処理では、音声の残響成分が含まれるため、ノイズ成分を高精度に推定することが困難である。
 一方で、本実施形態において、直接音の相関成分であるゲイン調整器212の出力信号W(f,k)・Xu(f,k)は、フィルタ計算部211により、適応アルゴリズムによる更新処理で算出されるが、上述の様に、当該更新処理は、間接音の成分に相当するインパルス応答は無視し、1フレーム分(現在の入力値)のみ考慮した更新処理である。したがって、本実施形態の信号処理部15は、ノイズ成分E(f,k)を推定する処理における計算負荷を顕著に低減することができる。また、適応アルゴリズムの更新処理は、間接音成分を無視した処理であり、音声の残響成分が影響することがないため、高精度に相関成分を推定することができる。ただし、更新処理は、1フレーム分(現在の入力値)のみに限るものではない。フィルタ計算部211は、いくつかの過去信号も含めた更新処理を行なってもよい。
 3.信号処理部15(音声強調部22)は、相関成分を用いて音声強調処理を行なう。相関成分は、雑音推定部21における、ゲイン調整器212の出力信号W(f,k)・Xu(f,k)である。音声強調部22は、エコー除去後の信号Xo(f,k)と、ゲイン調整器212の出力信号W(f,k)・Xu(f,k)との平均を求めることで、目的音である音声を強調する。
 この場合、雑音推定部21で算出された相関成分を用いて音声強調処理を行なうため、高精度に音声を強調することができる。
 4.信号処理部15(雑音抑圧部23)は、相関成分を用いて、該相関成分の除去処理を行なう。
 5.より具体的には、雑音抑圧部23は、スペクトルサブトラクション法を用いて雑音成分の除去処理を行なう。雑音抑圧部23は、雑音推定部21で相関成分が除去された後の信号を、雑音成分として用いる。
 雑音抑圧部23は、雑音推定部21において算出された高精度なノイズ成分E(f,k)をスペクトルサブトラクション法におけるノイズ成分として用いるため、従来よりも高精度に雑音成分を抑圧することができる。
 6.雑音抑圧部23は、スペクトルサブトラクション法において、さらに高調波成分の強調処理を行なう。これにより、高調波成分が強調されるため、当該音質の劣化を防止することができる。
 7.雑音抑圧部23は、スペクトルサブトラクション法において、周波数毎または時間毎に、異なるゲインβ(f,k)を設定する。これにより、ノイズ成分に乗算する係数は、環境に応じた適切な値に設定される。
 8.信号処理部15は、音源の距離を推定する距離推定部24を備える。信号処理部15は、ゲイン調整器25において、距離推定部24が推定した距離に応じて第1マイクの収音信号または第2マイクの収音信号のゲインを調整する。これにより、信号処理装置1は、装置から遠い音源の音を収音せず、装置に近い音源の音を目的音として強調することができる。
 9.距離推定部24は、相関成分を用いて音声強調処理がなされた後の信号X’(f,k)と、相関成分の除去処理により抽出されたノイズ成分E(f,k)と、の比率に基づいて、音源の距離を推定する。これにより、距離推定部24は、より高精度に距離を推定することができる。
 最後に、本実施形態の説明は、すべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上述の実施形態ではなく、特許請求の範囲によって示される。さらに、本発明の範囲は、特許請求の範囲と均等の範囲を含む。
1…信号処理装置
10A,10B…マイク
15…信号処理部
19…I/F
20…エコー除去部
21…雑音推定部
22…音声強調部
23…雑音抑圧部
24…距離推定部
25…ゲイン調整器
50…スピーカ
70…筐体
150…メモリ
151…プログラム
211…フィルタ計算部
212…ゲイン調整器
213…加算器
231…フィルタ計算部
232…ゲイン調整器
241…ゲイン計算部

Claims (21)

  1.  第1マイクと、
     第2マイクと、
     前記第1マイクの収音信号または前記第2マイクの収音信号の少なくともいずれかに対して、エコー除去処理を行ない、該エコー除去処理でエコーを除去した後の信号を用いて、前記第1マイクの収音信号および前記第2マイクの収音信号の相関成分を求める、信号処理部と、
     を備えた信号処理装置。
  2.  前記信号処理部は、現在の入力信号か、または現在の入力信号およびいくつかの過去の入力信号を用いて、適応アルゴリズムによるフィルタ処理を行なうことにより、前記相関成分を求める、
     請求項1に記載の信号処理装置。
  3.  前記信号処理部は、前記相関成分を用いて音声強調処理を行なう、
     請求項1または請求項2に記載の信号処理装置。
  4.  前記信号処理部は、前記相関成分を用いて、該相関成分の除去処理を行なう、
     請求項1乃至請求項3のいずれか1項に記載の信号処理装置。
  5.  前記信号処理部は、スペクトルサブトラクション法を用いて雑音成分の除去処理を行ない、
     前記相関成分の除去処理後の信号を、前記雑音成分として用いる、
     請求項4に記載の信号処理装置。
  6.  前記信号処理部は、前記スペクトルサブトラクション法において、さらに高調波成分の強調処理を行なう、
     請求項5に記載の信号処理装置。
  7.  前記信号処理部は、前記スペクトルサブトラクション法において、周波数毎または時間毎に、異なるゲインを設定する、
     請求項5または請求項6に記載の信号処理装置。
  8.  音源の距離を推定する距離推定部を備え、
     前記信号処理部は、前記距離推定部が推定した距離に応じて前記第1マイクの収音信号または前記第2マイクの収音信号のゲインを調整する、
     請求項1乃至請求項7のいずれか1項に記載の信号処理装置。
  9.  前記距離推定部は、前記相関成分を用いて音声強調処理がなされた後の信号と、前記相関成分の除去処理により抽出された雑音成分と、の比率に基づいて、前記音源の距離を推定する、
     請求項8に記載の信号処理装置。
  10.  前記第1マイクは、指向性マイクであり、
     前記第2マイクは、無指向性マイクである、
     請求項1乃至請求項9のいずれか1項に記載の信号処理装置。
  11.  前記信号処理部は、前記第2マイクの収音信号について、前記エコー除去処理を行なう、
     請求項1乃至請求項10のいずれか1項に記載の信号処理装置。
  12.  請求項1乃至請求項11のいずれか1項に記載の信号処理装置と、
     スピーカと、をさらに備えた、遠隔会議装置。
  13.  第1マイクの収音信号または第2マイクの収音信号の少なくともいずれかに対して、エコー除去処理を行ない、該エコー除去処理でエコーを除去した後の信号を用いて、前記第1マイクの収音信号および前記第2マイクの収音信号の相関成分を求める、
     信号処理方法。
  14.  現在の入力信号か、または現在の入力信号およびいくつかの過去の入力信号を用いて、適応アルゴリズムによるフィルタ処理を行なうことにより、前記相関成分を求める、
     請求項13に記載の信号処理方法。
  15.  前記相関成分を用いて音声強調処理を行なう、
     請求項13または請求項14に記載の信号処理方法。
  16.  前記相関成分を用いて、該相関成分の除去処理を行なう、
     請求項13乃至請求項15のいずれか1項に記載の信号処理方法。
  17.  スペクトルサブトラクション法を用いて雑音成分の除去処理を行ない、
     前記相関成分の除去処理後の信号を、前記雑音成分として用いる、
     請求項16に記載の信号処理方法。
  18.  前記スペクトルサブトラクション法において、さらに高調波成分の強調処理を行なう、
     請求項17に記載の信号処理方法。
  19.  前記スペクトルサブトラクション法において、周波数毎または時間毎に、異なるゲインを設定する、
     請求項16または請求項17に記載の信号処理方法。
  20.  音源の距離を推定し、
     推定した距離に応じて前記第1マイクの収音信号または前記第2マイクの収音信号のゲインを調整する、
     請求項13乃至請求項19のいずれか1項に記載の信号処理方法。
  21.  前記相関成分を用いて音声強調処理がなされた後の信号と、前記相関成分の除去処理により抽出された雑音成分と、の比率に基づいて、前記音源の距離を推定する、
     請求項20に記載の信号処理方法。
PCT/JP2017/021616 2017-06-12 2017-06-12 信号処理装置、遠隔会議装置、および信号処理方法 WO2018229821A1 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
CN201780091855.1A CN110731088B (zh) 2017-06-12 2017-06-12 信号处理装置、远程会议装置以及信号处理方法
JP2019524558A JP6973484B2 (ja) 2017-06-12 2017-06-12 信号処理装置、遠隔会議装置、および信号処理方法
PCT/JP2017/021616 WO2018229821A1 (ja) 2017-06-12 2017-06-12 信号処理装置、遠隔会議装置、および信号処理方法
EP17913502.5A EP3641337A4 (en) 2017-06-12 2017-06-12 SIGNAL PROCESSING DEVICE, TELECONFERENCE IMPLEMENTATION DEVICE AND SIGNAL PROCESSING METHOD
US16/701,771 US10978087B2 (en) 2017-06-12 2019-12-03 Signal processing device, teleconferencing device, and signal processing method
JP2021142224A JP7215541B2 (ja) 2017-06-12 2021-09-01 信号処理装置、遠隔会議装置、および信号処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/021616 WO2018229821A1 (ja) 2017-06-12 2017-06-12 信号処理装置、遠隔会議装置、および信号処理方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/701,771 Continuation US10978087B2 (en) 2017-06-12 2019-12-03 Signal processing device, teleconferencing device, and signal processing method

Publications (1)

Publication Number Publication Date
WO2018229821A1 true WO2018229821A1 (ja) 2018-12-20

Family

ID=64660306

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/021616 WO2018229821A1 (ja) 2017-06-12 2017-06-12 信号処理装置、遠隔会議装置、および信号処理方法

Country Status (5)

Country Link
US (1) US10978087B2 (ja)
EP (1) EP3641337A4 (ja)
JP (2) JP6973484B2 (ja)
CN (1) CN110731088B (ja)
WO (1) WO2018229821A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024070461A1 (ja) * 2022-09-28 2024-04-04 パナソニックIpマネジメント株式会社 エコー除去装置、及び、エコー除去方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113724723B (zh) * 2021-09-02 2024-06-11 西安讯飞超脑信息科技有限公司 混响与噪声抑制方法、装置、电子设备及存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63262577A (ja) * 1987-04-20 1988-10-28 Sony Corp マイクロホン装置
JP2009049998A (ja) 2007-08-13 2009-03-05 Harman Becker Automotive Systems Gmbh ビームフォーミングおよびポストフィルタリングの組み合わせによる雑音低減
WO2009104252A1 (ja) * 2008-02-20 2009-08-27 富士通株式会社 音処理装置、音処理方法及び音処理プログラム
JP2013061421A (ja) * 2011-09-12 2013-04-04 Oki Electric Ind Co Ltd 音声信号処理装置、方法及びプログラム
WO2014024248A1 (ja) 2012-08-06 2014-02-13 三菱電機株式会社 ビームフォーミング装置
JP2014229932A (ja) * 2013-05-17 2014-12-08 沖電気工業株式会社 集音・放音装置、音源分離ユニット及び音源分離プログラム
JP2015070291A (ja) * 2013-09-26 2015-04-13 沖電気工業株式会社 集音・放音装置、音源分離ユニット及び音源分離プログラム

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5263019A (en) * 1991-01-04 1993-11-16 Picturetel Corporation Method and apparatus for estimating the level of acoustic feedback between a loudspeaker and microphone
JP3310113B2 (ja) * 1994-08-11 2002-07-29 株式会社東芝 エコーキャンセラ
GB9922654D0 (en) * 1999-09-27 1999-11-24 Jaber Marwan Noise suppression system
JP3552967B2 (ja) * 1999-11-15 2004-08-11 沖電気工業株式会社 エコーキャンセラ装置
JP2004133403A (ja) 2002-09-20 2004-04-30 Kobe Steel Ltd 音声信号処理装置
US7773759B2 (en) * 2006-08-10 2010-08-10 Cambridge Silicon Radio, Ltd. Dual microphone noise reduction for headset application
JP4655098B2 (ja) * 2008-03-05 2011-03-23 ヤマハ株式会社 音声信号出力装置、音声信号出力方法およびプログラム
FR2976710B1 (fr) * 2011-06-20 2013-07-05 Parrot Procede de debruitage pour equipement audio multi-microphones, notamment pour un systeme de telephonie "mains libres"
US9232071B2 (en) * 2011-12-16 2016-01-05 Qualcomm Incorporated Optimizing audio processing functions by dynamically compensating for variable distances between speaker(s) and microphone(s) in a mobile device
CN103856871B (zh) * 2012-12-06 2016-08-10 华为技术有限公司 麦克风阵列采集多声道声音的装置及其方法
US9936290B2 (en) * 2013-05-03 2018-04-03 Qualcomm Incorporated Multi-channel echo cancellation and noise suppression
US9271100B2 (en) * 2013-06-20 2016-02-23 2236008 Ontario Inc. Sound field spatial stabilizer with spectral coherence compensation
WO2015049921A1 (ja) * 2013-10-04 2015-04-09 日本電気株式会社 信号処理装置、メディア装置、信号処理方法および信号処理プログラム
CN104991755B (zh) * 2015-07-10 2019-02-05 联想(北京)有限公司 一种信息处理方法及电子设备

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63262577A (ja) * 1987-04-20 1988-10-28 Sony Corp マイクロホン装置
JP2009049998A (ja) 2007-08-13 2009-03-05 Harman Becker Automotive Systems Gmbh ビームフォーミングおよびポストフィルタリングの組み合わせによる雑音低減
WO2009104252A1 (ja) * 2008-02-20 2009-08-27 富士通株式会社 音処理装置、音処理方法及び音処理プログラム
JP2013061421A (ja) * 2011-09-12 2013-04-04 Oki Electric Ind Co Ltd 音声信号処理装置、方法及びプログラム
WO2014024248A1 (ja) 2012-08-06 2014-02-13 三菱電機株式会社 ビームフォーミング装置
JP2014229932A (ja) * 2013-05-17 2014-12-08 沖電気工業株式会社 集音・放音装置、音源分離ユニット及び音源分離プログラム
JP2015070291A (ja) * 2013-09-26 2015-04-13 沖電気工業株式会社 集音・放音装置、音源分離ユニット及び音源分離プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3641337A4

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024070461A1 (ja) * 2022-09-28 2024-04-04 パナソニックIpマネジメント株式会社 エコー除去装置、及び、エコー除去方法

Also Published As

Publication number Publication date
JP7215541B2 (ja) 2023-01-31
JP2021193807A (ja) 2021-12-23
CN110731088A (zh) 2020-01-24
CN110731088B (zh) 2022-04-19
EP3641337A1 (en) 2020-04-22
EP3641337A4 (en) 2021-01-13
US10978087B2 (en) 2021-04-13
JPWO2018229821A1 (ja) 2020-04-16
US20200105290A1 (en) 2020-04-02
JP6973484B2 (ja) 2021-12-01

Similar Documents

Publication Publication Date Title
JP5038143B2 (ja) エコーキャンセル
JP5762956B2 (ja) ヌル処理雑音除去を利用した雑音抑制を提供するシステム及び方法
JP5451876B2 (ja) 音響マルチチャネル相殺
JP4957810B2 (ja) 音処理装置、音処理方法及び音処理プログラム
KR101671389B1 (ko) 가변 대역 폭 적응 노치 필터, 및 가변 대역 폭 적응 노치 필터를 이용하여 하울링을 제거하는 방법 및 장치
CN110996203B (zh) 一种耳机降噪方法、装置、系统及无线耳机
JP5785674B2 (ja) デュアルマイクに基づく音声残響低減方法及びその装置
WO2005125272A1 (ja) ハウリング抑圧装置、プログラム、集積回路、およびハウリング抑圧方法
JPWO2012026126A1 (ja) 音源分離装置、音源分離方法、及び、プログラム
KR102040986B1 (ko) 두 개의 마이크로폰을 포함하는 휴대단말에서의 잡음제거방법 및 장치
JP7215541B2 (ja) 信号処理装置、遠隔会議装置、および信号処理方法
JP6283413B2 (ja) 適応型残留フィードバック抑制
US9628923B2 (en) Feedback suppression
TWI465121B (zh) 利用全方向麥克風改善通話的系統及方法
JP2009513054A (ja) 音響エコーキャンセラ
KR101557779B1 (ko) 두 개의 마이크로폰을 포함하는 통신장치에서의 잡음제거방법 및 장치
JP2020504966A (ja) 遠距離音の捕捉
JP5228903B2 (ja) 信号処理装置および方法
CN112863532A (zh) 回音抑制装置、回音抑制方法以及存储介质
WO2014097470A1 (ja) 残響除去装置
JP4209348B2 (ja) エコー抑圧方法、この方法を実施する装置、プログラムおよび記録媒体
JPH05191884A (ja) 雑音低減装置
JP2003235091A (ja) 集音装置、集音方法、音声認識装置、通信機器および補聴器
JP5606731B2 (ja) 適応型帰還利得補正
JP5606731B6 (ja) 適応型帰還利得補正

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17913502

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019524558

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2017913502

Country of ref document: EP

Effective date: 20200113