WO2018173267A1 - 収音装置および収音方法 - Google Patents

収音装置および収音方法 Download PDF

Info

Publication number
WO2018173267A1
WO2018173267A1 PCT/JP2017/012071 JP2017012071W WO2018173267A1 WO 2018173267 A1 WO2018173267 A1 WO 2018173267A1 JP 2017012071 W JP2017012071 W JP 2017012071W WO 2018173267 A1 WO2018173267 A1 WO 2018173267A1
Authority
WO
WIPO (PCT)
Prior art keywords
sound
control unit
microphone
signal
level control
Prior art date
Application number
PCT/JP2017/012071
Other languages
English (en)
French (fr)
Inventor
訓史 鵜飼
窒登 川合
未輝雄 村松
井上 貴之
Original Assignee
ヤマハ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ヤマハ株式会社 filed Critical ヤマハ株式会社
Priority to PCT/JP2017/012071 priority Critical patent/WO2018173267A1/ja
Priority to EP17901438.6A priority patent/EP3606090A4/en
Priority to EP21180644.3A priority patent/EP3905718B1/en
Priority to JP2019506898A priority patent/JP6838649B2/ja
Priority to CN201780088827.4A priority patent/CN110495184B/zh
Publication of WO2018173267A1 publication Critical patent/WO2018173267A1/ja
Priority to US16/578,493 priority patent/US10979839B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R29/00Monitoring arrangements; Testing arrangements
    • H04R29/004Monitoring arrangements; Testing arrangements for microphones
    • H04R29/005Microphone arrays
    • H04R29/006Microphone matching
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/32Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
    • H04R1/40Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
    • H04R1/406Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/005Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0264Noise filtering characterised by the type of parameter measurement, e.g. correlation techniques, zero crossing techniques or predictive techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/06Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being correlation coefficients
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2410/00Microphones
    • H04R2410/01Noise reduction using microphones having different directional characteristics

Definitions

  • Embodiments of the present invention relate to a sound collection device and a sound collection method for acquiring sound of a sound source using a microphone.
  • Patent Documents 1 to 3 disclose techniques for enhancing the target sound such as a speaker's voice by obtaining the coherence of two microphones.
  • the average coherence of two signals is obtained using two omnidirectional microphones, and it is determined whether or not the target speech is based on the obtained average coherence value.
  • an object of an embodiment of the present invention is to provide a sound collection device and a sound collection method that can reduce distant noise with higher accuracy than in the past.
  • the sound collection device includes a first directional microphone, a second omnidirectional microphone, and a level control unit.
  • the level control unit obtains a correlation between the first sound collection signal of the first microphone and the second sound collection signal of the second microphone, and the first sound collection signal or the second sound according to a calculation result of the correlation. Controls the level of the collected sound signal.
  • FIG. 1 is a schematic diagram illustrating a configuration of a sound collection device 1.
  • FIG. It is a top view which shows the directivity of microphone 10A and microphone 10B.
  • 1 is a block diagram illustrating a configuration of a sound collection device 1.
  • FIG. 3 is a diagram illustrating an example of a configuration of a level control unit 15.
  • FIG. 5A and FIG. 5B are diagrams illustrating an example of the gain table. It is a figure which shows the structure of the level control part 15 which concerns on the modification 1.
  • FIG. 7A is a block diagram showing functional configurations of the directivity forming unit 25 and the directivity forming unit 26, and
  • FIG. 7B is a plan view showing directivity. It is a figure which shows the structure of the level control part 15 which concerns on the modification 2.
  • FIG. 3 is a block diagram illustrating a functional configuration of an enhancement processing unit 50.
  • FIG. 3 is a flowchart showing the operation of the level control unit 15. It is a flowchart which shows operation
  • the sound collection device of this embodiment includes a directional first microphone, an omnidirectional second microphone, and a level control unit.
  • the level control unit obtains a correlation between the first sound collection signal of the first microphone and the second sound collection signal of the second microphone, and the first sound collection signal or the second sound according to a calculation result of the correlation. Controls the level of the collected sound signal.
  • Patent Document 2 Japanese Patent Laid-Open No. 2013-0614211
  • a low-frequency component hardly causes a phase difference, and a signal after directivity formation becomes very small. Therefore, accuracy is easily lowered due to an error such as a difference in sensitivity of a microphone and an installation position.
  • the directional microphone picks up sound in a specific direction with high sensitivity
  • the omnidirectional microphone picks up sound in all directions with equal sensitivity. That is, the directional microphone and the omnidirectional microphone are greatly different in sound collection performance with respect to distant sounds. Since the sound collection device uses a directional first microphone and a non-directional second microphone, when a sound of a distant sound source is input, the first sound collection signal and the second sound collection signal are obtained. When the sound of a sound source close to the device is input, the correlation value increases.
  • the directivity of the microphone itself is different at any frequency, for example, even when a low-frequency component that does not easily cause a phase difference is input, the correlation becomes small in the case of a distant sound source, and the difference in sensitivity of the microphone And is not easily affected by errors such as placement.
  • the sound collection device can emphasize sound of a sound source close to the device stably and with high accuracy, and can reduce noise in the distance.
  • FIG. 1 is a schematic external view showing the configuration of the sound collection device 1.
  • the sound collection device 1 includes a cylindrical housing 70, a microphone 10A, and a microphone 10B.
  • the microphone 10 ⁇ / b> A and the microphone 10 ⁇ / b> B are disposed on the upper surface of the housing 70.
  • the shape of the housing 70 and the arrangement of the microphones are examples, and the present invention is not limited to this example.
  • FIG. 2 is a plan view showing the directivity of the microphone 10A and the microphone 10B.
  • the microphone 10 ⁇ / b> A is a directional microphone that has the strongest sensitivity in the front (left direction in the figure) and no sensitivity in the rear (right direction in the figure).
  • the microphone 10B is an omnidirectional microphone having uniform sensitivity in all directions.
  • FIG. 3 is a block diagram showing the configuration of the sound collection device 1.
  • the sound collection device 1 includes a microphone 10 ⁇ / b> A, a microphone 10 ⁇ / b> B, a level control unit 15, and an interface (I / F) 19.
  • the level control unit 15 inputs the sound collection signal S1 of the microphone 10A and the sound collection signal S2 of the microphone 10B.
  • the level control unit 15 performs level control on the sound collection signal S1 of the microphone 10A or the sound collection signal S2 of the microphone 10B, and outputs it to the I / F 19.
  • FIG. 4 is a diagram illustrating an example of the configuration of the level control unit 15.
  • FIG. 10 is a flowchart showing the operation of the level control unit 15.
  • the level control unit 15 includes a coherence calculation unit 20, a gain control unit 21, and a gain adjustment unit 22.
  • the function of the level control unit 15 can be realized by a general information processing apparatus such as a personal computer. In this case, the information processing apparatus implements the function of the level control unit 15 by reading and executing a program stored in a storage medium such as a flash memory.
  • the coherence calculation unit 20 inputs the sound collection signal S1 of the microphone 10A and the sound collection signal S2 of the microphone 10B.
  • the coherence calculation unit 20 calculates the coherence of the sound collection signal S1 and the sound collection signal S2 as an example of the correlation.
  • the gain control unit 21 determines the gain of the gain adjustment unit 22 based on the calculation result of the coherence calculation unit 20.
  • the gain adjusting unit 22 receives the sound collection signal S2.
  • the gain adjusting unit 22 adjusts the gain of the collected sound signal S2 and outputs the adjusted signal to the I / F 19.
  • the gain of the sound collection signal S2 of the microphone 10B is adjusted and output to the I / F 19.
  • the gain of the sound collection signal S1 of the microphone 10A is adjusted and the I / F 19 is adjusted. It is good also as an aspect which outputs to.
  • the microphone 10B is an omnidirectional microphone, it can pick up sounds around the entire periphery. Therefore, it is preferable to adjust the gain of the collected sound signal S2 of the microphone 10B and output it to the I / F 19.
  • the coherence calculation unit 20 performs Fourier transform on the collected sound signal S1 and the collected sound signal S2, respectively, and converts them into frequency axis signals X (f, k) and Y (f, k) (S11). “F” is a frequency, and “k” represents a frame number.
  • the coherence calculator 20 calculates coherence (time average value of the complex cross spectrum) according to the following Equation 1 (S12).
  • the coherence calculator 20 may calculate the coherence according to the following Equation 2 or Equation 3.
  • m is a cycle number (an identification number indicating a group of signals including a predetermined number of frames), and “T” represents the number of frames in one cycle.
  • the gain control unit 21 determines the gain of the gain adjustment unit 22 based on the coherence. For example, the gain control unit 21 obtains a ratio R (k) of frequency bins in which the coherence amplitude exceeds a predetermined threshold ⁇ th with respect to all frequencies (number of frequency bins) (S13).
  • f0 in Equation 4 is a lower limit frequency bin
  • f1 is an upper limit frequency bin.
  • the gain control unit 21 determines the gain of the gain adjustment unit 22 according to the ratio R (k) (S14). More specifically, the gain control unit 21 determines whether or not the coherence exceeds the threshold ⁇ th for each frequency bin, totals the number of frequency bins exceeding the threshold, and determines the gain according to the total result.
  • the gain control unit 21 maintains the minimum gain value when the ratio R is smaller than R2.
  • the minimum gain value may be 0, but may be a value slightly larger than 0 so that sound can be heard slightly. Thereby, the user does not mistake that the sound is interrupted due to a failure or the like.
  • the coherence shows a high value when the correlation between the two signals is high. Distant sound is sound that has many reverberant components and the direction of arrival is not determined.
  • the directional microphone 10 ⁇ / b> A and the omnidirectional microphone 10 ⁇ / b> B in the present embodiment differ greatly in sound collection performance with respect to distant sounds. Therefore, the coherence is reduced when a sound from a distant sound source is input, and is increased when a sound from a sound source close to the apparatus is input.
  • the sound collection device 1 can emphasize the sound of the sound source close to the device as the target sound without collecting the sound of the sound source far from the device.
  • the gain control unit 21 obtains the ratio R (k) of the frequency where the coherence exceeds the predetermined threshold ⁇ th with respect to all the frequencies, and performs the gain control according to the ratio.
  • the gain control unit 21 may obtain an average of coherence and perform gain control according to the average.
  • the ratio R (k) affects only how many frequency components above the threshold exist, and whether the coherence value itself below the threshold is a low value or a high value depends on gain control. Does not influence at all, and by performing gain control according to the ratio R (k), it is possible to reduce distant noise and to emphasize the target sound with high accuracy.
  • the predetermined value R1 and the predetermined value R2 may be set to any value, but the predetermined value R1 is set according to the maximum range in which sound is desired to be collected without being attenuated. For example, when the position of the sound source is far from a radius of about 30 cm and the value of the coherence ratio R decreases, the value of the coherence ratio R when the distance is about 40 cm is set to a predetermined value R1. Thus, sound can be picked up without being attenuated up to a radius of about 40 cm.
  • the predetermined value R2 is set according to the minimum range to be attenuated. For example, by setting the value of the ratio R when the distance is 100 cm to the predetermined value R2, almost no sound is collected when the distance is 100 cm or more, and when the distance is closer than 100 cm, the gain gradually increases. Sound will be collected.
  • the predetermined value R1 and the predetermined value R2 are not fixed values and may be dynamically changed.
  • R0 the largest value of the ratio R calculated in the past within a predetermined time
  • the example of FIG. 5A is a mode in which the gain decreases suddenly from a predetermined distance (for example, 30 cm), and a sound source of a predetermined distance (for example, 100 cm) is hardly collected, and is similar to a limiter function.
  • the gain table may have various modes as shown in FIG. 5B.
  • the gain gradually decreases according to the ratio R, the degree of gain decrease from the predetermined value R1, and the gain gradually decreases again at the predetermined value R2 or more. Similar to compressor function.
  • FIG. 6 is a diagram illustrating a configuration of the level control unit 15 according to the first modification.
  • the level control unit 15 includes a directivity forming unit 25 and a directivity forming unit 26.
  • FIG. 11 is a flowchart illustrating the operation of the level control unit 15 according to the first modification.
  • FIG. 7A is a block diagram illustrating the functional configuration of the directivity forming unit 25 and the directivity forming unit 26.
  • the directivity forming unit 25 outputs the output signal M2 of the microphone 10B as it is as the sound collection signal S2.
  • the directivity forming unit 26 includes a subtracting unit 261 and a selecting unit 262 as shown in FIG.
  • the subtraction unit 261 subtracts the output signal M1 of the microphone 10A from the output signal M2 of the microphone 10B and inputs the difference to the selection unit 262.
  • the selection unit 262 compares the level of the output signal M1 of the microphone 10A and the level of the difference signal obtained by subtracting the output signal M1 of the microphone 10A from the output signal M2 of the microphone 10B, and collects the signal on the high level side.
  • the signal S1 is output (S101).
  • the difference signal obtained by subtracting the output signal M1 of the microphone 10A from the output signal M2 of the microphone 10B is in a state in which the directivity of the microphone 10B is inverted.
  • the level control unit 15 according to the modified example 1 uses a directional microphone (not sensitive to sound in a specific direction) to the entire periphery of the device. Sensitivity can be given. Also in this case, since the sound collection signal S1 has directivity and the sound collection signal S2 is omnidirectional, sound collection performance with respect to a distant sound is different. Therefore, the level control unit 15 according to the modification 1 emphasizes the sound of the sound source close to the device as the target sound without collecting the sound of the sound source far from the device while giving sensitivity to the entire periphery of the device. can do.
  • FIG. 8 is a diagram illustrating a configuration of the level control unit 15 according to the second modification.
  • the level control unit 15 includes an enhancement processing unit 50.
  • the enhancement processing unit 50 receives the collected sound signal S ⁇ b> 1 and performs a process of enhancing the target sound (sound of a voice produced by a speaker close to the apparatus).
  • the enhancement processing unit 50 estimates a noise component and enhances the target sound by removing the noise component by a spectral subtraction method using the estimated noise component.
  • FIG. 9 is a block diagram illustrating a functional configuration of the enhancement processing unit 50.
  • the human voice has a harmonic structure having a peak component for each predetermined frequency. Therefore, the comb filter setting unit 75 obtains a gain characteristic G (f, t) that passes the peak component of the human voice and removes other components than the peak component, as shown in Equation 5 below, and gain of the comb filter 76 Set as a characteristic.
  • the comb filter setting unit 75 obtains a cepstrum z (c, t) by performing a Fourier transform on the collected sound signal S2 and further performing a Fourier transform on the logarithm of the amplitude.
  • the comb filter setting unit 75 returns the peak component z peak (c, t) to a signal on the frequency axis, and sets the gain characteristic G (f, t) of the comb filter 76. Thereby, the comb filter 76 becomes a filter that emphasizes the harmonic component of the human voice.
  • the gain control unit 21 may adjust the strength of the enhancement process by the comb filter 76 based on the calculation result of the coherence calculation unit 20. For example, when the value of the ratio R (k) is equal to or greater than the predetermined value R1, the gain control unit 21 turns on the enhancement processing by the comb filter 76, and the value of the ratio R (k) is equal to the predetermined value R1. If it is less, the enhancement processing by the comb filter 76 is turned off. In this case, the enhancement processing by the comb filter 76 is also included in one aspect of performing level control of the sound collection signal S2 (or sound collection signal S1) according to the correlation calculation result. Therefore, the sound collection device 1 may perform only the target sound enhancement processing by the comb filter 76.
  • the level control unit 15 may perform a process of enhancing the target sound by, for example, estimating a noise component and removing the noise component by a spectral subtraction method using the estimated noise component. Further, the level control unit 15 may adjust the strength of the noise removal process based on the calculation result of the coherence calculation unit 20. For example, when the value of the ratio R (k) is equal to or greater than the predetermined value R1, the level control unit 15 turns on the enhancement process by the noise removal process, and the value of the ratio R (k) is the predetermined value R1. If it is less, the enhancement processing by the noise removal processing is turned off. In this case, enhancement processing by noise removal processing is also included in one aspect of performing level control of the collected sound signal S2 (or collected sound signal S1) according to the correlation calculation result.

Abstract

収音装置は、指向性の第1マイクと、無指向性の第2マイクと、レベル制御部と、を備えている。レベル制御部は、前記第1マイクの第1収音信号および前記第2マイクの第2収音信号の相関を求めて、該相関の算出結果に応じて前記第1収音信号または前記第2収音信号のレベル制御を行なう。

Description

収音装置および収音方法
 本発明の一実施形態は、マイクを用いて音源の音を取得する収音装置および収音方法に関する。
 特許文献1乃至特許文献3には、2つのマイクのコヒーレンスを求めて、話者の声等の目的音を強調する手法が開示されている。
 例えば、特許文献2の手法は、無指向性マイクを2つ用いて2つの信号の平均コヒーレンスを求め、求めた平均コヒーレンスの値に基づいて、目的音声であるか否かを判定する。
特開2016-042613号公報 特開2013-061421号公報 特開2006-129434号公報
 しかし、無指向性マイクを2つ用いる場合、特に低域成分に位相差が生じ難く、精度が低下する。
 そこで、本発明の一実施形態の目的は、従来よりも高精度に遠方の雑音を低減することができる収音装置および収音方法を提供することにある。
 収音装置は、指向性の第1マイクと、無指向性の第2マイクと、レベル制御部と、を備えている。レベル制御部は、前記第1マイクの第1収音信号および前記第2マイクの第2収音信号の相関を求めて、該相関の算出結果に応じて前記第1収音信号または前記第2収音信号のレベル制御を行なう。
 本発明の一実施形態によれば、従来よりも高精度に遠方の雑音を低減することができる。
収音装置1の構成を示す概略図である。 マイク10Aおよびマイク10Bの指向性を示す平面図である。 収音装置1の構成を示すブロック図である。 レベル制御部15の構成の一例を示す図である。 図5(A)および図5(B)は、ゲインテーブルの一例を示す図である。 変形例1に係るレベル制御部15の構成を示す図である。 図7(A)は、指向性形成部25および指向性形成部26の機能的構成を示すブロック図であり、図7(B)は、指向性を示す平面図である。 変形例2に係るレベル制御部15の構成を示す図である。 強調処理部50の機能的構成を示すブロック図である。 レベル制御部15の動作を示すフローチャートである。 変形例に係るレベル制御部15の動作を示すフローチャートである。
 本実施形態の収音装置は、指向性の第1マイクと、無指向性の第2マイクと、レベル制御部と、を備えている。レベル制御部は、前記第1マイクの第1収音信号および前記第2マイクの第2収音信号の相関を求めて、該相関の算出結果に応じて前記第1収音信号または前記第2収音信号のレベル制御を行なう。
 特許文献2(特開2013-061421号公報)のように、無指向性マイク2つと第1の指向性形成部11とを用いる場合、θ方向から到来した音が除去されることが期待されるが、マイクの感度が一致していること、およびマイクの取り付け位置に誤差がないことが必要になってしまう。特に、低域成分は位相差が生じ難く、指向性形成後の信号が非常に小さくなってしまうため、マイクの感度差や設置位置などの誤差によって容易に精度が低下する。
 また、遠方の音は、残響音成分が多く、到来方向の定まらない音である。指向性マイクは、特定の方向の音を高感度に収音し、無指向性マイクは、全方向を均等な感度で収音する。すなわち、指向性マイクと無指向性マイクとでは、遠方の音に対する収音性能が大きく異なる。収音装置は、指向性の第1マイクと、無指向性の第2マイクと、を用いるため、遠方の音源の音が入力された場合には第1収音信号と第2収音信号との相関が小さくなり、装置に近い音源の音が入力された場合には相関の値が大きくなる。この場合、マイクの指向性自体がどの周波数でも異なるため、例えば位相差が生じ難い低域成分が入力された場合であっても、遠方の音源の場合に相関が小さくなり、マイクの感度の差や配置などの誤差の影響を受けにくい。
 したがって、収音装置は、装置に近い音源の音を安定かつ高精度に強調することができ、遠方の雑音を低減することができる。
 図1は、収音装置1の構成を示す外観の概略図である。図1においては、収音に係る主構成を記載して、その他の構成は記載していない。収音装置1は、円筒形状の筐体70、マイク10A、およびマイク10B、を備えている。
 マイク10Aおよびマイク10Bは、筐体70の上面に配置されている。ただし、筐体70の形状、およびマイクの配置態様は一例であり、この例に限るものではない。
 図2は、マイク10Aおよびマイク10Bの指向性を示す平面図である。図2に示すように、マイク10Aは、装置の前方(図中の左方向)の感度が最も強く、後方(図中の右方向)に感度が無い、指向性マイクである。マイク10Bは、全方向に均一な感度を有する無指向性マイクである。
 図3は、収音装置1の構成を示すブロック図である。収音装置1は、マイク10A、マイク10B、レベル制御部15、およびインタフェース(I/F)19を備えている。
 レベル制御部15は、マイク10Aの収音信号S1およびマイク10Bの収音信号S2を入力する。レベル制御部15は、マイク10Aの収音信号S1またはマイク10Bの収音信号S2をレベル制御して、I/F19に出力する。
 図4は、レベル制御部15の構成の一例を示す図である。図10は、レベル制御部15の動作を示すフローチャートである。レベル制御部15は、コヒーレンス算出部20、ゲイン制御部21、およびゲイン調整部22を備えている。なお、レベル制御部15の機能は、パーソナルコンピュータ等の一般的な情報処理装置で実現することも可能である。この場合、情報処理装置は、フラッシュメモリ等の記憶媒体に記憶されたプログラムを読み出して実行することにより、レベル制御部15の機能を実現する。
 コヒーレンス算出部20は、マイク10Aの収音信号S1およびマイク10Bの収音信号S2を入力する。コヒーレンス算出部20は、相関の一例として、収音信号S1および収音信号S2のコヒーレンスを算出する。
 ゲイン制御部21は、コヒーレンス算出部20の算出結果に基づいて、ゲイン調整部22のゲインを決定する。ゲイン調整部22は、収音信号S2を入力する。ゲイン調整部22は、収音信号S2のゲインを調整して、I/F19に出力する。
 なお、この例では、マイク10Bの収音信号S2のゲインを調整して、I/F19に出力する態様となっているが、マイク10Aの収音信号S1のゲインを調整して、I/F19に出力する態様としてもよい。ただし、マイク10Bは、無指向性マイクであるため、全周囲の音を収音することができる。よって、マイク10Bの収音信号S2のゲインを調整して、I/F19に出力することが好ましい。
 コヒーレンス算出部20は、収音信号S1および収音信号S2をそれぞれフーリエ変換して、周波数軸の信号X(f、k)およびY(f,k)に変換する(S11)。「f」は周波数であり、「k」は、フレーム番号を表す。コヒーレンス算出部20は、以下の数式1に従って、コヒーレンス(複素クロススペクトルの時間平均値)を算出する(S12)。
Figure JPOXMLDOC01-appb-M000001
 ただし、上記数式1は、一例である。例えば、コヒーレンス算出部20は、以下の数式2または数式3に従ってコヒーレンスを算出してもよい。
Figure JPOXMLDOC01-appb-M000002
Figure JPOXMLDOC01-appb-M000003
 なお、「m」は、サイクル番号(所定フレーム数からなる信号のまとまりを示す識別番号)であり、「T」は、1サイクルのフレーム数を表す。
 ゲイン制御部21は、上記コヒーレンスに基づいて、ゲイン調整部22のゲインを決定する。例えば、ゲイン制御部21は、全周波数(周波数ビンの数)に対して、コヒーレンスの振幅が所定の閾値γthを超えた周波数ビンの割合R(k)を求める(S13)。
Figure JPOXMLDOC01-appb-M000004
 閾値γthは、例えばγth=0.6に設定される。なお、上記数式4におけるf0は、下限周波数ビンであり、f1は、上限周波数ビンである。
 ゲイン制御部21は、この割合R(k)に応じて、ゲイン調整部22のゲインを決定する(S14)。より具体的には、ゲイン制御部21は、周波数ビン毎にコヒーレンスが閾値γthを超えるか否かを判定し、該閾値を超える周波数ビン数を集計し、集計結果に応じてゲインを決定する。図5(A)は、ゲインテーブルの一例を示す図である。図5(A)に示す例のゲインテーブルによれば、ゲイン制御部21は、割合Rが、所定値R1以上では、減衰しない(ゲイン=1)。ゲイン制御部21は、割合Rが所定値R1からR2までは、割合Rの低下にしたがって、ゲインが減衰するように設定する。ゲイン制御部21は、割合RがR2よりも小さい場合には、最小ゲイン値で維持する。最小ゲイン値は、0であってもよいが、0よりもわずかに大きな値として、わずかに音が聞こえる状態としてもよい。これにより、ユーザは、故障等により音が途切れたと勘違いすることがない。
 コヒーレンスは、2つの信号の相関が高い場合に、高い値を示す。遠方の音は、残響音成分が多く、到来方向の定まらない音である。本実施形態における指向性のマイク10Aと無指向性のマイク10Bとでは、遠方の音に対する収音性能が大きく異なる。したがって、コヒーレンスは、遠方の音源の音が入力された場合には小さくなり、装置に近い音源の音が入力された場合には大きくなる。
 よって、収音装置1は、装置から遠い音源の音を収音せず、装置に近い音源の音を目的音として強調することができる。
 なお、上記例では、ゲイン制御部21は、全周波数に対して、コヒーレンスが所定の閾値γthを超えた周波数の割合R(k)を求め、該割合に応じてゲイン制御を行なう例を示したが、例えば、ゲイン制御部21は、コヒーレンスの平均を求め、該平均に応じてゲイン制御を行なう態様としてもよい。ただし、近傍の音および遠方の音には少なくとも反射音が含まれているため、コヒーレンスが極端に低くなる周波数がある。この様な極端に低い値が含まれていると、平均が低くなる場合がある。しかし、上記割合R(k)は、閾値以上の周波数成分がどの程度存在するかにのみ影響し、閾値未満におけるコヒーレンスの値自体が低い値であるか、高い値であるかは、ゲイン制御には全く影響しないため、割合R(k)に応じてゲイン制御を行なうことで、遠方の雑音を低減することができ、目的音を高精度で強調することができる。
 なお、所定値R1および所定値R2は、どの様な値に設定してもよいが、所定値R1は、減衰させずに収音したい最大範囲に応じて設定する。例えば、音源の位置が半径約30cmよりも遠い場合に、コヒーレンスの割合Rの値が低下する場合に、距離が約40cmとなる時のコヒーレンスの割合Rの値を、所定値R1に設定することで、半径約40cmまでは、減衰させずに収音することができる。また、所定値R2は、減衰させたい最小範囲に応じて設定する。例えば、距離が100cmとなる時の割合Rの値を、所定値R2に設定することで、距離が100cm以上ではほとんど収音されず、距離が100cmよりも近くなると、徐々にゲインが上昇して収音されることになる。
 また、所定値R1および所定値R2は、固定値ではなく、動的に変化させてもよい。例えば、レベル制御部15は、所定時間内の過去に算出された割合Rの平均値R0(あるいは最も大きい値)を求め、所定値R1=R0+0.1、所定値R2=R0-0.1とする。これにより、現在の音源の位置を基準として、該音源の位置よりも近い範囲の音は収音され、音源の位置よりも遠い範囲の音が収音されない状態となる。
 なお、図5(A)の例は、所定距離(例えば30cm)から急激にゲインが低下して、所定距離(例えば100cm)以上の音源はほとんど収音されない態様であり、リミッタの機能に類似する。しかし、ゲインテーブルは、他にも図5(B)に示すように、様々な態様が考えられる。図5(B)の例では、割合Rに応じて徐々にゲインが低下し、所定値R1からゲインの低下度合いが大きくなり、所定値R2以上では、再び徐々にゲインが低下する態様であり、コンプレッサの機能に類似する。
 次に、図6は、変形例1に係るレベル制御部15の構成を示す図である。レベル制御部15は、指向性形成部25および指向性形成部26を備えている。図11は、変形例1に係るレベル制御部15の動作を示すフローチャートである。図7(A)は、指向性形成部25および指向性形成部26の機能的構成を示すブロック図である。
 指向性形成部25は、マイク10Bの出力信号M2を、そのまま収音信号S2として出力する。指向性形成部26は、図7(A)に示すように、減算部261および選択部262を備えている。
 減算部261は、マイク10Bの出力信号M2からマイク10Aの出力信号M1を差分して、選択部262に入力する。
 選択部262は、マイク10Aの出力信号M1のレベルと、およびマイク10Bの出力信号M2からマイク10Aの出力信号M1を差分した差分信号のレベルと、を比較し、高レベル側の信号を収音信号S1として出力する(S101)。図7(B)に示すように、マイク10Bの出力信号M2からマイク10Aの出力信号M1を差分した差分信号は、マイク10Bの指向性を反転した状態となる。
 このようにして、変形例1に係るレベル制御部15は、指向性のある(特定の方向の音に感度を有しない)マイクを用いた場合であっても、装置の全周囲に対して、感度を持たせることができる。この場合も、収音信号S1は指向性を有し、収音信号S2は無指向性であるため、遠方の音に対する収音性能が異なる。よって、変形例1に係るレベル制御部15は、装置の全周囲に対して感度を持たせながらも、装置から遠い音源の音を収音せず、装置に近い音源の音を目的音として強調することができる。
 次に、図8は、変形例2に係るレベル制御部15の構成を示す図である。レベル制御部15は、強調処理部50を備えている。強調処理部50は、収音信号S1を入力し、目的音(装置に近い話者が発した声の音)を強調する処理を行なう。強調処理部50は、例えば、ノイズ成分を推定し、該推定したノイズ成分を用いたスペクトルサブトラクション法により、ノイズ成分を除去することで、目的音を強調する。
 あるいは、強調処理部50は、以下に示す強調処理を行なってもよい。図9は、強調処理部50の機能的構成を示すブロック図である。
 人の声は、所定の周波数毎にピーク成分を有する調波構造となっている。したがって、コムフィルタ設定部75は、以下の数式5に示すように、人の声のピーク成分を通過させ、ピーク成分以外を除去するゲイン特性G(f、t)を求め、コムフィルタ76のゲイン特性として設定する。
Figure JPOXMLDOC01-appb-M000005
 すなわち、コムフィルタ設定部75は、収音信号S2をフーリエ変換し、振幅を対数演算したものをさらにフーリエ変換してケプストラムz(c、t)を求める。コムフィルタ設定部75は、このケプストラムz(c,t)を最大にするcの値cpeak(t)=argmax{z(c,t)}を抽出する。コムフィルタ設定部75は、cの値がcpeak(t)およびその近辺以外の場合には、ケプストラム値z(c,t)=0として、ケプストラムのピーク成分を抽出する。コムフィルタ設定部75は、このピーク成分zpeak(c、t)を周波数軸の信号に戻し、コムフィルタ76のゲイン特性G(f,t)とする。これにより、コムフィルタ76は、人の声の調波成分を強調するフィルタとなる。
 なお、ゲイン制御部21は、コヒーレンス算出部20の算出結果に基づいて、コムフィルタ76による強調処理の強さを調整してもよい。例えば、ゲイン制御部21は、上述の割合R(k)の値が所定値R1以上の場合に、コムフィルタ76による強調処理をオンして、上述の割合R(k)の値が所定値R1未満の場合に、コムフィルタ76による強調処理をオフする。この場合、コムフィルタ76による強調処理も、相関の算出結果に応じて収音信号S2(または収音信号S1)のレベル制御を行なう一態様に含まれる。したがって、収音装置1は、コムフィルタ76による目的音の強調処理だけを行なってもよい。
 なお、レベル制御部15は、例えば、ノイズ成分を推定し、該推定したノイズ成分を用いたスペクトルサブトラクション法により、ノイズ成分を除去することで、目的音を強調する処理を行なってもよい。さらに、レベル制御部15は、コヒーレンス算出部20の算出結果に基づいて、ノイズ除去処理の強さを調整してもよい。例えば、レベル制御部15は、上述の割合R(k)の値が所定値R1以上の場合に、ノイズ除去処理による強調処理をオンして、上述の割合R(k)の値が所定値R1未満の場合に、ノイズ除去処理による強調処理をオフする。この場合、ノイズ除去処理による強調処理も、相関の算出結果に応じて収音信号S2(または収音信号S1)のレベル制御を行なう一態様に含まれる。
 最後に、本実施形態の説明は、すべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上述の実施形態ではなく、特許請求の範囲によって示される。さらに、本発明の範囲は、特許請求の範囲と均等の範囲を含む。
1…収音装置
10A,10B…マイク
15…レベル制御部
19…I/F
20…コヒーレンス算出部
21…ゲイン制御部
22…ゲイン調整部
25,26…指向性形成部
50…強調処理部
57…帯域分割部
59…帯域合成部
70…筐体
75…コムフィルタ設定部
76…コムフィルタ
261…減算部
262…選択部

Claims (14)

  1.  指向性の第1マイクと、
     無指向性の第2マイクと、
     前記第1マイクから生成される第1収音信号および前記第2マイクから生成される第2収音信号の相関を求めて、該相関の算出結果に応じて前記第1収音信号または前記第2収音信号のレベル制御を行なう、レベル制御部と、
     を備えた収音装置。
  2.  前記レベル制御部は、前記第1マイクの出力信号と、前記第2マイクの出力信号から前記第1マイクの出力信号を差分した差分信号と、のうち高レベルの信号いずれかの信号を、前記第1収音信号として選択する選択部を備えた、
     請求項1に記載の収音装置。
  3.  前記レベル制御部は、
     ノイズ成分を推定し、前記レベル制御として、該推定したノイズ成分を前記第1収音信号または前記第2収音信号から除去する処理を行なう、
     請求項1または請求項2に記載の収音装置。
  4.  前記レベル制御部は、前記相関の算出結果に応じて、前記ノイズ成分を除去する処理をオンまたはオフする、
     請求項3に記載の収音装置。
  5.  前記レベル制御部は、人の声に基づく調波成分を除去するコムフィルタを備えた、
     請求項1乃至請求項4のいずれかに記載の収音装置。
  6.  前記レベル制御部は、前記相関の算出結果に応じて、前記コムフィルタによる処理をオンまたはオフする、
     請求項5に記載の収音装置。
  7.  前記レベル制御部は、前記第1収音信号または前記第2収音信号のゲインを制御するゲイン制御部を備えた、
     請求項1乃至請求項6のいずれかに記載の収音装置。
  8.  前記相関は、コヒーレンスを含み、
     前記レベル制御部は、前記コヒーレンスが所定の閾値を超える周波数成分の割合に基づいて、前記レベル制御を行なう、
     請求項1乃至請求項7に記載の収音装置。
  9.  前記相関は、コヒーレンスを含み、
     前記レベル制御部は、前記コヒーレンスが所定の閾値を超える周波数成分の割合に基づいて、前記ゲイン制御部のゲインを変更する、
     請求項7に記載の収音装置。
  10.  前記レベル制御部は、前記割合が第1閾値未満となった場合に、前記割合に応じて前記ゲインを減衰させる、
     請求項9に記載の収音装置。
  11.  前記第1閾値は、所定時間内に算出された前記割合に基づいて決定される、
     請求項10に記載の収音装置。
  12.  前記レベル制御部は、前記割合が第2閾値未満となった場合に、前記ゲインを最小ゲインに設定する、
     請求項9乃至請求項11のいずれかに記載の収音装置。
  13.  前記レベル制御部は、周波数毎に前記相関が前記閾値を超えるか否かを判定し、該閾値を超える周波数の数を集計した集計結果として、前記周波数成分の割合を求め、前記集計結果に応じて前記レベル制御を行なう、
     請求項8乃至請求項12のいずれかに記載の収音装置。
  14.  指向性の第1マイクの第1収音信号および無指向性の第2マイクの第2収音信号の相関を求めて、該相関の算出結果に応じて前記第1収音信号または前記第2収音信号のレベル制御を行なう、
     収音方法。
PCT/JP2017/012071 2017-03-24 2017-03-24 収音装置および収音方法 WO2018173267A1 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
PCT/JP2017/012071 WO2018173267A1 (ja) 2017-03-24 2017-03-24 収音装置および収音方法
EP17901438.6A EP3606090A4 (en) 2017-03-24 2017-03-24 SOUND RECORDING DEVICE AND SOUND RECORDING METHOD
EP21180644.3A EP3905718B1 (en) 2017-03-24 2017-03-24 Sound pickup device and sound pickup method
JP2019506898A JP6838649B2 (ja) 2017-03-24 2017-03-24 収音装置および収音方法
CN201780088827.4A CN110495184B (zh) 2017-03-24 2017-03-24 拾音装置及拾音方法
US16/578,493 US10979839B2 (en) 2017-03-24 2019-09-23 Sound pickup device and sound pickup method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/012071 WO2018173267A1 (ja) 2017-03-24 2017-03-24 収音装置および収音方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/578,493 Continuation US10979839B2 (en) 2017-03-24 2019-09-23 Sound pickup device and sound pickup method

Publications (1)

Publication Number Publication Date
WO2018173267A1 true WO2018173267A1 (ja) 2018-09-27

Family

ID=63584285

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/012071 WO2018173267A1 (ja) 2017-03-24 2017-03-24 収音装置および収音方法

Country Status (5)

Country Link
US (1) US10979839B2 (ja)
EP (2) EP3905718B1 (ja)
JP (1) JP6838649B2 (ja)
CN (1) CN110495184B (ja)
WO (1) WO2018173267A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7351193B2 (ja) 2019-11-21 2023-09-27 日本電気株式会社 音響特性測定システム、音響特性測定方法、および音響特性測定プログラム

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018173267A1 (ja) 2017-03-24 2018-09-27 ヤマハ株式会社 収音装置および収音方法
WO2018174135A1 (ja) * 2017-03-24 2018-09-27 ヤマハ株式会社 収音装置および収音方法
JP7404664B2 (ja) * 2019-06-07 2023-12-26 ヤマハ株式会社 音声処理装置及び音声処理方法
US11197090B2 (en) * 2019-09-16 2021-12-07 Gopro, Inc. Dynamic wind noise compression tuning
CN112634934A (zh) * 2020-12-21 2021-04-09 北京声智科技有限公司 语音检测方法及装置
CN114979902B (zh) * 2022-05-26 2023-01-20 珠海市华音电子科技有限公司 一种基于改进的变步长ddcs自适应算法的降噪拾音方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS627298A (ja) * 1985-07-03 1987-01-14 Nec Corp 音響雑音除去装置
JP2004289762A (ja) * 2003-01-29 2004-10-14 Toshiba Corp 音声信号処理方法と装置及びプログラム
JP2006129434A (ja) 2004-10-01 2006-05-18 Nippon Telegr & Teleph Corp <Ntt> 自動利得制御方法、自動利得制御装置、自動利得制御プログラム及びこれを記録した記録媒体
JP2013061421A (ja) 2011-09-12 2013-04-04 Oki Electric Ind Co Ltd 音声信号処理装置、方法及びプログラム
JP2015194753A (ja) * 2014-03-28 2015-11-05 船井電機株式会社 マイクロホン装置
JP2016042613A (ja) 2014-08-13 2016-03-31 沖電気工業株式会社 目的音声区間検出装置、目的音声区間検出方法、目的音声区間検出プログラム、音声信号処理装置及びサーバ

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3074952B2 (ja) 1992-08-18 2000-08-07 日本電気株式会社 雑音除去装置
JP3341815B2 (ja) 1997-06-23 2002-11-05 日本電信電話株式会社 受話状態検出方法およびその装置
US7561700B1 (en) * 2000-05-11 2009-07-14 Plantronics, Inc. Auto-adjust noise canceling microphone with position sensor
EP1413169A1 (en) * 2001-08-01 2004-04-28 Dashen Fan Cardioid beam with a desired null based acoustic devices, systems and methods
US7171008B2 (en) * 2002-02-05 2007-01-30 Mh Acoustics, Llc Reducing noise in audio systems
US7174022B1 (en) * 2002-11-15 2007-02-06 Fortemedia, Inc. Small array microphone for beam-forming and noise suppression
US7003099B1 (en) * 2002-11-15 2006-02-21 Fortmedia, Inc. Small array microphone for acoustic echo cancellation and noise suppression
EP1732352B1 (en) * 2005-04-29 2015-10-21 Nuance Communications, Inc. Detection and suppression of wind noise in microphone signals
JP5085175B2 (ja) * 2007-03-30 2012-11-28 公益財団法人鉄道総合技術研究所 鉄道車両用懸架装置の動特性推定方法
US8428275B2 (en) * 2007-06-22 2013-04-23 Sanyo Electric Co., Ltd. Wind noise reduction device
JP2009005133A (ja) 2007-06-22 2009-01-08 Sanyo Electric Co Ltd 風雑音低減装置、及び、この風雑音低減装置を備えた電子機器
JP2009264806A (ja) * 2008-04-23 2009-11-12 Tokyo Electric Power Co Inc:The 異音検出装置、方法及びプログラム
JP2009284110A (ja) * 2008-05-20 2009-12-03 Funai Electric Advanced Applied Technology Research Institute Inc 音声入力装置及びその製造方法、並びに、情報処理システム
MX2011002626A (es) * 2008-09-11 2011-04-07 Fraunhofer Ges Forschung Aparato, metodo y programa de computadora para proveer un conjunto de pistas espaciales en base a una señal de microfono y aparato para proveer una señal de audio de dos canales y un conjunto de pistas especiales.
JP5197458B2 (ja) 2009-03-25 2013-05-15 株式会社東芝 受音信号処理装置、方法およびプログラム
US8781137B1 (en) * 2010-04-27 2014-07-15 Audience, Inc. Wind noise detection and suppression
US9031259B2 (en) * 2011-09-15 2015-05-12 JVC Kenwood Corporation Noise reduction apparatus, audio input apparatus, wireless communication apparatus, and noise reduction method
JP6028502B2 (ja) * 2012-10-03 2016-11-16 沖電気工業株式会社 音声信号処理装置、方法及びプログラム
US9106196B2 (en) * 2013-06-20 2015-08-11 2236008 Ontario Inc. Sound field spatial stabilizer with echo spectral coherence compensation
JP6314475B2 (ja) * 2013-12-25 2018-04-25 沖電気工業株式会社 音声信号処理装置及びプログラム
EP3120355B1 (en) * 2014-03-17 2018-08-29 Koninklijke Philips N.V. Noise suppression
US9800981B2 (en) * 2014-09-05 2017-10-24 Bernafon Ag Hearing device comprising a directional system
US9906859B1 (en) * 2016-09-30 2018-02-27 Bose Corporation Noise estimation for dynamic sound adjustment
WO2018173267A1 (ja) 2017-03-24 2018-09-27 ヤマハ株式会社 収音装置および収音方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS627298A (ja) * 1985-07-03 1987-01-14 Nec Corp 音響雑音除去装置
JP2004289762A (ja) * 2003-01-29 2004-10-14 Toshiba Corp 音声信号処理方法と装置及びプログラム
JP2006129434A (ja) 2004-10-01 2006-05-18 Nippon Telegr & Teleph Corp <Ntt> 自動利得制御方法、自動利得制御装置、自動利得制御プログラム及びこれを記録した記録媒体
JP2013061421A (ja) 2011-09-12 2013-04-04 Oki Electric Ind Co Ltd 音声信号処理装置、方法及びプログラム
JP2015194753A (ja) * 2014-03-28 2015-11-05 船井電機株式会社 マイクロホン装置
JP2016042613A (ja) 2014-08-13 2016-03-31 沖電気工業株式会社 目的音声区間検出装置、目的音声区間検出方法、目的音声区間検出プログラム、音声信号処理装置及びサーバ

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3606090A4

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7351193B2 (ja) 2019-11-21 2023-09-27 日本電気株式会社 音響特性測定システム、音響特性測定方法、および音響特性測定プログラム

Also Published As

Publication number Publication date
JPWO2018173267A1 (ja) 2020-01-23
EP3905718B1 (en) 2024-03-13
EP3606090A1 (en) 2020-02-05
CN110495184B (zh) 2021-12-03
CN110495184A (zh) 2019-11-22
EP3905718A1 (en) 2021-11-03
EP3606090A4 (en) 2021-01-06
US20200021932A1 (en) 2020-01-16
US10979839B2 (en) 2021-04-13
JP6838649B2 (ja) 2021-03-03

Similar Documents

Publication Publication Date Title
WO2018173267A1 (ja) 収音装置および収音方法
CN111418010B (zh) 一种多麦克风降噪方法、装置及终端设备
DK3253075T3 (en) A HEARING EQUIPMENT INCLUDING A RADIO FORM FILTER UNIT CONTAINING AN EXCHANGE UNIT
KR101532153B1 (ko) 음성 활동 검출 시스템, 방법, 및 장치
US8462969B2 (en) Systems and methods for own voice recognition with adaptations for noise robustness
US8238569B2 (en) Method, medium, and apparatus for extracting target sound from mixed sound
JP5410603B2 (ja) マルチチャネル信号の位相ベースの処理のためのシステム、方法、装置、およびコンピュータ可読媒体
JP5678445B2 (ja) 音声処理装置、音声処理方法およびプログラム
US20130272540A1 (en) Noise suppressing method and a noise suppressor for applying the noise suppressing method
KR20130084298A (ko) 원거리 다중 음원 추적 및 분리 시스템, 방법, 장치 및 컴퓨터-판독가능 매체
US20140307886A1 (en) Method And A System For Noise Suppressing An Audio Signal
US20120148056A1 (en) Method to reduce artifacts in algorithms with fast-varying gain
WO2015078501A1 (en) Method of operating a hearing aid system and a hearing aid system
US11900920B2 (en) Sound pickup device, sound pickup method, and non-transitory computer readable recording medium storing sound pickup program
CN116569564A (zh) 骨传导耳机语音增强系统和方法
CN110447239B (zh) 拾音装置及拾音方法
KR20090037845A (ko) 혼합 신호로부터 목표 음원 신호를 추출하는 방법 및 장치
JP2020504966A (ja) 遠距離音の捕捉
US9992583B2 (en) Hearing aid system and a method of operating a hearing aid system
WO2011105073A1 (ja) 音響処理装置および音響処理方法
CN109308907B (zh) 单信道降噪
JP2016082432A (ja) マイクシステム、ノイズ除去方法、およびプログラム
JP6631127B2 (ja) 音声判定装置、方法及びプログラム、並びに、音声処理装置
JP6221463B2 (ja) 音声信号処理装置及びプログラム
CN117153150A (zh) 语音检测方法、设备及计算机可读存储介质

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17901438

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019506898

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2017901438

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2017901438

Country of ref document: EP

Effective date: 20191024