WO2018174135A1 - 収音装置および収音方法 - Google Patents

収音装置および収音方法 Download PDF

Info

Publication number
WO2018174135A1
WO2018174135A1 PCT/JP2018/011318 JP2018011318W WO2018174135A1 WO 2018174135 A1 WO2018174135 A1 WO 2018174135A1 JP 2018011318 W JP2018011318 W JP 2018011318W WO 2018174135 A1 WO2018174135 A1 WO 2018174135A1
Authority
WO
WIPO (PCT)
Prior art keywords
sound
sound collection
microphone
signal
level control
Prior art date
Application number
PCT/JP2018/011318
Other languages
English (en)
French (fr)
Inventor
窒登 川合
未輝雄 村松
井上 貴之
訓史 鵜飼
Original Assignee
ヤマハ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ヤマハ株式会社 filed Critical ヤマハ株式会社
Priority to JP2019506958A priority Critical patent/JP6849055B2/ja
Priority to CN201880020245.7A priority patent/CN110447239B/zh
Priority to EP18772153.5A priority patent/EP3606092A4/en
Publication of WO2018174135A1 publication Critical patent/WO2018174135A1/ja
Priority to US16/572,825 priority patent/US10873810B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/04Circuits for transducers, loudspeakers or microphones for correcting frequency response
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0264Noise filtering characterised by the type of parameter measurement, e.g. correlation techniques, zero crossing techniques or predictive techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/08Mouthpieces; Microphones; Attachments therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/32Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
    • H04R1/40Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/32Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
    • H04R1/40Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
    • H04R1/406Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R29/00Monitoring arrangements; Testing arrangements
    • H04R29/004Monitoring arrangements; Testing arrangements for microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/005Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2201/00Details of transducers, loudspeakers or microphones covered by H04R1/00 but not provided for in any of its subgroups
    • H04R2201/40Details of arrangements for obtaining desired directional characteristic by combining a number of identical transducers covered by H04R1/40 but not provided for in any of its subgroups

Definitions

  • Embodiments of the present invention relate to a sound collection device and a sound collection method for acquiring sound of a sound source using a microphone.
  • Patent Documents 1 to 3 disclose techniques for enhancing the target sound such as a speaker's voice by obtaining the coherence of two microphones.
  • the average coherence of two signals is obtained using two omnidirectional microphones, and it is determined whether or not the target speech is based on the obtained average coherence value.
  • the conventional method is not disclosed to reduce distant noise.
  • an object of an embodiment of the present invention is to provide a sound collection device and a sound collection method that can reduce distant noise with higher accuracy than in the past.
  • the sound collection device includes a level control unit.
  • the level control unit includes the first sound pickup signal or the first sound pickup signal or the second sound pickup signal generated from the second microphone according to a ratio of frequency components whose correlation exceeds a threshold. Level control of the second sound pickup signal is performed.
  • FIG. 1A is a block diagram showing functional configurations of the directivity forming unit 25 and the directivity forming unit 26, and FIG. 7B is a plan view showing directivity. It is a figure which shows the structure of the level control part 15 which concerns on the modification 2.
  • FIG. 7A is a block diagram showing functional configurations of the directivity forming unit 25 and the directivity forming unit 26, and FIG. 7B is a plan view showing directivity. It is a figure which shows the structure of the level control part 15 which concerns on the modification 2.
  • FIG. 3 is a block diagram illustrating a functional configuration of an enhancement processing unit 50.
  • FIG. It is an external view of the sound collection apparatus 1B provided with three microphones (microphone 10A, microphone 10B, and microphone 10C).
  • FIG. 11A is a diagram illustrating a functional configuration of the directivity forming unit
  • FIG. 11B is a diagram illustrating an example of directivity.
  • FIG. 12A is a diagram illustrating a functional configuration of the directivity forming unit
  • FIG. 12B is a diagram illustrating an example of directivity.
  • 3 is a flowchart showing the operation of the level control unit 15. It is a flowchart which shows operation
  • the sound collection device of the present embodiment includes a first microphone, a second microphone, and a level control unit.
  • the level control unit obtains a correlation between the first sound collection signal generated from the first microphone and the second sound collection signal generated from the second microphone, and according to the ratio of the frequency components whose correlation exceeds a threshold value Then, the level control of the first sound pickup signal or the second sound pickup signal is performed.
  • the sound collection device can enhance the target sound with high accuracy by performing level control according to the ratio, and can reduce distant noise.
  • FIG. 1 is a schematic external view showing the configuration of the sound collecting device 1A.
  • the sound collection device 1A includes a cylindrical housing 70, a microphone 10A, and a microphone 10B.
  • the microphone 10 ⁇ / b> A and the microphone 10 ⁇ / b> B are disposed on the upper surface of the housing 70.
  • the shape of the housing 70 and the arrangement of the microphones are examples, and the present invention is not limited to this example.
  • FIG. 2 is a plan view showing the directivity of the microphone 10A and the microphone 10B.
  • the microphone 10 ⁇ / b> A is a directional microphone that has the strongest sensitivity in the front (left direction in the drawing) of the apparatus and has no sensitivity in the rear (right direction in the drawing).
  • the microphone 10B is an omnidirectional microphone having uniform sensitivity in all directions.
  • the directivity of the microphone 10A and the microphone 10B is not limited to this example.
  • both the microphone 10A and the microphone 10B may be omnidirectional microphones, or both may be directional microphones.
  • the number of microphones is not limited to two. For example, three or more microphones may be provided.
  • FIG. 3 is a block diagram showing the configuration of the sound collection device 1A.
  • the sound collection device 1A includes a microphone 10A, a microphone 10B, a level control unit 15, and an interface (I / F) 19.
  • the level control unit 15 is realized as a software function when a CPU (Central Processing Unit) 151 reads a program stored in a memory 152 that is a storage medium.
  • the level control unit 15 may be realized by dedicated hardware such as an FPGA (Field-Programmable Gate Array).
  • the level control unit 15 may be realized by a DSP (Digital Signal Processor).
  • the level control unit 15 inputs the sound collection signal S1 of the microphone 10A and the sound collection signal S2 of the microphone 10B.
  • the level control unit 15 performs level control on the sound collection signal S1 of the microphone 10A or the sound collection signal S2 of the microphone 10B, and outputs it to the I / F 19.
  • the I / F 19 is a communication interface such as USB or LAN.
  • the sound collection device 1 ⁇ / b> A outputs a sound collection signal to another device via the I / F 19.
  • FIG. 4 is a diagram illustrating an example of a functional configuration of the level control unit 15.
  • the level control unit 15 includes a coherence calculation unit 20, a gain control unit 21, and a gain adjustment unit 22.
  • the coherence calculation unit 20 inputs the sound collection signal S1 of the microphone 10A and the sound collection signal S2 of the microphone 10B.
  • the coherence calculation unit 20 calculates the coherence of the sound collection signal S1 and the sound collection signal S2 as an example of the correlation.
  • the gain control unit 21 determines the gain of the gain adjustment unit 22 based on the calculation result of the coherence calculation unit 20.
  • the gain adjusting unit 22 receives the sound collection signal S2.
  • the gain adjusting unit 22 adjusts the gain of the collected sound signal S2 and outputs the adjusted signal to the I / F 19.
  • the gain of the sound collection signal S2 of the microphone 10B is adjusted and output to the I / F 19.
  • the gain of the sound collection signal S1 of the microphone 10A is adjusted and the I / F 19 is adjusted. It is good also as an aspect which outputs to.
  • the microphone 10B is an omnidirectional microphone, it can pick up sounds around the entire periphery. Therefore, it is preferable to adjust the gain of the collected sound signal S2 of the microphone 10B and output it to the I / F 19.
  • the coherence calculation unit 20 performs Fourier transform on the collected sound signal S1 and the collected sound signal S2, respectively, and converts them into frequency axis signals X (f, k) and Y (f, k) (S11). “F” is a frequency, and “k” represents a frame number.
  • the coherence calculator 20 calculates coherence (time average value of the complex cross spectrum) according to the following Equation 1 (S12).
  • the coherence calculator 20 may calculate the coherence according to the following Equation 2 or Equation 3.
  • m is a cycle number (an identification number indicating a group of signals including a predetermined number of frames), and “T” represents the number of frames in one cycle.
  • the gain control unit 21 determines the gain of the gain adjustment unit 22 based on the coherence. For example, the gain control unit 21 obtains a ratio R (k) of frequency bins in which the coherence amplitude exceeds a predetermined threshold ⁇ th with respect to all frequencies (number of frequency bins) (S13).
  • f0 in Equation 4 is a lower limit frequency bin
  • f1 is an upper limit frequency bin.
  • the gain control unit 21 determines the gain of the gain adjustment unit 22 according to the ratio R (k) (S14). More specifically, the gain control unit 21 determines whether or not the coherence exceeds the threshold ⁇ th for each frequency bin, totals the number of frequency bins exceeding the threshold, and determines the gain according to the total result.
  • the gain control unit 21 maintains the minimum gain value when the ratio R is smaller than R2.
  • the minimum gain value may be 0, but may be a value slightly larger than 0 so that sound can be heard slightly. Thereby, the user does not mistake that the sound is interrupted due to a failure or the like.
  • the coherence shows a high value when the correlation between the two signals is high. Distant sound is sound that has many reverberant components and the direction of arrival is not determined. For example, when the microphone 10A is directional and the microphone 10B is omnidirectional, the sound collecting performance with respect to distant sounds is greatly different. Therefore, the coherence is reduced when a sound from a distant sound source is input, and is increased when a sound from a sound source close to the apparatus is input.
  • the sound collection device 1A can emphasize the sound of the sound source close to the device as the target sound without collecting the sound of the sound source far from the device.
  • the gain control unit 21 obtains a ratio R (k) of frequencies at which coherence exceeds a predetermined threshold ⁇ th for all frequencies, and performs gain control according to the ratio.
  • R (k) a ratio of frequencies at which coherence exceeds a predetermined threshold ⁇ th for all frequencies.
  • An example is shown. Since the near sound and the distant sound include reflected sound, there is a frequency at which coherence becomes extremely low. If such an extremely low value is included, the average may be low. However, the ratio R (k) affects only how many frequency components above the threshold exist, and whether the coherence value itself below the threshold is a low value or a high value depends on gain control. Does not influence at all, and by performing gain control according to the ratio R (k), it is possible to reduce distant noise and to emphasize the target sound with high accuracy.
  • the predetermined value R1 and the predetermined value R2 may be set to any value, but the predetermined value R1 is set according to the maximum range in which sound is desired to be collected without being attenuated. For example, when the position of the sound source is far from a radius of about 30 cm and the value of the coherence ratio R decreases, the value of the coherence ratio R when the distance is about 40 cm is set to a predetermined value R1. Thus, sound can be picked up without being attenuated up to a radius of about 40 cm.
  • the predetermined value R2 is set according to the minimum range to be attenuated. For example, by setting the value of the ratio R when the distance is 100 cm to the predetermined value R2, almost no sound is collected when the distance is 100 cm or more, and when the distance is closer than 100 cm, the gain gradually increases. Sound will be collected.
  • the predetermined value R1 and the predetermined value R2 are not fixed values and may be dynamically changed.
  • R0 the largest value of the ratio R calculated in the past within a predetermined time
  • the example of FIG. 5A is a mode in which the gain decreases suddenly from a predetermined distance (for example, 30 cm), and a sound source of a predetermined distance (for example, 100 cm) is hardly collected, and is similar to a limiter function.
  • the gain table may have various modes as shown in FIG. 5B.
  • the gain gradually decreases according to the ratio R, the degree of gain decrease from the predetermined value R1, and the gain gradually decreases again at the predetermined value R2 or more. Similar to compressor function.
  • FIG. 6 is a diagram illustrating a configuration of the level control unit 15 according to the first modification.
  • the level control unit 15 includes a directivity forming unit 25 and a directivity forming unit 26.
  • FIG. 13 is a flowchart showing the operation of the level control unit 15 according to the first modification.
  • FIG. 7A is a block diagram illustrating the functional configuration of the directivity forming unit 25 and the directivity forming unit 26.
  • the directivity forming unit 25 outputs the output signal M2 of the microphone 10B as it is as the sound collection signal S2.
  • the directivity forming unit 26 includes a subtracting unit 261 and a selecting unit 262 as shown in FIG.
  • the subtraction unit 261 subtracts the output signal M1 of the microphone 10A from the output signal M2 of the microphone 10B and inputs the difference to the selection unit 262.
  • the selection unit 262 compares the level of the output signal M1 of the microphone 10A and the level of the difference signal obtained by subtracting the output signal M1 of the microphone 10A from the output signal M2 of the microphone 10B, and collects the signal on the high level side.
  • the signal S1 is output (S101).
  • the difference signal obtained by subtracting the output signal M1 of the microphone 10A from the output signal M2 of the microphone 10B is in a state in which the directivity of the microphone 10B is inverted.
  • the level control unit 15 according to the modified example 1 uses a directional microphone (not sensitive to sound in a specific direction) to the entire periphery of the device. Sensitivity can be given. Also in this case, since the sound collection signal S1 has directivity and the sound collection signal S2 is omnidirectional, sound collection performance with respect to a distant sound is different. Therefore, the level control unit 15 according to the modification 1 emphasizes the sound of the sound source close to the device as the target sound without collecting the sound of the sound source far from the device while giving sensitivity to the entire periphery of the device. can do.
  • the mode of the directivity forming unit 25 and the directivity forming unit 26 is not limited to the example of FIG. If the sound collection signal S1 and the sound collection signal S2 have a high correlation with a sound source close to the housing 70 and a low correlation with a sound source in the distance, the configuration of the present embodiment can be realized. .
  • FIG. 10 is an external view of a sound collection device 1B including three microphones (a microphone 10A, a microphone 10B, and a microphone 10C).
  • FIG. 11A is a diagram illustrating a functional configuration of the directivity forming unit.
  • FIG. 11B is a diagram illustrating an example of directivity.
  • the microphone 10A, the microphone 10B, and the microphone 10C are all directional microphones.
  • the microphone 10A, the microphone 10B, and the microphone 10C have sensitivity in directions different from each other by 120 degrees in plan view.
  • the directivity forming unit 26 in FIG. 11A selects one of the signals from the microphone 10A, the microphone 10B, and the microphone 10C, thereby forming a first sound collection signal with directivity. For example, the directivity forming unit 26 selects a signal having the highest level among the signals from the microphones 10A, 10B, and 10C.
  • the directivity forming unit 25 in FIG. 11A calculates the sum of the weights of the signals of the microphone 10A, the microphone 10B, and the microphone 10C, thereby forming a non-directional second sound collection signal.
  • the sound collection device 1B can emphasize the sound of the sound source close to the device as the target sound without collecting the sound of the sound source far from the device, while giving sensitivity to the entire periphery of the device.
  • the directivity forming unit 26 obtains the delay sum as shown in FIG. It is also possible to generate a sound collection signal S1 having strong sensitivity in the direction of. In this case, although three omnidirectional microphones are used, the sound collecting signal S1 having strong sensitivity in a specific direction can be generated using two or four or more omnidirectional microphones.
  • FIG. 9 is a block diagram showing a functional configuration of the enhancement processing unit 50.
  • the human voice has a harmonic structure having a peak component for each predetermined frequency. Therefore, the comb filter setting unit 75 obtains a gain characteristic G (f, t) that passes the peak component of the human voice and removes other components than the peak component, as shown in Equation 5 below, and gain of the comb filter 76 Set as a characteristic.
  • the comb filter setting unit 75 obtains a cepstrum z (c, t) by subjecting the collected sound signal S2 to Fourier transform and further Fourier transforming the logarithm of the amplitude.
  • the comb filter setting unit 75 returns the peak component z peak (c, t) to a signal on the frequency axis, and sets the gain characteristic G (f, t) of the comb filter 76. Thereby, the comb filter 76 becomes a filter that emphasizes the harmonic component of the human voice.
  • the gain control unit 21 may adjust the strength of the enhancement process by the comb filter 76 based on the calculation result of the coherence calculation unit 20. For example, when the value of the ratio R (k) is equal to or greater than the predetermined value R1, the gain control unit 21 turns on the enhancement processing by the comb filter 76, and the value of the ratio R (k) is equal to the predetermined value R1. If it is less, the enhancement processing by the comb filter 76 is turned off. In this case, the enhancement processing by the comb filter 76 is also included in one aspect of performing level control of the sound collection signal S2 (or sound collection signal S1) according to the correlation calculation result. Therefore, the sound collection device 1 may perform only the target sound enhancement processing by the comb filter 76.
  • the level control unit 15 may perform a process of enhancing the target sound by, for example, estimating a noise component and removing the noise component by a spectral subtraction method using the estimated noise component. Further, the level control unit 15 may adjust the strength of the noise removal process based on the calculation result of the coherence calculation unit 20. For example, when the value of the ratio R (k) is equal to or greater than the predetermined value R1, the level control unit 15 turns on the enhancement process by the noise removal process, and the value of the ratio R (k) is the predetermined value R1. If it is less, the enhancement processing by the noise removal processing is turned off. In this case, enhancement processing by noise removal processing is also included in one aspect of performing level control of the collected sound signal S2 (or collected sound signal S1) according to the correlation calculation result.
  • FIG. 15 is a block diagram illustrating a configuration example of an external device (PC: personal computer) 2 connected to the sound collection device.
  • the PC 2 includes an I / F 51, a CPU 52, an I / F 53, and a memory 54.
  • the I / F 51 is a USB interface, for example, and is connected to the I / F 19 of the sound collection device 1A with a USB cable.
  • the I / F 53 is a communication interface such as a LAN and is connected to the network 7.
  • the CPU 52 inputs a sound collection signal from the sound collection device 1A via the I / F 51.
  • the CPU 52 reads the program stored in the memory 54 and executes the function of the VoIP (Voice over InternetcolProtocol) 521 shown in FIG.
  • VoIP Voice over InternetcolProtocol
  • the VoIP 521 converts the collected sound signal into packet data.
  • the CPU 52 outputs the packet data converted by the VoIP 521 to the network 7 via the I / F 53.
  • the PC 2 can transmit and receive a sound collection signal with other devices connected via the network 7. Therefore, the PC 2 can perform a voice conference with a remote place, for example.
  • FIG. 16 is a block diagram showing a modification of the sound collection device 1A.
  • the CPU 151 reads a program from the memory 152 and executes the function of the VoIP 521.
  • the I / F 19 is a communication interface such as a LAN and is connected to the network 7.
  • the CPU 151 outputs packet data converted by the VoIP 521 via the I / F 19 to the network 7 via the I / F 53.
  • the sound collection device 1 ⁇ / b> A can transmit and receive a sound collection signal to and from other devices connected via the network 7. Therefore, the sound collection device 1A can perform a voice conference with a remote place, for example.
  • FIG. 17 is a block diagram showing a configuration example when the configuration of the level control unit 15 is provided in the external device (server) 9.
  • the server 9 includes an I / F 91, a CPU 93, and a memory 94.
  • the I / F 91 is a USB interface, for example, and is connected to the I / F 19 of the sound collection device 1A with a USB cable.
  • the sound collection device 1A does not include the level control unit 15.
  • the CPU 151 reads the program from the memory 152 and executes the function of the VoIP 521.
  • the VoIP 521 converts the sound collection signal S1 and the sound collection signal S2 into packet data.
  • the VoIP 521 converts the sound collection signal S1 and the sound collection signal S2 into one packet data. Even when converting into one packet data, the collected sound signal S1 and the collected sound signal S2 are distinguished and stored in the packet data as different data.
  • the I / F 19 is a communication interface such as a LAN and is connected to the network 7.
  • the CPU 151 outputs packet data converted by the VoIP 521 via the I / F 19 to the network 7 via the I / F 53.
  • the I / F 53 of the server 9 is a communication interface such as a LAN and is connected to the network 7.
  • the CPU 52 inputs packet data from the sound collection device 1A via the I / F 91.
  • the CPU 52 reads the program stored in the memory 54 and executes the function of the VoIP 92.
  • the VoIP 92 converts the packet data into a sound collection signal S1 and a sound collection signal S2.
  • the CPU 95 reads a program from the memory 94 and executes the function of the level control unit 95.
  • the level control unit 95 has the same function as the level control unit 15.
  • the CPU 93 outputs the collected sound signal after the level control by the level control unit 95 to the VoIP 92 again.
  • the CPU 93 converts the collected sound signal into packet data in the VoIP 92.
  • the CPU 93 outputs the packet data converted by the VoIP 92 to the network 7 via the I / F 91.
  • the CPU 93 transmits packet data to the communication destination of the sound collection device 1A. Therefore, the sound collection device 1A can transmit the sound collection signal after the level control by the level control unit 95 to the communication destination.

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Acoustics & Sound (AREA)
  • Otolaryngology (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Multimedia (AREA)
  • Quality & Reliability (AREA)
  • Computational Linguistics (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Obtaining Desirable Characteristics In Audible-Bandwidth Transducers (AREA)

Abstract

収音装置は、レベル制御部を備えている。レベル制御部は、第1マイクから生成される第1収音信号および第2マイクから生成される第2収音信号の相関が閾値を超える周波数成分の割合に応じて前記第1収音信号または前記第2収音信号のレベル制御を行なう。

Description

収音装置および収音方法
 本発明の一実施形態は、マイクを用いて音源の音を取得する収音装置および収音方法に関する。
 特許文献1乃至特許文献3には、2つのマイクのコヒーレンスを求めて、話者の声等の目的音を強調する手法が開示されている。
 例えば、特許文献1の手法は、無指向性マイクを2つ用いて2つの信号の平均コヒーレンスを求め、求めた平均コヒーレンスの値に基づいて、目的音声であるか否かを判定する。
特開2016-042613号公報 特開2013-061421号公報 特開2006-129434号公報
 従来の手法は、遠方の雑音を低減することは開示されていない。
 そこで、本発明の一実施形態の目的は、従来よりも高精度に遠方の雑音を低減することができる収音装置および収音方法を提供することにある。
 収音装置は、レベル制御部を備えている。レベル制御部は、第1マイクから生成される第1収音信号および第2マイクから生成される第2収音信号の相関が閾値を超える周波数成分の割合に応じて前記第1収音信号または前記第2収音信号のレベル制御を行なう。
 本発明の一実施形態によれば、従来よりも高精度に遠方の雑音を低減することができる。
収音装置1Aの構成を示す概略図である。 マイク10Aおよびマイク10Bの指向性を示す平面図である。 収音装置1Aの構成を示すブロック図である。 レベル制御部15の構成の一例を示す図である。 図5(A)および図5(B)は、ゲインテーブルの一例を示す図である。 変形例1に係るレベル制御部15の構成を示す図である。 図7(A)は、指向性形成部25および指向性形成部26の機能的構成を示すブロック図であり、図7(B)は、指向性を示す平面図である。 変形例2に係るレベル制御部15の構成を示す図である。 強調処理部50の機能的構成を示すブロック図である。 3つのマイク(マイク10A、マイク10B、およびマイク10C)を備えた収音装置1Bの外観図である。 図11(A)は、指向性形成部の機能的構成を示す図であり、図11(B)は、指向性の一例を示す図である。 図12(A)は、指向性形成部の機能的構成を示す図であり、図12(B)は、指向性の一例を示す図である。 レベル制御部15の動作を示すフローチャートである。 変形例に係るレベル制御部15の動作を示すフローチャートである。 収音装置に接続される外部装置(PC)の構成例を示すブロック図である。 収音装置の構成例を示すブロック図である。 レベル制御部を外部装置(サーバ)に設ける場合の構成例を示すブロック図である。
 本実施形態の収音装置は、第1マイクと、第2マイクと、レベル制御部と、を備えている。レベル制御部は、前記第1マイクから生成される第1収音信号および前記第2マイクから生成される第2収音信号の相関を求めて、該相関が閾値を超える周波数成分の割合に応じて前記第1収音信号または前記第2収音信号のレベル制御を行なう。
 近傍の音および遠方の音には少なくとも反射音が含まれているため、コヒーレンスが極端に低くなる周波数がある。計算値にこの様な極端に低い値が含まれていると、平均が低くなる場合がある。しかし、上記割合は、閾値以上の周波数成分がどの程度存在するかにのみ影響し、閾値未満の周波数におけるコヒーレンスの値自体が低い値であるか、高い値であるかは、レベル制御には全く影響しない。したがって、収音装置は、割合に応じてレベル制御を行なうことで、目的音を高精度で強調することができ、遠方の雑音を低減することができる。
 図1は、収音装置1Aの構成を示す外観の概略図である。図1においては、収音に係る主構成を記載して、その他の構成は記載していない。収音装置1Aは、円筒形状の筐体70、マイク10A、およびマイク10B、を備えている。
 マイク10Aおよびマイク10Bは、筐体70の上面に配置されている。ただし、筐体70の形状、およびマイクの配置態様は一例であり、この例に限るものではない。
 図2は、マイク10Aおよびマイク10Bの指向性を示す平面図である。一例として、マイク10Aは、装置の前方(図中の左方向)の感度が最も強く、後方(図中の右方向)に感度が無い、指向性マイクである。マイク10Bは、全方向に均一な感度を有する無指向性マイクである。ただし、マイク10Aおよびマイク10Bの指向性の態様は、この例に限るものではない。例えば、マイク10Aおよびマイク10Bともに無指向性のマイクであってもよいし、ともに指向性のマイクであってもよい。また、マイクの数も2つに限るものではなく、例えば3つ以上のマイクを備えていてもよい。
 図3は、収音装置1Aの構成を示すブロック図である。収音装置1Aは、マイク10A、マイク10B、レベル制御部15、およびインタフェース(I/F)19を備えている。レベル制御部15は、CPU(Central Processing Unit)151が記憶媒体であるメモリ152に記憶されているプログラムを読み出すことにより、ソフトウェアの機能として実現される。ただし、レベル制御部15は、FPGA(Field-Programmable Gate Array)等の専用のハードウェアにより実現されてもよい。また、レベル制御部15は、DSP(Digital Signal Processor)により実現されてもよい。
 レベル制御部15は、マイク10Aの収音信号S1およびマイク10Bの収音信号S2を入力する。レベル制御部15は、マイク10Aの収音信号S1またはマイク10Bの収音信号S2をレベル制御して、I/F19に出力する。I/F19は、USBまたはLAN等の通信インタフェースである。収音装置1Aは、I/F19を介して収音信号を他の装置に出力する。
 図4は、レベル制御部15の機能的な構成の一例を示す図である。レベル制御部15は、コヒーレンス算出部20、ゲイン制御部21、およびゲイン調整部22を備えている。
 コヒーレンス算出部20は、マイク10Aの収音信号S1およびマイク10Bの収音信号S2を入力する。コヒーレンス算出部20は、相関の一例として、収音信号S1および収音信号S2のコヒーレンスを算出する。
 ゲイン制御部21は、コヒーレンス算出部20の算出結果に基づいて、ゲイン調整部22のゲインを決定する。ゲイン調整部22は、収音信号S2を入力する。ゲイン調整部22は、収音信号S2のゲインを調整して、I/F19に出力する。
 なお、この例では、マイク10Bの収音信号S2のゲインを調整して、I/F19に出力する態様となっているが、マイク10Aの収音信号S1のゲインを調整して、I/F19に出力する態様としてもよい。ただし、マイク10Bは、無指向性マイクであるため、全周囲の音を収音することができる。よって、マイク10Bの収音信号S2のゲインを調整して、I/F19に出力することが好ましい。
 コヒーレンス算出部20は、収音信号S1および収音信号S2をそれぞれフーリエ変換して、周波数軸の信号X(f,k)およびY(f,k)に変換する(S11)。「f」は周波数であり、「k」は、フレーム番号を表す。コヒーレンス算出部20は、以下の数式1に従って、コヒーレンス(複素クロススペクトルの時間平均値)を算出する(S12)。
Figure JPOXMLDOC01-appb-M000001
 ただし、上記数式1は、一例である。例えば、コヒーレンス算出部20は、以下の数式2または数式3に従ってコヒーレンスを算出してもよい。
Figure JPOXMLDOC01-appb-M000002
Figure JPOXMLDOC01-appb-M000003
 なお、「m」は、サイクル番号(所定フレーム数からなる信号のまとまりを示す識別番号)であり、「T」は、1サイクルのフレーム数を表す。
 ゲイン制御部21は、上記コヒーレンスに基づいて、ゲイン調整部22のゲインを決定する。例えば、ゲイン制御部21は、全周波数(周波数ビンの数)に対して、コヒーレンスの振幅が所定の閾値γthを超えた周波数ビンの割合R(k)を求める(S13)。 
Figure JPOXMLDOC01-appb-M000004
 閾値γthは、例えばγth=0.6に設定される。なお、上記数式4におけるf0は、下限周波数ビンであり、f1は、上限周波数ビンである。
 ゲイン制御部21は、この割合R(k)に応じて、ゲイン調整部22のゲインを決定する(S14)。より具体的には、ゲイン制御部21は、周波数ビン毎にコヒーレンスが閾値γthを超えるか否かを判定し、該閾値を超える周波数ビン数を集計し、集計結果に応じてゲインを決定する。図5(A)は、ゲインテーブルの一例を示す図である。図5(A)に示す例のゲインテーブルによれば、ゲイン制御部21は、割合Rが、所定値R1以上では、減衰しない(ゲイン=1)。ゲイン制御部21は、割合Rが所定値R1からR2までは、割合Rの低下にしたがって、ゲインが減衰するように設定する。ゲイン制御部21は、割合RがR2よりも小さい場合には、最小ゲイン値で維持する。最小ゲイン値は、0であってもよいが、0よりもわずかに大きな値として、わずかに音が聞こえる状態としてもよい。これにより、ユーザは、故障等により音が途切れたと勘違いすることがない。
 コヒーレンスは、2つの信号の相関が高い場合に、高い値を示す。遠方の音は、残響音成分が多く、到来方向の定まらない音である。例えば、マイク10Aが指向性であり、マイク10Bが無指向性である場合には、遠方の音に対する収音性能が大きく異なる。したがって、コヒーレンスは、遠方の音源の音が入力された場合には小さくなり、装置に近い音源の音が入力された場合には大きくなる。
 よって、収音装置1Aは、装置から遠い音源の音を収音せず、装置に近い音源の音を目的音として強調することができる。
 本実施形態の収音装置1Aは、ゲイン制御部21は、全周波数に対して、コヒーレンスが所定の閾値γthを超えた周波数の割合R(k)を求め、該割合に応じてゲイン制御を行なう例を示した。近傍の音および遠方の音には反射音が含まれているため、コヒーレンスが極端に低くなる周波数がある。この様な極端に低い値が含まれていると、平均が低くなる場合がある。しかし、上記割合R(k)は、閾値以上の周波数成分がどの程度存在するかにのみ影響し、閾値未満におけるコヒーレンスの値自体が低い値であるか、高い値であるかは、ゲイン制御には全く影響しないため、割合R(k)に応じてゲイン制御を行なうことで、遠方の雑音を低減することができ、目的音を高精度で強調することができる。
 なお、所定値R1および所定値R2は、どの様な値に設定してもよいが、所定値R1は、減衰させずに収音したい最大範囲に応じて設定する。例えば、音源の位置が半径約30cmよりも遠い場合に、コヒーレンスの割合Rの値が低下する場合に、距離が約40cmとなる時のコヒーレンスの割合Rの値を、所定値R1に設定することで、半径約40cmまでは、減衰させずに収音することができる。また、所定値R2は、減衰させたい最小範囲に応じて設定する。例えば、距離が100cmとなる時の割合Rの値を、所定値R2に設定することで、距離が100cm以上ではほとんど収音されず、距離が100cmよりも近くなると、徐々にゲインが上昇して収音されることになる。
 また、所定値R1および所定値R2は、固定値ではなく、動的に変化させてもよい。例えば、レベル制御部15は、所定時間内の過去に算出された割合Rの平均値R0(あるいは最も大きい値)を求め、所定値R1=R0+0.1、所定値R2=R0-0.1とする。これにより、現在の音源の位置を基準として、該音源の位置よりも近い範囲の音は収音され、音源の位置よりも遠い範囲の音が収音されない状態となる。
 なお、図5(A)の例は、所定距離(例えば30cm)から急激にゲインが低下して、所定距離(例えば100cm)以上の音源はほとんど収音されない態様であり、リミッタの機能に類似する。しかし、ゲインテーブルは、他にも図5(B)に示すように、様々な態様が考えられる。図5(B)の例では、割合Rに応じて徐々にゲインが低下し、所定値R1からゲインの低下度合いが大きくなり、所定値R2以上では、再び徐々にゲインが低下する態様であり、コンプレッサの機能に類似する。
 次に、図6は、変形例1に係るレベル制御部15の構成を示す図である。レベル制御部15は、指向性形成部25および指向性形成部26を備えている。図13は、変形例1に係るレベル制御部15の動作を示すフローチャートである。図7(A)は、指向性形成部25および指向性形成部26の機能的構成を示すブロック図である。
 指向性形成部25は、マイク10Bの出力信号M2を、そのまま収音信号S2として出力する。指向性形成部26は、図7(A)に示すように、減算部261および選択部262を備えている。
 減算部261は、マイク10Bの出力信号M2からマイク10Aの出力信号M1を差分して、選択部262に入力する。
 選択部262は、マイク10Aの出力信号M1のレベルと、およびマイク10Bの出力信号M2からマイク10Aの出力信号M1を差分した差分信号のレベルと、を比較し、高レベル側の信号を収音信号S1として出力する(S101)。図7(B)に示すように、マイク10Bの出力信号M2からマイク10Aの出力信号M1を差分した差分信号は、マイク10Bの指向性を反転した状態となる。
 このようにして、変形例1に係るレベル制御部15は、指向性のある(特定の方向の音に感度を有しない)マイクを用いた場合であっても、装置の全周囲に対して、感度を持たせることができる。この場合も、収音信号S1は指向性を有し、収音信号S2は無指向性であるため、遠方の音に対する収音性能が異なる。よって、変形例1に係るレベル制御部15は、装置の全周囲に対して感度を持たせながらも、装置から遠い音源の音を収音せず、装置に近い音源の音を目的音として強調することができる。
 指向性形成部25および指向性形成部26の態様は、図7(A)の例に限らない。収音信号S1と、収音信号S2と、において、筐体70に近い音源に対する相関が高く、かつ遠方の音源に対する相関が低くなる態様であれば、本実施形態の構成を実現することができる。
 例えば、図10は、3つのマイク(マイク10A、マイク10B、およびマイク10C)を備えた収音装置1Bの外観図である。図11(A)は、指向性形成部の機能的構成を示す図である。図11(B)は、指向性の一例を示す図である。
 図11(B)に示すように、この例では、マイク10A、マイク10B、およびマイク10Cは、全て指向性マイクである。マイク10A、マイク10B、およびマイク10Cは、平面視して、それぞれ120度ずつ異なる方向に感度を有する。
 図11(A)における指向性形成部26は、マイク10A、マイク10B、およびマイク10Cの信号のいずれか1つを選択することで、指向性の第1収音信号を形成する。例えば、上記指向性形成部26は、マイク10A、マイク10B、およびマイク10Cの信号の最も高レベルの信号を選択する。
 図11(A)における指向性形成部25は、マイク10A、マイク10B、およびマイク10Cの信号の重み和を算出することで、無指向性の第2収音信号を形成する。
 これにより、収音装置1Bは、全て指向性のある(特定の方向に感度を有しない)マイクを備えた場合であっても、装置の全周囲に対して、感度を持たせることができる。この場合も、収音信号S1は指向性を有し、収音信号S2は無指向性であるため、遠方の音に対する収音性能が異なる。よって、収音装置1Bは、装置の全周囲に対して感度を持たせながらも、装置から遠い音源の音を収音せず、装置に近い音源の音を目的音として強調することができる。
 また、例えば全てのマイクが無指向性マイクであっても例えば図12(A)に示すように、指向性形成部26が遅延和を求めることで、図12(B)に示すように、特定の方向に強い感度を持った収音信号S1を生成することもできる。この場合、3つの無指向性マイクを用いる例であるが、2つまたは4つ以上の無指向性マイクを用いて特定の方向に強い感度を持った収音信号S1を生成することもできる。
 次に、図9は、強調処理部50の機能的構成を示すブロック図である。
 人の声は、所定の周波数毎にピーク成分を有する調波構造となっている。したがって、コムフィルタ設定部75は、以下の数式5に示すように、人の声のピーク成分を通過させ、ピーク成分以外を除去するゲイン特性G(f,t)を求め、コムフィルタ76のゲイン特性として設定する。
Figure JPOXMLDOC01-appb-M000005
 すなわち、コムフィルタ設定部75は、収音信号S2をフーリエ変換し、振幅を対数演算したものをさらにフーリエ変換してケプストラムz(c,t)を求める。コムフィルタ設定部75は、このケプストラムz(c,t)を最大にするcの値cpeak(t)=argmax{z(c,t)}を抽出する。コムフィルタ設定部75は、cの値がcpeak(t)およびその近辺以外の場合には、ケプストラム値z(c,t)=0として、ケプストラムのピーク成分を抽出する。コムフィルタ設定部75は、このピーク成分zpeak(c、t)を周波数軸の信号に戻し、コムフィルタ76のゲイン特性G(f,t)とする。これにより、コムフィルタ76は、人の声の調波成分を強調するフィルタとなる。
 なお、ゲイン制御部21は、コヒーレンス算出部20の算出結果に基づいて、コムフィルタ76による強調処理の強さを調整してもよい。例えば、ゲイン制御部21は、上述の割合R(k)の値が所定値R1以上の場合に、コムフィルタ76による強調処理をオンして、上述の割合R(k)の値が所定値R1未満の場合に、コムフィルタ76による強調処理をオフする。この場合、コムフィルタ76による強調処理も、相関の算出結果に応じて収音信号S2(または収音信号S1)のレベル制御を行なう一態様に含まれる。したがって、収音装置1は、コムフィルタ76による目的音の強調処理だけを行なってもよい。
 なお、レベル制御部15は、例えば、ノイズ成分を推定し、該推定したノイズ成分を用いたスペクトルサブトラクション法により、ノイズ成分を除去することで、目的音を強調する処理を行なってもよい。さらに、レベル制御部15は、コヒーレンス算出部20の算出結果に基づいて、ノイズ除去処理の強さを調整してもよい。例えば、レベル制御部15は、上述の割合R(k)の値が所定値R1以上の場合に、ノイズ除去処理による強調処理をオンして、上述の割合R(k)の値が所定値R1未満の場合に、ノイズ除去処理による強調処理をオフする。この場合、ノイズ除去処理による強調処理も、相関の算出結果に応じて収音信号S2(または収音信号S1)のレベル制御を行なう一態様に含まれる。
 図15は、収音装置に接続される外部装置(PC:パーソナルコンピュータ)2の構成例を示すブロック図である。PC2は、I/F51、CPU52、I/F53、およびメモリ54を備えている。I/F51は、例えばUSBインタフェースであり、収音装置1AのI/F19に対してUSBケーブルで接続される。I/F53は、LAN等の通信インタフェースであり、ネットワーク7に接続される。CPU52は、I/F51を介して収音装置1Aから収音信号を入力する。CPU52は、メモリ54に記憶されているプログラムを読み出して、図15に示すVoIP(Voice over Internet Protocol)521の機能を実行する。VoIP521は、収音信号をパケットデータに変換する。CPU52は、VoIP521で変換したパケットデータを、I/F53を介してネットワーク7に出力する。これにより、PC2は、ネットワーク7を介して接続される他装置と収音信号を送受信することができる。したがって、PC2は、例えば遠隔地と音声会議を行なうことができる。
 図16は、収音装置1Aの変形例を示すブロック図である。この変形例の収音装置1Aは、CPU151は、メモリ152からプログラムを読み出して、VoIP521の機能を実行する。この場合、I/F19は、LAN等の通信インタフェースであり、ネットワーク7に接続される。CPU151は、I/F19を介してVoIP521で変換したパケットデータを、I/F53を介してネットワーク7に出力する。これにより、収音装置1Aは、ネットワーク7を介して接続される他装置と収音信号を送受信することができる。したがって、収音装置1Aは、例えば遠隔地と音声会議を行なうことができる。
 図17は、レベル制御部15の構成を外部装置(サーバ)9に設ける場合の構成例を示すブロック図である。サーバ9は、I/F91、CPU93、およびメモリ94を備えている。I/F91は、例えばUSBインタフェースであり、収音装置1AのI/F19に対してUSBケーブルで接続される。
 この例では、収音装置1Aは、レベル制御部15を備えていない。CPU151は、メモリ152からプログラムを読み出して、VoIP521の機能を実行する。この例では、VoIP521は、収音信号S1および収音信号S2を、それぞれパケットデータに変換する。または、VoIP521は、収音信号S1および収音信号S2を、1つのパケットデータに変換する。1つのパケットデータに変換する場合でも、収音信号S1および収音信号S2は、それぞれ区別して別のデータとしてパケットデータに格納される。
 この例では、I/F19は、LAN等の通信インタフェースであり、ネットワーク7に接続される。CPU151は、I/F19を介してVoIP521で変換したパケットデータを、I/F53を介してネットワーク7に出力する。
 サーバ9のI/F53は、LAN等の通信インタフェースであり、ネットワーク7に接続される。CPU52は、I/F91を介して収音装置1Aからパケットデータを入力する。CPU52は、メモリ54に記憶されているプログラムを読み出して、VoIP92の機能を実行する。VoIP92は、パケットデータを収音信号S1および収音信号S2に変換する。また、CPU95は、メモリ94からプログラムを読み出して、レベル制御部95の機能を実行する。レベル制御部95は、レベル制御部15と同じ機能を有する。CPU93は、レベル制御部95でレベル制御を行なった後の収音信号を再びVoIP92に出力する。CPU93は、VoIP92において収音信号をパケットデータに変換する。CPU93は、VoIP92で変換したパケットデータを、I/F91を介してネットワーク7に出力する。例えば、CPU93は、収音装置1Aの通信先にパケットデータを送信する。したがって、収音装置1Aは、レベル制御部95でレベル制御された後の収音信号を通信先に送信することができる。
 最後に、本実施形態の説明は、すべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上述の実施形態ではなく、特許請求の範囲によって示される。さらに、本発明の範囲は、特許請求の範囲と均等の範囲を含む。
1A,1B…収音装置
10A,10B,10C…マイク
15…レベル制御部
19…I/F
20…コヒーレンス算出部
21…ゲイン制御部
22…ゲイン調整部
25,26…指向性形成部
50…強調処理部
57…帯域分割部
59…帯域合成部
70…筐体
75…コムフィルタ設定部
76…コムフィルタ
261…減算部
262…選択部

Claims (20)

  1.  第1マイクから生成される第1収音信号および第2マイクから生成される第2収音信号の相関が閾値を超える周波数成分の割合に応じて前記第1収音信号または前記第2収音信号のレベル制御を行なう、レベル制御部、
     を備えた収音装置。
  2.  前記第1マイクと、前記第2マイクと、
     を備えた請求項1に記載の収音装置。
  3.  前記レベル制御部は、周波数毎に前記相関が前記閾値を超えるか否かを判定し、周波数成分の割合を求め、該閾値を超える周波数の数を集計した集計結果として、前記周波数成分の割合を求め、前記集計結果に応じて前記レベル制御を行なう、
     請求項1または請求項2に記載の収音装置。
  4.  前記第1マイクおよび前記第2マイクの出力する音信号から、前記第1収音信号および前記第2収音信号を生成する、指向性形成部を備えた、
     請求項1乃至請求項3のいずれかに記載の収音装置。
  5.  前記第1マイクおよび前記第2マイクは、指向性マイクであり、
     前記指向性形成部は、前記第1マイクおよび前記第2マイクから、指向性を有する前記第1収音信号と、無指向性の前記第2収音信号を生成する、
     請求項4に記載の収音装置。
  6.  前記指向性形成部は、前記第1マイクおよび前記第2マイクの出力する音信号の遅延和を求めることにより、前記第1収音信号または前記第2収音信号を生成する、
     請求項4に記載の収音装置。
  7.  前記レベル制御部は、
     ノイズ成分を推定し、前記レベル制御として、該推定したノイズ成分を前記第1収音信号または前記第2収音信号から除去する処理を行なう、
     請求項1乃至請求項6のいずれかに記載の収音装置。
  8.  前記レベル制御部は、前記割合に応じて、前記ノイズ成分を除去する処理をオンまたはオフする、
     請求項7に記載の収音装置。
  9.  前記レベル制御部は、人の声に基づく調波成分を除去するコムフィルタを備えた、
     請求項1乃至請求項8のいずれかに記載の収音装置。
  10.  前記レベル制御部は、前記割合に応じて、前記コムフィルタによる処理をオンまたはオフする、
     請求項9に記載の収音装置。
  11.  前記レベル制御部は、前記第1収音信号または前記第2収音信号のゲインを制御するゲイン制御部を備えた、
     請求項1乃至請求項10のいずれかに記載の収音装置。
  12.  前記レベル制御部は、前記割合が第1閾値未満となった場合に、前記割合に応じて前記ゲインを減衰させる、
     請求項11に記載の収音装置。
  13.  前記第1閾値は、所定時間内に算出された前記割合に基づいて決定される、
     請求項12に記載の収音装置。
  14.  前記レベル制御部は、前記割合が第2閾値未満となった場合に、前記ゲインを最小ゲインに設定する、
     請求項11乃至請求項13のいずれかに記載の収音装置。
  15.  前記相関は、コヒーレンスを含む、
     請求項1乃至請求項14のいずれかに記載の収音装置。
  16.  第1マイクから生成される第1収音信号および第2マイクから生成される第2収音信号の相関が閾値を超える周波数成分の割合に応じて前記第1収音信号または前記第2収音信号のレベル制御を行なう、
     収音方法。
  17.  周波数毎に前記相関が前記閾値を超えるか否かを判定し、周波数成分の割合を求め、該閾値を超える周波数の数を集計した集計結果として、前記周波数成分の割合を求め、前記集計結果に応じて前記レベル制御を行なう、
     請求項16に記載の収音方法。
  18.  前記第1マイクおよび前記第2マイクの出力する音信号から、前記第1収音信号および前記第2収音信号を生成する、
     請求項16または請求項17に記載の収音方法。
  19.  前記第1マイクおよび前記第2マイクから、指向性を有する前記第1収音信号と、無指向性の前記第2収音信号を生成する、
     請求項18に記載の収音方法。
  20.  前記第1マイクおよび前記第2マイクの出力する音信号の遅延和を求めることにより、前記第1収音信号または前記第2収音信号を生成する、
     請求項19に記載の収音方法。
PCT/JP2018/011318 2017-03-24 2018-03-22 収音装置および収音方法 WO2018174135A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2019506958A JP6849055B2 (ja) 2017-03-24 2018-03-22 収音装置および収音方法
CN201880020245.7A CN110447239B (zh) 2017-03-24 2018-03-22 拾音装置及拾音方法
EP18772153.5A EP3606092A4 (en) 2017-03-24 2018-03-22 SOUND DETECTION DEVICE AND SOUND DETECTION METHOD
US16/572,825 US10873810B2 (en) 2017-03-24 2019-09-17 Sound pickup device and sound pickup method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017059020 2017-03-24
JP2017-059020 2017-03-24

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/572,825 Continuation US10873810B2 (en) 2017-03-24 2019-09-17 Sound pickup device and sound pickup method

Publications (1)

Publication Number Publication Date
WO2018174135A1 true WO2018174135A1 (ja) 2018-09-27

Family

ID=63585541

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/011318 WO2018174135A1 (ja) 2017-03-24 2018-03-22 収音装置および収音方法

Country Status (5)

Country Link
US (1) US10873810B2 (ja)
EP (1) EP3606092A4 (ja)
JP (1) JP6849055B2 (ja)
CN (1) CN110447239B (ja)
WO (1) WO2018174135A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021229828A1 (ja) * 2020-05-11 2021-11-18 ヤマハ株式会社 信号処理方法、信号処理装置、及びプログラム
US11386911B1 (en) * 2020-06-29 2022-07-12 Amazon Technologies, Inc. Dereverberation and noise reduction
US11259117B1 (en) * 2020-09-29 2022-02-22 Amazon Technologies, Inc. Dereverberation and noise reduction

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0667691A (ja) * 1992-08-18 1994-03-11 Nec Corp 雑音除去装置
JPH1118193A (ja) * 1997-06-23 1999-01-22 Nippon Telegr & Teleph Corp <Ntt> 受話状態検出方法およびその装置
JP2004289762A (ja) * 2003-01-29 2004-10-14 Toshiba Corp 音声信号処理方法と装置及びプログラム
JP2006129434A (ja) 2004-10-01 2006-05-18 Nippon Telegr & Teleph Corp <Ntt> 自動利得制御方法、自動利得制御装置、自動利得制御プログラム及びこれを記録した記録媒体
JP2009005133A (ja) * 2007-06-22 2009-01-08 Sanyo Electric Co Ltd 風雑音低減装置、及び、この風雑音低減装置を備えた電子機器
JP2013061421A (ja) 2011-09-12 2013-04-04 Oki Electric Ind Co Ltd 音声信号処理装置、方法及びプログラム
JP2016042613A (ja) 2014-08-13 2016-03-31 沖電気工業株式会社 目的音声区間検出装置、目的音声区間検出方法、目的音声区間検出プログラム、音声信号処理装置及びサーバ

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS627298A (ja) 1985-07-03 1987-01-14 Nec Corp 音響雑音除去装置
JP3153912B2 (ja) * 1991-06-25 2001-04-09 ソニー株式会社 マイクロホン装置
US7561700B1 (en) * 2000-05-11 2009-07-14 Plantronics, Inc. Auto-adjust noise canceling microphone with position sensor
EP1413169A1 (en) 2001-08-01 2004-04-28 Dashen Fan Cardioid beam with a desired null based acoustic devices, systems and methods
US7171008B2 (en) 2002-02-05 2007-01-30 Mh Acoustics, Llc Reducing noise in audio systems
US7174022B1 (en) 2002-11-15 2007-02-06 Fortemedia, Inc. Small array microphone for beam-forming and noise suppression
CN1212602C (zh) * 2003-09-12 2005-07-27 中国科学院声学研究所 基于语音增强的语音识别方法
EP1732352B1 (en) 2005-04-29 2015-10-21 Nuance Communications, Inc. Detection and suppression of wind noise in microphone signals
US8428275B2 (en) * 2007-06-22 2013-04-23 Sanyo Electric Co., Ltd. Wind noise reduction device
CN101569209B (zh) * 2007-10-04 2013-08-21 松下电器产业株式会社 噪声抽取装置和方法、麦克风装置、集成电路以及摄像机
JP5555987B2 (ja) * 2008-07-11 2014-07-23 富士通株式会社 雑音抑圧装置、携帯電話機、雑音抑圧方法及びコンピュータプログラム
JP5197458B2 (ja) * 2009-03-25 2013-05-15 株式会社東芝 受音信号処理装置、方法およびプログラム
JP5862349B2 (ja) * 2012-02-16 2016-02-16 株式会社Jvcケンウッド ノイズ低減装置、音声入力装置、無線通信装置、およびノイズ低減方法
WO2013160735A1 (en) * 2012-04-27 2013-10-31 Sony Mobile Communications Ab Noise suppression based on correlation of sound in a microphone array
JP6028502B2 (ja) 2012-10-03 2016-11-16 沖電気工業株式会社 音声信号処理装置、方法及びプログラム
US9106196B2 (en) 2013-06-20 2015-08-11 2236008 Ontario Inc. Sound field spatial stabilizer with echo spectral coherence compensation
US20150281834A1 (en) 2014-03-28 2015-10-01 Funai Electric Co., Ltd. Microphone device and microphone unit
CN103929707B (zh) * 2014-04-08 2019-03-01 努比亚技术有限公司 一种检测麦克风音频通道状况的方法和移动终端
US9800981B2 (en) 2014-09-05 2017-10-24 Bernafon Ag Hearing device comprising a directional system
US9489963B2 (en) * 2015-03-16 2016-11-08 Qualcomm Technologies International, Ltd. Correlation-based two microphone algorithm for noise reduction in reverberation
US9906859B1 (en) 2016-09-30 2018-02-27 Bose Corporation Noise estimation for dynamic sound adjustment
EP3606090A4 (en) * 2017-03-24 2021-01-06 Yamaha Corporation SOUND RECORDING DEVICE AND SOUND RECORDING METHOD

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0667691A (ja) * 1992-08-18 1994-03-11 Nec Corp 雑音除去装置
JPH1118193A (ja) * 1997-06-23 1999-01-22 Nippon Telegr & Teleph Corp <Ntt> 受話状態検出方法およびその装置
JP2004289762A (ja) * 2003-01-29 2004-10-14 Toshiba Corp 音声信号処理方法と装置及びプログラム
JP2006129434A (ja) 2004-10-01 2006-05-18 Nippon Telegr & Teleph Corp <Ntt> 自動利得制御方法、自動利得制御装置、自動利得制御プログラム及びこれを記録した記録媒体
JP2009005133A (ja) * 2007-06-22 2009-01-08 Sanyo Electric Co Ltd 風雑音低減装置、及び、この風雑音低減装置を備えた電子機器
JP2013061421A (ja) 2011-09-12 2013-04-04 Oki Electric Ind Co Ltd 音声信号処理装置、方法及びプログラム
JP2016042613A (ja) 2014-08-13 2016-03-31 沖電気工業株式会社 目的音声区間検出装置、目的音声区間検出方法、目的音声区間検出プログラム、音声信号処理装置及びサーバ

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3606092A4

Also Published As

Publication number Publication date
JP6849055B2 (ja) 2021-03-24
US20200015010A1 (en) 2020-01-09
US10873810B2 (en) 2020-12-22
EP3606092A4 (en) 2020-12-23
CN110447239B (zh) 2021-12-03
CN110447239A (zh) 2019-11-12
JPWO2018174135A1 (ja) 2020-01-16
EP3606092A1 (en) 2020-02-05

Similar Documents

Publication Publication Date Title
JP6838649B2 (ja) 収音装置および収音方法
EP2715725B1 (en) Processing audio signals
US8238569B2 (en) Method, medium, and apparatus for extracting target sound from mixed sound
US8615092B2 (en) Sound processing device, correcting device, correcting method and recording medium
EP2751806B1 (en) A method and a system for noise suppressing an audio signal
EP2463856B1 (en) Method to reduce artifacts in algorithms with fast-varying gain
WO2018174135A1 (ja) 収音装置および収音方法
CN113299316A (zh) 估计声音信号的直接混响比
KR20090037845A (ko) 혼합 신호로부터 목표 음원 신호를 추출하는 방법 및 장치
JP2020504966A (ja) 遠距離音の捕捉
JP5635024B2 (ja) 音響信号強調装置、遠近判定装置、それらの方法、及びプログラム
CN114420153A (zh) 音质调整方法、装置、设备及存储介质
TWI690921B (zh) 收音處理裝置及其收音處理方法
CN108735228A (zh) 语音波束形成方法及系统
WO2021070278A1 (ja) 雑音抑圧装置、雑音抑圧方法、及び雑音抑圧プログラム
JP2016082432A (ja) マイクシステム、ノイズ除去方法、およびプログラム
JP6361360B2 (ja) 残響判定装置及びプログラム
JP6263890B2 (ja) 音声信号処理装置及びプログラム
JP6221463B2 (ja) 音声信号処理装置及びプログラム
CN116390005A (zh) 无线多麦助听方法、助听器以及计算机可读存储介质
TW202019194A (zh) 減少干擾音影響之方法及聲音播放裝置
JP2013125084A (ja) 発話速度検出装置及び発話速度検出プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18772153

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019506958

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2018772153

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2018772153

Country of ref document: EP

Effective date: 20191024