WO2011105073A1 - 音響処理装置および音響処理方法 - Google Patents

音響処理装置および音響処理方法 Download PDF

Info

Publication number
WO2011105073A1
WO2011105073A1 PCT/JP2011/001031 JP2011001031W WO2011105073A1 WO 2011105073 A1 WO2011105073 A1 WO 2011105073A1 JP 2011001031 W JP2011001031 W JP 2011001031W WO 2011105073 A1 WO2011105073 A1 WO 2011105073A1
Authority
WO
WIPO (PCT)
Prior art keywords
sound
level signal
frequency
signal
unit
Prior art date
Application number
PCT/JP2011/001031
Other languages
English (en)
French (fr)
Inventor
番場裕
金森丈郎
Original Assignee
パナソニック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック株式会社 filed Critical パナソニック株式会社
Priority to EP11747042.7A priority Critical patent/EP2541971B1/en
Priority to JP2011528111A priority patent/JP5853133B2/ja
Priority to US13/258,171 priority patent/US9277316B2/en
Priority to CN201180001709.8A priority patent/CN102388624B/zh
Publication of WO2011105073A1 publication Critical patent/WO2011105073A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/007Protection circuits for transducers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/005Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R25/00Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
    • H04R25/40Arrangements for obtaining a desired directivity characteristic
    • H04R25/407Circuits for combining signals of a plurality of transducers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R25/00Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
    • H04R25/55Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception using an external connection, either wireless or wired
    • H04R25/552Binaural
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2225/00Details of deaf aids covered by H04R25/00, not provided for in any of its subgroups
    • H04R2225/41Detection or adaptation of hearing aid parameters or programs to listening situation, e.g. pub, forest
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R25/00Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
    • H04R25/55Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception using an external connection, either wireless or wired

Definitions

  • the present invention relates to an acoustic processing apparatus and an acoustic processing method for analyzing ambient sounds based on sound collection signals of two sound collectors.
  • Patent Document 1 Patent Document 1
  • the conventional apparatus converts the collected sound signals from the two sound collectors attached to the left and right of the analysis target of the ambient sound into level signals indicating the sound pressure levels.
  • the conventional apparatus then analyzes the left ambient sound based on the level signal obtained from the sound collection signal of the left sound collector. Also, the conventional apparatus analyzes the right ambient sound based on the level signal obtained from the sound collection signal of the right sound collector. Thereby, the conventional apparatus can perform ambient sound analysis such as analysis of the arrival direction of sound in a wide range of directions.
  • the conventional apparatus has a problem that it is difficult to improve the accuracy of the analysis of the ambient sound even if such an analysis is performed. The reason is as follows.
  • FIG. 1 is a diagram showing experimental results of directivity characteristics for each frequency of a level signal obtained from one sound collector.
  • the directivity characteristic of the level signal obtained from the sound collector attached to the right ear of the person is shown.
  • One scale in the radial direction in the figure is 10 dB.
  • the direction is a clockwise angle when viewed from above with respect to the front direction of the person, and defines the direction with respect to the head.
  • lines 911 to 914 indicate the directivity characteristics of each level signal at frequencies of 200 Hz, 400 Hz, 800 Hz, and 1600 Hz, respectively.
  • the sound that reaches the right ear from the left side of the head is strongly influenced by the acoustic effect of the presence of the head. Therefore, as shown in FIG. 1, the level signal of each frequency is attenuated on the left side of the head (near 270 °).
  • a level signal having a frequency of 1600 Hz attenuates by about 15 dB around 240 ° as indicated by a line 914.
  • An object of the present invention is to provide an acoustic processing apparatus and an acoustic processing method that can improve the accuracy of analysis of ambient sounds.
  • the acoustic processing device is an acoustic processing device that analyzes ambient sounds based on the collected sound signals acquired by the two sound collectors, and for each collected sound signal, the collected sound signal is represented by phase information.
  • a level signal converting unit that converts the level signal obtained from the two sound collectors
  • a level signal combining unit that generates a combined level signal obtained by combining the level signals obtained from the collected sound signals of the two sound collectors, and the combined level signal.
  • a detection / identification unit for analyzing the ambient sound based on the above.
  • the acoustic processing method of the present invention is an acoustic processing method for analyzing ambient sounds based on collected sound signals respectively acquired by two sound collectors. For each collected sound signal, the collected sound signal is represented by phase information. Converting to the removed level signal; generating a synthesized level signal obtained by synthesizing the level signals obtained from the collected sound signals of the two sound collectors; and the ambient sound based on the synthesized level signal Performing the following analysis.
  • the figure which shows the experimental result of the directivity of the level signal obtained from one sound collector in a prior art The block diagram which shows an example of a structure of the sound processing apparatus which concerns on Embodiment 1 of this invention.
  • FIG. The figure which shows a mode that a signal before phase information is removed is synthesized.
  • the figure which shows typically a mode that the signal after the phase information in this Embodiment 1 is removed is synthesize
  • the figure which shows the experimental result of the directivity when the signal before the phase information is removed is synthesized
  • combining the signal after the phase information in this Embodiment 1 was removed.
  • the block diagram which shows an example of a structure of the sound processing apparatus which concerns on Embodiment 2 of this invention.
  • the block diagram which shows an example of a structure of the analysis result reflection part in Embodiment 4 of this invention The flowchart which shows an example of operation
  • Embodiment 1 of the present invention is an example in which the present invention is applied to a set of ear-hook type hearing aids to be worn on both ears of a person.
  • Each unit of the acoustic processing apparatus described below includes a microphone, a speaker, a CPU (central processing unit), a storage medium such as a ROM (read only memory) that stores a control program, and communication, which are arranged inside a set of hearing aids. It is assumed to be realized by hardware such as a circuit.
  • a hearing aid attached to the right ear among a set of hearing aids is referred to as a “right hearing aid” (first device, first side hearing aid), and a hearing aid attached to the left ear is referred to as “left side hearing aid”.
  • Hearing aid “(second device, second side hearing aid).
  • FIG. 2 is a block diagram showing an example of the configuration of the sound processing apparatus according to the present embodiment.
  • the sound processing apparatus 100 includes a first sound collector (microphone) 110-1, a first frequency analysis unit 120-1, a first level as functional units disposed in the right hearing aid. It has a signal conversion unit 130-1, a level signal synthesis unit 140, a detection / identification unit 160, an output unit 170, an analysis result reflection unit (voice control unit) 180, and a voice output unit (speaker) 190.
  • the sound processing apparatus 100 includes a second sound collector (microphone) 110-2, a second frequency analysis unit 120-2, and a second level signal conversion unit 130- as functional units arranged in the left hearing aid. 2 and a level signal transmission unit 150.
  • FIG. 3 is a diagram showing an example of the appearance of the right hearing aid.
  • the right hearing aid 300-1 has a hearing aid body 310, an acoustic tube 320, and an earphone 330.
  • the left hearing aid 300-2 also has the same external configuration as the right hearing aid 300-1 in a symmetrical arrangement.
  • FIG. 4 is a diagram showing a wearing state of the hearing aid.
  • the right hearing aid 300-1 is attached to the right ear of a person and fixed to the right side of the head 200.
  • the left hearing aid 300-2 is attached to the left ear of the person and fixed to the left side of the head 200.
  • the first sound collector 110-1 is an omnidirectional microphone housed in the hearing aid body 310 of the right hearing aid 300-1 (see FIG. 4).
  • the first sound collector 110-1 collects sound around the head 200 through a hole such as a slit, and generates a first sound collection signal. Then, the first sound collector 110-1 outputs the generated first sound pickup signal to the first frequency analysis unit 120-1 and the analysis result reflection unit 180.
  • the first frequency analysis unit 120-1 converts the first collected sound signal into a frequency signal for each frequency band, and outputs the frequency signal to the first level signal conversion unit 130-1 as the first frequency signal.
  • first frequency analysis section 120-1 generates a first frequency signal for each of a plurality of frequency bands.
  • the first frequency analysis unit 120-1 may perform conversion to a frequency signal using, for example, a plurality of band-pass filters, or perform FFT (Fast Fourier Transform) that converts a time waveform into a frequency spectrum. May be.
  • FIG. 5 is a block diagram showing an example of the configuration of the first frequency analysis unit 120-1 using an N-divided filter bank.
  • the first frequency analysis unit 120-1 includes, for example, N band pass filters 400-1 to 400-N.
  • the band pass filters 400-1 to 400-N perform filtering on the first collected sound signal in different pass bands.
  • FIG. 6 is a block diagram showing an example of the configuration of the first frequency analysis unit 120-1 using FFT.
  • the first frequency analysis unit 120-1 includes, for example, an analysis window processing unit 501 and an FFT processing unit 502.
  • the analysis window processing unit 501 applies an analysis window to the first collected sound signal.
  • a window function suitable for subsequent detection and identification is selected from the viewpoint of spectrum leak prevention and frequency resolution.
  • the FFT processing unit 502 converts a signal obtained by applying the analysis window from a time waveform to a frequency signal. That is, the first frequency signal output from the first frequency analysis unit 120-1 in this case is a complex frequency spectrum.
  • the first level signal converter 130-1 shown in FIG. 2 converts the first frequency signal into a signal indicating the sound pressure level, and outputs the signal to the level signal synthesizer 140 as the first level signal. That is, the first level signal conversion unit 130-1 converts the first frequency signal into the first level signal from which the phase information is removed.
  • first level signal conversion section 130-1 generates a signal that takes the absolute value of the first frequency signal as the first level signal. That is, the first level signal is the absolute amplitude of the first frequency signal.
  • the first frequency signal is a complex frequency spectrum by FFT
  • the first level signal is an amplitude spectrum or a power spectrum.
  • the second sound collector 110-2 is an omnidirectional microphone housed in the left hearing aid. Similar to the first sound collector 110-1, the second sound collector 110-2 collects the ambient sound around the head 200. 2 is collected and output to the second frequency analysis unit 120-2.
  • the second frequency analysis unit 120-2 converts the second collected sound signal into a frequency signal in the same manner as the first frequency analysis unit 120-1, and converts the second sound signal into a second level signal as the second frequency signal. Output to the unit 130-2.
  • the level signal transmission unit 150 transmits the second level signal generated by the left hearing aid to the level signal synthesis unit 140 disposed in the right hearing aid.
  • the level signal transmission unit 150 can use wireless communication and wired communication as means for transmission. However, as the transmission form of the level signal transmission unit 150, one that can secure a sufficient transmission capacity capable of transmitting the second level signal of the entire band is adopted.
  • the level signal synthesis unit 140 generates a synthesis level signal obtained by synthesizing the first level signal and the second level signal, and outputs the synthesized level signal to the detection / identification unit 160.
  • level signal synthesis section 140 assumes that a signal obtained by adding the first level signal and the second level signal for each frequency band is a synthesized level signal.
  • the detection / identification unit 160 analyzes the sound around the head of the person wearing the hearing aid based on the synthesized level signal, and outputs the analysis result to the output unit 170. This analysis is, for example, various types of detection and identification according to the synthesis level signal for each frequency band.
  • the output unit 170 outputs the analysis result of the ambient sound to the analysis result reflection unit 180.
  • the analysis result reflection unit 180 performs various processes according to the analysis result of the ambient sound. This processing is various signal processing performed until the sound output signal is amplified as a sound wave in the sound output unit 190, and includes, for example, directivity synthesis and various suppression controls. Further, this process includes performing a predetermined warning on condition that a predetermined sound is detected from ambient sounds.
  • the audio output unit 190 is a small speaker housed in the hearing aid body 310 of the right hearing aid 300-1 (see FIG. 4).
  • the audio output unit 190 converts the first collected sound signal into sound and outputs (sounds out). Note that the output sound of the sound output unit 190 passes through the acoustic tube 320 and is emitted from the earphone 330 embedded in the ear hole into the ear hole.
  • Such a sound processing apparatus 100 synthesizes the first level signal and the second level signal to generate a synthesized level signal, and analyzes the ambient sound based on the synthesized level signal. Thereby, the sound processing apparatus 100 compensates for the attenuation generated in the first level signal with the second level signal and the level of the ambient sound such that the attenuation generated in the second level signal is supplemented with the first level signal.
  • the signal can be obtained as a composite level signal.
  • the sound processing apparatus 100 synthesizes the first level signal and the second level signal, which are signals from which phase information has been removed, the above-described synthesis level is obtained without canceling out the information indicating the sound pressure levels. A signal can be obtained.
  • phase information here, a level signal
  • a signal before removing phase information for example, a frequency signal
  • a combined level signal of the first level signal and the second level signal Can be considered. That is, simply adding the first frequency signal generated from the first sound collector 110-1 and the second frequency signal generated from the second sound collector 110-2 is considered. It is done. This corresponds to synthesizing the signal before the phase information is removed.
  • FIG. 7 is a diagram schematically showing how signals are synthesized before phase information is removed.
  • the first sound collector 110-1 and the second sound collector 110-2 are arranged in a straight line as shown in FIG.
  • the first frequency signal and the second frequency signal generated from the first sound collector 110-1 and the second sound collector 110-2 are added as they are.
  • the added signal has an absolute value and is output as a composite level signal (output1).
  • the synthesized level signal becomes the output amplitude value of the omnidirectional microphone array constituted by the first sound collector 110-1 and the second sound collector 110-2.
  • Equation (1) when ⁇ ⁇ (dsin ⁇ in) / c ⁇ in the exponential corresponding to the phase term of the second frequency signal approaches ⁇ , the absolute value on the right side approaches 0. Then,
  • FIG. 8 is a diagram schematically showing a state of synthesizing the signal after the phase information is removed, and corresponds to FIG.
  • the first frequency signal and the second frequency signal generated from the first sound collector 110-1 and the second sound collector 110-2 have their absolute values taken. 1 level signal and 2nd level signal are converted respectively. Then, the first level signal and the second level signal converted into absolute values are added and output as a combined level signal (output2).
  • the synthesized level signal becomes the output amplitude value of the omnidirectional microphone array constituted by the first sound collector 110-1 and the second sound collector 110-2.
  • indicated by the output amplitude value (output2) with respect to the frequency of the incident wave signal is expressed by the following equation (2).
  • the first frequency signal and the second frequency signal have a phase difference between the sound wave reaching the first sound collector 110-1 and the sound wave reaching the second sound collector 110-2. This will not be offset.
  • FIG. 9 is a diagram showing logarithmic characteristics with respect to the frequency of the incident wave signal in each of the cases of FIG. 7 and FIG.
  • ) of the output amplitude value (output1) is It is relatively constant in the low frequency band.
  • ) of the output amplitude value (output1) fluctuates as the frequency increases, and is attenuated by about 8 dB at 1600 Hz, for example.
  • This attenuation is a spatial alias caused by the relationship between the distance between the first sound collector 110-1 and the second sound collector 110-2 (distance between both ears) and the wavelength of the sound wave (see equation (1)). Due to the ging phenomenon.
  • Such local attenuation of the level signal due to the spatial aliasing phenomenon is hereinafter referred to as “dip”.
  • the logarithmic value characteristic 922 (
  • FIG. 10 is a diagram showing an experimental result of directivity characteristics for each frequency when the signals before phase information is removed (see FIG. 7), and corresponds to FIG.
  • the directivity 914 of the level signal at a frequency of 1600 Hz has dips in, for example, the 30 degree direction and the 330 degree direction. This is due to the attenuation of the logarithmic characteristic described with reference to FIG.
  • FIG. 11 is a diagram showing an experimental result of directivity characteristics for each frequency when the signal after the phase information is removed (see FIG. 8), and corresponds to FIG. 1 and FIG.
  • the directivity characteristics 911 to 914 of the level signals at the respective frequencies have no dip.
  • the synthesized level signal is obtained as a level signal having uniform directivity characteristics. Is obtained.
  • the sound processing apparatus 100 includes the first level signal conversion unit 130-1 and the second level signal conversion unit 130-2, and adds the level signals after the phase information is removed. For this reason, the sound processing apparatus 100 can avoid the phase interference generated by the spatial aliasing, and has a uniform sound pressure frequency characteristic (for each uniform frequency as shown in FIG. 11) that does not depend on the arrival direction of the sound wave. Directional characteristics) can be obtained.
  • the sound processing apparatus 100 can obtain a uniform amplitude characteristic regardless of the frequency by synthesizing the signal after the phase information is removed. Therefore, the sound processing apparatus 100 can achieve uniformization of the directivity characteristics by synthesizing the two signals while preventing the situation where the amplitude characteristics of the ambient sound are deteriorated instead by synthesizing the two signals.
  • FIG. 12 is a flowchart showing an example of the operation of the sound processing apparatus 100.
  • the sound processing apparatus 100 starts the operation shown in FIG. 12 when the power is turned on or when the analysis function is turned on, and when the power is turned off or the analysis function is turned off. When it ends.
  • the first frequency analysis unit 120-1 converts the sound collection signal input from the first sound collector 110-1 into a plurality of first frequency signals.
  • the second frequency analysis unit 120-2 converts the sound collection signal input from the second sound collector 110-2 into a plurality of second frequency signals.
  • the first frequency analysis unit 120-1 and the second frequency analysis unit 120-2 are configured to use the filter bank described in FIG. In this case, the first frequency signal and the second frequency signal are time waveforms band-limited by each band-pass filter.
  • step S2 the first level signal converter 130-1 outputs the first level signal from which the phase information has been removed from the first frequency signal output from the first frequency analyzer 120-1. Generate.
  • the second level signal conversion unit 130-2 generates a second level signal from which phase information has been removed from the second frequency signal output from the second frequency analysis unit 120-2.
  • This second level signal is transmitted to the level signal synthesis unit 140 of the right hearing aid via the level signal transmission unit 150.
  • the level signal transmission unit 150 may transmit a second level signal (compressed second level signal) whose information is thinned out on the time axis. Thereby, the level signal transmission unit 150 can reduce the transmission data amount.
  • step S3 the level signal synthesis unit 140 adds the first level signal and the second level signal to generate a synthesized level signal.
  • step S4 the detection / identification unit 160 performs detection / identification processing using the composite level signal.
  • the detection / identification processing here is processing for detecting / identifying spectrum flatness, spectrum shape, etc., for a relatively wide audible band signal, for example, broadband noise identification processing.
  • the output unit 170 outputs the detection / identification result.
  • step S5 the analysis result reflecting unit 180 performs voice control on the first sound collection signal according to the detection / identification result, and returns to step S1.
  • the sound processing apparatus 100 synthesizes the two signals obtained from the two sound collectors attached to the left and right of the head after adding the phase information.
  • the signal thus obtained in this embodiment, the combined level signal
  • the sound processing apparatus 100 can analyze the ambient sound based on the signal in which both the acoustic influence of the head and the spatial aliasing phenomenon are reduced, and can improve the accuracy of the analysis of the ambient sound. . That is, the sound processing apparatus 100 can reduce erroneous detection or erroneous identification in a specific direction due to dip.
  • the acoustic processing device 100 is stable because the frequency characteristics change less even when the incident angle of the incident wave to the two sound collectors changes due to movement of the sound source or rotation of the head (swing). Head ambient sound can be detected and identified.
  • the second embodiment of the present invention transmits a signal in a frequency band with little acoustic influence of the head, that is, a level signal in a frequency band in which the directivity characteristics of sound collection do not differ greatly between the two sound collectors.
  • the left and right are not combined.
  • the present embodiment transmits only the high-frequency part of the second level signal that is not attenuated at all frequencies but has a large attenuation due to the influence of the head, and combines it with the first level signal. This is an example in which the amount of transmission data is reduced.
  • the level signal in the low frequency band has a slight sensitivity decrease on the head side, but there is no large directional characteristic disturbance or bias. This is because in the low frequency band where the wavelength is sufficiently longer than the size of the head (about 3 to 5 times the longest part of the head), it is difficult to be affected by the head on the directivity due to the diffraction of sound waves. It is. That is, in the low frequency band, the directivity of sound collection is approximated between the two sound collectors.
  • level signals in the low frequency band are not subjected to synthesis between the left and right. That is, the sound processing device according to the present embodiment omits the addition of the left and right level signals and the transmission of one of the low frequency bands that are not easily affected by the head.
  • low range means a frequency band in which the directivity characteristics of sound collection do not differ greatly between the two sound collectors in the audible frequency band in the state where the hearing aid shown in FIG. 4 is worn.
  • the “low range” refers to a frequency band lower than a specific boundary frequency determined by experiments or the like.
  • the “high range” refers to a frequency band that is not the “low range” in the audible frequency band.
  • the size of the human head is almost constant, and the frequency band of 400 Hz to 800 Hz or less is a frequency band that is not easily affected by the head. Therefore, the acoustic processing apparatus sets 800 Hz as a boundary frequency, for example.
  • FIG. 13 is a block diagram illustrating an example of the configuration of the sound processing apparatus according to the present embodiment, and corresponds to FIG. 2 of the first embodiment. Portions corresponding to those in FIG. 2 are denoted by the same reference numerals, and description thereof will be omitted.
  • the first level signal conversion unit 130a-1 of the sound processing apparatus 100a includes a first high frequency level signal conversion unit 131a-1 and a low frequency level signal conversion unit 132a.
  • the second level signal conversion unit 130a-2 of the sound processing device 100a includes a second high frequency level signal conversion unit 131a-2.
  • the sound processing device 100a includes a level signal synthesis unit 140a, a level signal transmission unit 150a, and a detection / identification unit 160a, which are different from those of the first embodiment.
  • the first high frequency level signal converter 131a-1 converts the high frequency signal of the first frequency signal into a signal indicating the sound pressure level. Then, the first high frequency level signal conversion unit 131a-1 outputs the converted signal to the level signal synthesis unit 140a as a first high frequency level signal.
  • the low frequency level signal conversion unit 132a converts the low frequency signal of the first frequency signal into a signal indicating the sound pressure level. Then, the low frequency level signal conversion unit 132a outputs the converted signal as a low frequency level signal to the detection / identification unit 160a.
  • the second high frequency level signal converter 131a-2 converts the high frequency signal of the second frequency signal into a signal indicating the sound pressure level. Then, the second high frequency level signal conversion unit 131a-2 outputs the converted signal to the level signal transmission unit 150a as a second high frequency level signal.
  • the level signal transmission unit 150a does not transmit the low-level signal among the second level signals transmitted in the first embodiment.
  • the level signal synthesis unit 140a generates a synthesis level signal obtained by synthesizing the first high frequency level signal and the second high frequency level signal, and outputs the synthesized level signal to the detection / identification unit 160a.
  • the detection / identification unit 160a analyzes the ambient sound based on the synthesized level signal and the low level signal, and outputs the analysis result to the output unit 170. For example, the detection / identification unit 160a analyzes the ambient sound based on a signal obtained by combining a signal obtained by doubling the low-frequency signal and a composite level signal.
  • the second level signal conversion unit 130a-2 may generate a level signal for the low band as in the first embodiment.
  • the detection / identification unit 160a extracts only the high-frequency level signal from all the input level signals (that is, the second level signal in the first embodiment) as the second high-frequency signal, To transmit.
  • FIG. 14 is a flowchart showing an example of the operation of the sound processing apparatus 100a, and corresponds to FIG. 12 of the first embodiment. The same steps as those in FIG. 12 are denoted by the same step numbers, and description thereof will be omitted.
  • step S2a the first level signal converter 130a-1 generates a first high frequency level signal and a low frequency signal from the first frequency signal. Further, the second level signal conversion unit 130a-2 generates a second high frequency level signal from the second frequency signal. The second high frequency level signal is transmitted to the level signal synthesis unit 140a of the right hearing aid via the level signal transmission unit 150a.
  • step S3a the level signal synthesis unit 140a adds the second high frequency level signal to the first high frequency level signal to generate a synthesized level signal.
  • step S4a the detection / identification unit 160a performs detection / identification processing using a final synthesis level signal obtained by synthesizing the high-frequency synthesis level signal and the low-frequency level signal.
  • FIG. 15 is a diagram showing experimental results of directivity characteristics for each frequency of the final synthesized level signal in the present embodiment, and corresponds to FIGS. 1 and 10.
  • filter banks are used for the first frequency analysis unit 120-1 and the second frequency analysis unit 120-2, and the boundary frequency is 800 Hz.
  • Such a sound processing apparatus 100a does not transmit a level signal in a frequency band in which the directivity characteristic of sound collection does not differ greatly between the first sound collector and the second sound collector, and does not transmit between the left and right. Not subject to synthesis. That is, the sound processing device 100a transmits only the second high-frequency signal generated from the high frequency of the second sound collection signal. As a result, the sound processing apparatus 100a can reduce the amount of data to be transmitted, and can perform detection / identification processing using a signal with relatively uniform directivity even when the transmission capacity is small as in a wireless transmission path. It becomes. Therefore, the acoustic processing device 100a can reduce the size and power consumption of the hearing aid.
  • the third embodiment of the present invention is an example in which ambient sound is analyzed using only signals in a limited frequency band in the audible frequency region.
  • the level signal of the collected sound signal at one high frequency point hereinafter referred to as “high frequency specific frequency”
  • the collected sound signal at one low frequency frequency hereinafter referred to as “low frequency specific frequency”.
  • FIG. 16 is a block diagram showing a main configuration of the sound processing apparatus according to the present embodiment, and corresponds to FIG. 13 of the second embodiment. Portions corresponding to those in FIG. 13 are denoted by the same reference numerals, and description thereof is omitted.
  • the first frequency analysis unit 120b-1 of the sound processing apparatus 100b includes a first high-frequency signal extraction unit 121b-1 and a low-frequency signal extraction unit 122b.
  • the second frequency analysis unit 120b-2 of the sound processing device 100b includes a second high-frequency signal extraction unit 121b-2.
  • the first level signal conversion unit 130a-1 of the sound processing device 100b has a first high frequency level signal conversion unit 131b-1 and a low frequency level signal conversion unit 132b that are different in processing target from the second embodiment.
  • Have The second level signal conversion unit 130a-2 of the sound processing device 100b includes a second high frequency level signal conversion unit 131b-2 that is different from the processing target of the second embodiment.
  • the sound processing device 100b includes a level signal synthesis unit 140b, a level signal transmission unit 150b, and a detection / identification unit 160b, which are different from those of the second embodiment.
  • the first high-frequency signal extraction unit 121b-1 extracts a frequency signal obtained by extracting only the high-frequency specific frequency component from the first sound pickup signal (hereinafter, referred to as “first high-frequency specific frequency signal”), The signal is output to the first high frequency level signal converter 131b-1.
  • the first high-frequency signal extraction unit 121b-1 extracts a component of a high-frequency specific frequency using, for example, an HPF (high pass filter) whose cutoff frequency is determined based on the boundary frequency.
  • HPF high pass filter
  • the second high frequency signal extraction unit 121b-2 is the same as the first high frequency signal extraction unit 121b-1.
  • the second high frequency signal extraction unit 121b-2 extracts a frequency signal obtained by extracting only a component of the high frequency specific frequency from the second sound pickup signal (hereinafter referred to as “second frequency signal of the high frequency specific frequency”), The data is output to the second high frequency level signal converter 131b-2.
  • the low-frequency signal extraction unit 122b extracts a frequency signal obtained by extracting only the low-frequency specific frequency component from the first sound collection signal (hereinafter referred to as “frequency signal of the low-frequency specific frequency”) to the low frequency level signal conversion unit 132b. Output.
  • the low-frequency signal extraction unit 122b extracts a component of a low-frequency specific frequency using, for example, an LPF (low pass filter) whose cutoff frequency is determined based on the boundary frequency.
  • LPF low pass filter
  • the first high frequency level signal conversion unit 131b-1 converts the first frequency signal of the high frequency specific frequency into a signal indicating the sound pressure level, and uses the level signal as the first level signal of the high frequency specific frequency.
  • the data is output to the synthesis unit 140b.
  • the second high frequency level signal converting unit 131b-2 converts the second frequency signal of the high frequency specific frequency into a signal indicating the sound pressure level, and uses the level signal as the second level signal of the high frequency specific frequency.
  • the data is output to the transmission unit 150b.
  • the low frequency level signal conversion unit 132b converts the frequency signal of the low frequency specific frequency into a signal indicating the sound pressure level, and outputs the signal to the detection / identification unit 160b as a level signal of the low frequency specific frequency.
  • the level signal transmission unit 150b does not transmit a level signal other than the high frequency specific frequency among the second high frequency signals transmitted in the second embodiment.
  • the level signal synthesizing unit 140b generates a synthesized level signal obtained by synthesizing the first level signal having the high frequency specific frequency and the second level signal having the high frequency specific frequency, and outputs the synthesized level signal to the detection / identification unit 160b.
  • the detection / identification unit 160 b analyzes the ambient sound based on the synthesized level signal and the level signal of the low-frequency specific frequency, and outputs the analysis result to the output unit 170. For example, the detection / identification unit 160b analyzes the ambient sound based on a signal obtained by combining a signal obtained by doubling the level signal of the low frequency specific frequency and the synthesized level signal. In the present embodiment, the combination of the synthesis level signal and the level signal of the low frequency specific frequency includes frequency spectrum information only at two points of the high frequency specific frequency and the low frequency specific frequency. Therefore, the detection / identification unit 160b performs a relatively simple detection / identification process focusing on only two frequency spectra.
  • FIG. 17 is a flowchart showing an example of the operation of the sound processing apparatus 100b, and corresponds to FIG. 14 of the second embodiment.
  • the same parts as those in FIG. 14 are denoted by the same step numbers, and description thereof will be omitted.
  • the first high frequency signal extraction unit 121b-1 extracts a first frequency signal having a high frequency specific frequency from the first sound collection signal.
  • the second high frequency signal extraction unit 121b-2 extracts a second frequency signal having a high frequency specific frequency from the second sound pickup signal.
  • the low-frequency signal extraction unit 122b extracts a frequency signal having a low-frequency specific frequency from the first sound collection signal.
  • step S2b the first high frequency level signal converter 131b-1 generates a first level signal of the high frequency specific frequency from the first frequency signal of the high frequency specific frequency.
  • the second high frequency level signal converter 131b-2 generates a second level signal having a high frequency specific frequency from the second frequency signal having a high frequency specific frequency.
  • the low frequency level signal conversion unit 132b generates a low frequency specific frequency level signal from the low frequency specific frequency signal.
  • step S3b the level signal synthesis unit 140b adds the second level signal of the high frequency specific frequency to the first level signal of the high frequency specific frequency to generate a composite level signal.
  • step S4b the detection / identification unit 160b performs detection / identification processing using a final synthesis level signal obtained by synthesizing the synthesis level signal of the high frequency specific frequency and the level signal of the low frequency specific frequency. I do.
  • Such a sound processing apparatus 100b transmits only the level signals in a part of the frequency band (high frequency) of the frequency band (high frequency range) where the directivity characteristics of the sound collection greatly differ between the two sound collectors between the hearing aids. That is, the sound processing apparatus 100b does not transmit a level signal that is unnecessary in relation to the analysis accuracy. Thereby, even when the transmission capacity between hearing aids is extremely small, the acoustic processing device 100b can analyze the ambient sound based on the synthesized signal having a uniform sound pressure frequency characteristic.
  • the frequencies to be transmitted are two points, the high frequency specific frequency and the low frequency specific frequency.
  • the frequency is not limited to this, and at least the sound collecting directivity characteristics of two sound collecting devices are used. It is only necessary to include one point having a frequency that varies greatly between the two.
  • the frequency to be transmitted may be only one other point in the high band, or may be three or more.
  • the frequency spectrum energy of environmental noise (air-conditioning sound or mechanical sound) and voice (human speech) is mainly present in the low frequency band.
  • the frequency spectrum energy of voice is mainly concentrated in a band of 1 kHz or less.
  • the long-term spectral tilt from the low frequency band to the high frequency band is attenuated toward the high frequency at ⁇ 6 dB / oct from around 1 kHz.
  • the above-mentioned unpleasant sound has a spectral characteristic close to white noise that is relatively flat from a low frequency band to a high frequency band. That is, such an unpleasant sound has a property that its amplitude spectrum is relatively flat.
  • the sound processing apparatus detects unpleasant sound based on whether the amplitude spectrum is flat. Then, when such an unpleasant sound is detected, the sound processing device according to the present embodiment suppresses the volume of the reproduced sound to alleviate the uncomfortable feeling of hearing.
  • FIG. 18 is a diagram illustrating an example of the configuration of the detection / identification unit in the present embodiment. This detection / identification unit is used as the detection / identification unit 160 shown in FIG. 2 of the first embodiment.
  • the detection / identification unit 160 includes a smoothing unit 162, a frequency flatness index calculation unit 163, an all-band level signal calculation unit 164, a determination unit 165, and a counter 166.
  • the smoothing unit 162 smoothes the combined level signal input from the level signal combining unit 140 and generates a smoothed combined level signal. Then, smoothing section 162 outputs the generated smoothed synthesized level signal to frequency flatness index calculating section 163 and full-band level signal calculating section 164. The smoothing unit 162 performs a smoothing process on the combined level signal using, for example, an LPF.
  • the frequency flatness index calculation unit 163 verifies the flatness on the frequency axis of the basic synthesis level signal using the smoothed synthesis level signal, and calculates a frequency flatness index indicating the degree of flatness. Then, the frequency flatness index calculation unit 163 outputs the calculated frequency flatness index to the determination unit 165.
  • the total area level signal calculation unit 164 calculates the total frequency level in a predetermined total frequency band (for example, an audible band) using the smoothed synthesized level signal, and outputs the calculation result to the determination unit 165.
  • a predetermined total frequency band for example, an audible band
  • the determination unit 165 determines whether or not an unpleasant sound is included in the ambient sound based on the frequency flatness index and the total frequency level, and outputs the unpleasant sound determination result to the output unit 170. More specifically, the determination unit 165 uses the counter 166 to continuously maintain the unpleasant sound for a length of time (hereinafter referred to as “continuous determination time”) that is continuously determined that the ambient sound includes the unpleasant sound. Count as the length of time you are. The determination unit 165 outputs a determination result indicating that an unpleasant sound has been detected while the continuous determination time exceeds a predetermined threshold, and while the continuous determination time does not exceed the predetermined threshold, A determination result indicating that no unpleasant sound is detected is output.
  • Such a detection / identification unit 160 can detect an unpleasant sound based on the composite level signal.
  • the output unit 170 outputs, to the analysis result reflection unit 180, a control signal for switching on / off of the control flag according to the input determination result.
  • FIG. 19 is a block diagram illustrating an example of the configuration of the analysis result reflecting unit 180.
  • the smoothing unit 182 smoothes the control signal from the output unit 170 and generates a smoothed control signal. Then, the smoothing unit 182 outputs the generated smoothing control signal to the variable attenuation unit 183. That is, the smoothing control signal is a signal for smoothly changing the sound volume in accordance with on / off indicated by the control signal.
  • the smoothing unit 182 performs a smoothing process on the control signal using, for example, an LPF.
  • variable attenuating unit Based on the smoothing control signal, the variable attenuating unit performs a process for reducing the sound volume on the condition that an unpleasant sound is detected on the first sound collection signal, and the first sound collection unit that has performed such a process.
  • the sound signal is output to the sound output unit 190.
  • FIG. 20 is a flowchart showing an example of the operation of the sound processing apparatus 100 according to the present embodiment, and corresponds to FIG. 12 of the first embodiment.
  • the same steps as those in FIG. 12 are denoted by the same step numbers, and description thereof will be omitted.
  • step S30 the smoothing unit 162 of the detection identifying unit 160 smoothes the combined level signal for each frequency band, and calculates a smoothed combined level signal lev_frqs (k).
  • k is a band division index.
  • k takes a value in the range of 0 to N-1.
  • step S31 the entire band level signal calculation unit 164 adds the smoothed synthesized level signal lev_frqs (k) for each band for all k to calculate the entire band level signal lev_all_frqs.
  • the full band level signal calculation unit 164 calculates the full band level signal lev_all_frqs using, for example, the following equation (3).
  • step S32 the determination unit 165 first determines whether or not the first sound collection signal has a level sufficient to perform the suppression process. Specifically, the determination unit 165 determines whether or not the entire band level signal lev_all_frqs is equal to or greater than a predetermined value lev_thr. If the all-band level signal lev_all_frqs is equal to or greater than the specified value lev_thr (S32: YES), the determination unit 165 proceeds to step S33. Further, when the all-band level signal lev_all_frqs is less than the specified value lev_thr (S32: NO), the determination unit 165 proceeds to step S39.
  • the frequency flatness index calculation unit 163 calculates a frequency flatness index smth_idx indicating the flatness of the frequency spectrum from the smoothed synthesized level signal lev_frqs (k) for each band. Specifically, the frequency flatness index calculating unit 163 calculates the level variation for each frequency using, for example, the level dispersion for each frequency, and sets the calculated level variation as the frequency flatness index smth_idx. The frequency flatness index calculating unit 163 calculates the frequency flatness index smth_idx using, for example, the following equation (4).
  • lev_frqs_mean is an average value of the smoothed synthesis level signal lev_frqs (k).
  • the frequency flatness index calculating unit 163 calculates lev_frqs_mean using, for example, the following equation (5).
  • step S34 the determination part 165 determines whether the frequency spectrum of a synthetic
  • step S35 the determination unit 165 increments the counter value of the counter 166.
  • step S36 the determination unit 165 determines whether the sound collection level is sufficient and the specified number of flat spectrum states are maintained. Specifically, the determination unit 165 determines whether or not the counter value of the counter 166 is equal to or greater than a predetermined number of times cnt_thr. If the counter value is equal to or greater than the specified number of times cnt_thr (S36: YES), the determination unit 165 proceeds to step S37. The determination unit 165 determines that the counter value is less than the specified number of times cnt_thr (S36: NO, the process proceeds to step S40).
  • step S37 the determination unit 165 determines that there is unpleasant noise, and sets “1” indicating the presence of unpleasant noise in the control flag (ann_flg (n)) of the control signal output to the output unit 170.
  • n indicates the current time.
  • step S39 the determination unit 165 clears the counter value of the counter 166, and proceeds to step S40.
  • step S40 the determination unit 165 determines that there is no unpleasant sound, and sets “0” indicating no unpleasant sound in the control flag (ann_flg (n)) of the control signal output to the output unit 170.
  • step S38 the analysis result reflecting unit 180 receives the control flag (ann_flg (n)).
  • the analysis result reflecting unit 180 uses the first sound collector 110-1 (110) based on the smoothing control flag (ann_flg_smt (n)) smoothed by the smoothing unit 182 (that is, the smoothing control signal). -2) is suppressed by the variable attenuator 183.
  • the smoothing unit 182 of the analysis result reflecting unit 180 calculates a smoothing control flag (ann_flg_smt (n)) using, for example, a first-order integrator represented by the following formula (6).
  • is a value sufficiently smaller than 1.
  • Ann_flg_smt (n ⁇ 1) is a smoothing control flag at the previous time.
  • variable attenuation unit 183 of the analysis result reflecting unit 180 sets the input signal of the sound volume control unit to x (n), for example, using the following equation (7), the value of the output signal (output value) y (N) is calculated.
  • Att (n) is a value indicating the attenuation at time n.
  • the analysis result reflection unit 180 calculates att (n) using the following equation (8) based on the fixed maximum attenuation amount att_max.
  • the fixed maximum attenuation amount att_max is a parameter for determining the maximum attenuation amount of att (n), and is, for example, 0.5 when realizing a maximum suppression of 6 dB.
  • Such a sound processing apparatus 100 can reduce the reproduction volume of ambient sounds when an unpleasant sound is detected.
  • the sound processing apparatus 100 generates a synthesized level signal as a level signal of ambient sound in which both the head acoustic effect and the spatial aliasing phenomenon are reduced. Therefore, the sound processing apparatus 100 according to the present embodiment can detect unpleasant sounds with high accuracy and reliably reduce the volume of unpleasant sounds.
  • the signal used as the object of volume control by the analysis result reflection unit 180 is the first sound collection signal in the present embodiment, it is not limited to this.
  • the analysis result reflection unit 180 may perform volume control on the first collected sound signal that has been subjected to directivity characteristic synthesis processing, nonlinear compression processing, or the like.
  • the frequency band to be subjected to volume control by the analysis result reflecting unit 180 and the method of volume reduction are set to uniform volume reduction with respect to the entire frequency band (see Expression (6)). It is not limited to this.
  • the analysis result reflecting unit 180 may perform volume reduction only for a limited frequency band, or may reduce the volume more as the frequency becomes higher.
  • the analysis result reflecting unit is arranged in the right hearing aid in the present embodiment, but may be arranged in the left hearing aid.
  • the level signal transmission unit is disposed in the right hearing aid and transmits the first level signal to the left hearing aid.
  • the level signal synthesis unit, the detection / identification unit, and the output unit are arranged in the left hearing aid.
  • the frequency band that is the target of level signal synthesis is a high frequency band in each of the embodiments described above, but is not limited to this, and the directivity characteristics of sound collection differ greatly between the two sound collectors. Any frequency band may be used as long as it is used for analysis.
  • the level signal synthesis unit, the detection / identification unit, the output unit, and the analysis result reflection unit may be arranged separately from both hearing aids. In this case, a level signal transmission unit is required for both hearing aids.
  • the application of the present invention is not limited to hearing aids.
  • the present invention can be applied to various devices that analyze ambient sounds based on sound collection signals acquired by two sound collectors.
  • a device that can attach two microphones to the head such as a headphone stereo or a headset-integrated hearing aid Is mentioned.
  • the present invention can be applied to various devices that perform processing such as volume reduction and warning for alerting using the analysis result of ambient sound.
  • the sound collection signal is obtained for each sound collection signal.
  • a level signal converting unit that converts the level signal from which the phase information is removed, and a level signal combining unit that generates a combined level signal obtained by combining the level signals obtained from the collected sound signals of the two sound collectors, And a detection / identification unit that analyzes the ambient sound based on the synthesis level signal, and can improve the accuracy of the analysis of the ambient sound.
  • the acoustic processing device and the acoustic processing method according to the present invention are useful as an acoustic processing device and an acoustic processing method that can improve the accuracy of analysis of ambient sounds.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Otolaryngology (AREA)
  • Neurosurgery (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Obtaining Desirable Characteristics In Audible-Bandwidth Transducers (AREA)

Abstract

 周囲音の分析の精度を向上させることができる音響処理装置。音響処理装置(100)は、2つの収音器(第1の収音器110-1、第2の収音器110-2)がそれぞれ取得した収音信号に基づいて周囲音の分析を行う。音響処理装置(100)は、収音信号ごとに、収音信号を、位相情報が取り除かれたレベル信号に変換するレベル信号変換部(第1のレベル信号変換部130-1、第2のレベル信号変換部130-2)と、2つの収音器(第1の収音器110-1、第2の収音器110-2)の収音信号から得られるレベル信号を合成した合成レベル信号を生成するレベル信号合成部(140)と、合成レベル信号に基づいて周囲音の分析を行う検知・識別部(160)とを有する。

Description

音響処理装置および音響処理方法
 本発明は、2つの収音器の収音信号に基づいて周囲音の分析を行う音響処理装置および音響処理方法に関する。
 従来、周囲音の分析および各種検出を行う音響処理装置としては、例えば、特許文献1に記載の装置(以下「従来装置」という)があった。
 従来装置は、周囲音の分析対象の左右に取り付けられた2つの収音器からの収音信号を、音圧レベルを示すレベル信号にそれぞれ変換する。そして、従来装置は、左側の収音器の収音信号から得られたレベル信号に基づいて、左側の周囲音の分析を行う。また、従来装置は、右側の収音器の収音信号から得られたレベル信号に基づいて、右側の周囲音の分析を行う。これにより、従来装置は、広い範囲の方向について、音の到来方向の解析などの周囲音分析を行うことができる。
特開2000-98015号公報
 ところで、2つの収音器を用いる場合は、各音源からの音を異なる2つの点で収音することになる。したがって、従来装置は、方向ごとに2つの収音信号の両方を用いて分析を行うことにより、周囲音分析の精度の向上を図ることが考えられる。
 しかしながら、従来装置は、このような分析を行っても、周囲音の分析の精度を向上させることは難しいという課題がある。その理由は、以下の通りである。
 図1は、1つの収音器から得られるレベル信号の、周波数ごとの指向特性の実験結果を示す図である。ここでは、人の右耳に装着された収音器から得られたレベル信号の指向特性を示す。図中の半径方向の1目盛は、10dBである。また、方向は、人の正面方向を基準とし上方から見たときの時計回りの角度で、頭部に対する方向を定義する。
 図1において、線911~914は、順に、200Hz、400Hz、800Hz、1600Hzの周波数における各レベル信号の指向特性を示す。頭部の左側から右耳側へ到達する音は、頭部の存在による音響的な影響を強く受ける。したがって、図1に示すように、頭部の左側(270°付近)において、各周波数のレベル信号は減衰する。
 また、頭部による音響的な影響は、より高い周波数の音ほど強く受ける。図1の例では、例えば、1600Hzの周波数のレベル信号は、線914に示すように、240°付近において15dB程度も減衰する。
 このような減衰によるレベル信号の指向特性の不均一は、周囲音の分析対象が人の頭部以外である場合にも発生し得る。レベル信号の指向特性が不均一である場合、そのレベル信号が周囲音の状態を精度良く反映することができない。したがって、従来技術では、方向ごとに2つの収音信号の両方を用いて分析を行っても、周囲音の分析の精度を向上させることは困難である。
 本発明の目的は、周囲音の分析の精度を向上させることができる音響処理装置および音響処理方法を提供することである。
 本発明の音響処理装置は、2つの収音器がそれぞれ取得した収音信号に基づいて周囲音の分析を行う音響処理装置において、前記収音信号ごとに、前記収音信号を、位相情報が取り除かれたレベル信号に変換するレベル信号変換部と、前記2つの収音器の前記収音信号から得られる前記レベル信号を合成した合成レベル信号を生成するレベル信号合成部と、前記合成レベル信号に基づいて前記周囲音の分析を行う検知・識別部とを有する。
 本発明の音響処理方法は、2つの収音器がそれぞれ取得した収音信号に基づいて周囲音の分析を行う音響処理方法において、前記収音信号ごとに、前記収音信号を、位相情報が取り除かれたレベル信号に変換するステップと、前記2つの収音器の前記収音信号から得られる前記レベル信号を合成した合成レベル信号を生成するステップと、前記合成レベル信号に基づいて前記周囲音の分析を行うステップとを有する。
 本発明によれば、周囲音の分析の精度を向上させることができる。
従来技術における1つの収音器から得られるレベル信号の指向特性の実験結果を示す図 本発明の実施の形態1に係る音響処理装置の構成の一例を示すブロック図 本実施の形態1における右側補聴器の外観の一例を示す図 本実施の形態1における補聴器の装着状態を示す図 本実施の形態1における第1の周波数分析部の構成の一例を示すブロック図 本実施の形態1における第1の周波数分析部の構成の他の例を示すブロック図 位相情報が取り除かれる前の信号を合成する様子を模式的に示す図 本実施の形態1における位相情報が取り除かれた後の信号を合成する様子を模式的に示す図 図7の場合および図8の場合のそれぞれにおける、入射波信号の周波数に対する対数値特性を示す図 位相情報が取り除かれる前の信号を合成した場合の指向特性の実験結果を示す図 本実施の形態1における位相情報が取り除かれた後の信号を合成した場合の指向特性の実験結果を示す図 本実施の形態1に係る音響処理装置の動作の一例を示すフローチャート 本発明の実施の形態2に係る音響処理装置の構成の一例を示すブロック図 本実施の形態2に係る音響処理装置の動作の一例を示すフローチャート 本実施の形態2における最終的な合成レベル信号の指向特性の実験結果を示す図 本発明の実施の形態3に係る音響処理装置の要部構成を示すブロック図 本実施の形態3に係る音響処理装置の動作の一例を示すフローチャート 本発明の実施の形態4における検知・識別部の構成の一例を示す図 本発明の実施の形態4における分析結果反映部の構成の一例を示すブロック図 本実施の形態4に係る音響処理装置の動作の一例を示すフローチャート
 以下、本発明の各実施の形態について、図面を参照して詳細に説明する。
 (実施の形態1)
 本発明の実施の形態1は、本発明を、人の両耳に装着する1組の耳掛け型の補聴器に適用した例である。以下に説明する音響処理装置の各部は、1組の補聴器の内部に配置されたマイクロホン、スピーカ、CPU(central processing unit)、制御プログラムを格納したROM(read only memory)などの記憶媒体、および通信回路などのハードウェアにより実現されるものとする。
 また、以下、1組の補聴器のうち、右耳に装着される補聴器は、「右側補聴器」(第1の装置、第1サイドの補聴器)といい、左耳に装着される補聴器は、「左側補聴器」(第2の装置、第2サイドの補聴器)という。
 図2は、本実施の形態に係る音響処理装置の構成の一例を示すブロック図である。
 図2に示すように、音響処理装置100は、右側補聴器に配置された機能部として、第1の収音器(マイクロホン)110-1、第1の周波数分析部120-1、第1のレベル信号変換部130-1、レベル信号合成部140、検知・識別部160、出力部170、分析結果反映部(音声制御部)180、および音声出力部(スピーカ)190を有する。
 また、音響処理装置100は、左側補聴器に配置された機能部として、第2の収音器(マイクロホン)110-2、第2の周波数分析部120-2、第2のレベル信号変換部130-2、およびレベル信号伝送部150を有する。
 図3は、右側補聴器の外観の一例を示す図である。
 図3に示すように、右側補聴器300-1は、補聴器本体310、音響管320、およびイヤホン330を有する。なお、ここでは図示しないが、左側補聴器300-2も、左右対称の配置で、右側補聴器300-1と同様の外部構成を有する。
 図4は、補聴器の装着状態を示す図である。
 図4に示すように、右側補聴器300-1は、人の右耳に装着されて、頭部200の右側に固定される。また、左側補聴器300-2は、人の左耳に装着されて、頭部200の左側に固定される。
 図2に戻って説明を続ける。第1の収音器110-1は、右側補聴器300-1の補聴器本体310の中に収められた、無指向性マイクロホンである(図4参照)。第1の収音器110-1は、スリット等の穴を介して頭部200の周囲音の収音を行い、第1の収音信号を生成する。そして、第1の収音器110-1は、生成した第1の収音信号を、第1の周波数分析部120-1および分析結果反映部180へ出力する。
 第1の周波数分析部120-1は、第1の収音信号を、周波数帯域ごとの周波数信号に変換し、第1の周波数信号として、第1のレベル信号変換部130-1へ出力する。本実施の形態では、第1の周波数分析部120-1は、複数の周波数帯域のそれぞれについて、第1の周波数信号を生成する。第1の周波数分析部120-1は、周波数信号への変換を、例えば、複数のバンドバスフィルタを用いて行ってもよいし、時間波形を周波数スペクトルに変換するFFT(Fast Fourier Transform)により行ってもよい。
 図5は、N分割フィルタバンクを用いた第1の周波数分析部120-1の構成の一例を示すブロック図である。図5に示すように、第1の周波数分析部120-1は、例えば、N個のバンドパスフィルタ400-1~400-Nで構成される。バンドパスフィルタ400-1~400-Nは、それぞれ異なる通過帯域で、第1の収音信号に対するフィルタリングを行う。
 図6は、FFTを用いた第1の周波数分析部120-1の構成の一例を示すブロック図である。図6に示すように、第1の周波数分析部120-1は、例えば、分析窓処理部501およびFFT処理部502を有する。分析窓処理部501は、第1の収音信号に対して、分析窓を掛ける。この分析窓としては、スペクトルリーク防止と周波数分解能の観点から、後段の検知・識別に適合した窓関数が選択される。FFT処理部502は、分析窓を掛けられて得られる信号を、時間波形から周波数信号へと変換する。すなわち、この場合の第1の周波数分析部120-1が出力する第1の周波数信号は、複素周波数スペクトルとなる。
 図2に示す第1のレベル信号変換部130-1は、第1の周波数信号を、音圧レベルを示す信号に変換し、第1のレベル信号として、レベル信号合成部140へ出力する。すなわち、第1のレベル信号変換部130-1は、第1の周波数信号を、位相情報が取り除かれた第1のレベル信号に変換する。本実施の形態では、第1のレベル信号変換部130-1は、第1の周波数信号の絶対値を取った信号を、第1のレベル信号として生成するものとする。すなわち、第1のレベル信号は、第1の周波数信号の絶対値振幅とする。なお、第1の周波数信号がFFTによる複素周波数スペクトルである場合、第1のレベル信号は、振幅スペクトルあるいはパワスペクトルとなる。
 また、第2の収音器110-2は、左側補聴器に収められた無指向性マイクロホンであり、第1の収音器110-1と同様にして頭部200の周囲音の収音により第2の収音信号を生成し、第2の周波数分析部120-2へ出力する。
 第2の周波数分析部120-2は、第1の周波数分析部120-1と同様にして第2の収音信号を周波数信号に変換し、第2の周波数信号として、第2のレベル信号変換部130-2へ出力する。
 レベル信号伝送部150は、左側補聴器で生成された第2のレベル信号を、右側補聴器に配置されたレベル信号合成部140へ伝送する。レベル信号伝送部150は、伝送の手段として、無線通信および有線通信を用いることができる。但し、レベル信号伝送部150の伝送形態は、全帯域の第2のレベル信号を伝送することが可能な十分な伝送容量を確保できるものが採用される。
 レベル信号合成部140は、第1のレベル信号と第2のレベル信号とを合成した合成レベル信号を生成し、検知・識別部160へ出力する。本実施の形態では、レベル信号合成部140は、第1のレベル信号と第2のレベル信号とを、周波数帯域ごとに加算して得られる信号を、合成レベル信号とするものとする。
 検知・識別部160は、合成レベル信号に基づいて、補聴器を装着した人の頭部の周囲音の分析を行い、その分析結果を出力部170へ出力する。この分析は、例えば、周波数帯域ごとの合成レベル信号に応じた、各種の検知や識別である。
 出力部170は、周囲音の分析結果を、分析結果反映部180へ出力する。
 分析結果反映部180は、周囲音の分析結果に応じた各種の処理を行う。この処理は、収音信号に対して音声出力部190に音波として拡声するまでに行う各種信号処理であり、例えば、指向特性合成や各種抑圧制御を含む。また、この処理は、周囲音から所定の音が検知されたことを条件として所定の警告を行うことを含む。
 音声出力部190は、右側補聴器300-1の補聴器本体310の中に収められた、小型のスピーカである(図4参照)。音声出力部190は、第1の収音信号を音に変換して出力(拡声)する。なお、音声出力部190の出力音声は、音響管320を通り、耳穴に埋め込まれるイヤホン330から、耳穴内に発せられる。
 このような音響処理装置100は、第1のレベル信号および第2のレベル信号を合成して、合成レベル信号を生成し、この合成レベル信号に基づいて周囲音の分析を行う。これにより、音響処理装置100は、第1のレベル信号に発生する減衰を第2のレベル信号で補い、第2のレベル信号に発生する減衰を第1のレベル信号で補うような周囲音のレベル信号を、合成レベル信号として得ることができる。
 しかも、音響処理装置100は、位相情報が取り除かれた信号である第1のレベル信号および第2のレベル信号を合成するため、それぞれ音圧レベルを示す情報を相殺させることなく、上述の合成レベル信号を得ることができる。
 ここで、位相情報が取り除かれる前の信号(例えば周波数信号)ではなく、位相情報が取り除かれた後の信号(ここではレベル信号)を合成することによる効果について説明する。
 レベル信号の指向特性の不均一を緩和し、音源方向に依存しない周波数スペクトルや音圧感度レベルを得るためには、上述の通り、第1のレベル信号と第2のレベル信号との合成レベル信号を用いることが考えられる。すなわち、単純に、第1の収音器110-1から生成される第1の周波数信号と、第2の収音器110-2から生成される第2の周波数信号とを加算することが考えられる。これは、位相情報が取り除かれる前の信号を合成することに相当する。
 図7は、位相情報が取り除かれる前の信号を合成する様子を模式的に示す図である。
 ここでは、簡単のため、図7に示すように、第1の収音器110-1および第2の収音器110-2が直線状に並んでいるものとする。図7に示すように、第1の収音器110-1および第2の収音器110-2から生成される第1の周波数信号および第2の周波数信号は、そのまま加算される。そして、加算後の信号は、絶対値が取られ、合成レベル信号(output1)として出力される。合成レベル信号は、いわば第1の収音器110-1および第2の収音器110-2により構成される無指向性マイクロホンアレイの出力振幅値となる。
 この状態で、θinの方向から、周波数fの音源(入射波信号)が平面波として第1の収音器110-1および第2の収音器110-2に入射したとする。この場合、入射波信号の周波数に対する出力振幅値(output1)で示されるアレイ出力振幅特性|H1(ω,θin)|は、以下の式(1)で表される。但し、dはマイク間距離(m)であり、cは音速(m/sec)であり、ωはω=2×π×fで表される入射波信号の角周波数である。
Figure JPOXMLDOC01-appb-M000001
 式(1)において、第2の周波数信号の位相項に相当するエクスポネンシャルにおける、-ω{(dsinθin)/c}がπに近付くと、右辺の絶対値は0に近付く。すると、左辺の|H1(ω,θin)|は極小となり、ディップが生じる。すなわち、第1の周波数信号と第2の周波数信号とは、第1の収音器110-1に到達する音波と第2の収音器110-2に到達する音波の位相差により、相殺し得る。
 図8は、位相情報が取り除かれた後の信号を合成する様子を模式的に示す図であり、図7に対応するものである。
 図8に示すように、第1の収音器110-1および第2の収音器110-2から生成される第1の周波数信号および第2の周波数信号は、その絶対値を取った第1のレベル信号および第2のレベル信号にそれぞれ変換される。そして、絶対値に変換された第1のレベル信号と第2のレベル信号は、加算され、合成レベル信号(output2)として出力される。合成レベル信号は、いわば第1の収音器110-1および第2の収音器110-2により構成される無指向性マイクロホンアレイの出力振幅値となる。
 この場合、入射波信号の周波数に対する出力振幅値(output2)で示されるアレイ出力振幅特性|H2(ω,θin)|は、以下の式(2)で表される。
Figure JPOXMLDOC01-appb-M000002
 式(2)では、式(1)とは異なり、右辺は、条件によらず一定の値(=2)を取るため、ディップは生じない。すなわち、第1の周波数信号と第2の周波数信号とは、第1の収音器110-1に到達する音波と第2の収音器110-2に到達する音波の位相差があっても、これに起因して相殺することはない。
 図9は、図7の場合および図8の場合のそれぞれにおける、入射波信号の周波数に対する対数値特性を示す図である。ここでは、マイク間距離dを、頭部を介した左右の耳の間の距離に相当する0.16(m)とし、入射角θinを30(度)とした場合の、対数値特性の実験結果を示す。
 図9に示すように、位相情報が取り除かれる前の信号を合成する場合(第あ7参照)の、出力振幅値(output1)の対数値特性921(|H1(ω,θin)|)は、低周波数帯域では比較的一定である。しかし、出力振幅値(output1)の対数値特性921(|H1(ω,θin)|)は、周波数が高くなると変動し、例えば1600Hzにおいては約8dBほど減衰している。この減衰は、第1の収音器110-1と第2の収音器110-2の距離(両耳間距離)と、音波の波長との関係(式(1)参照)で生じる空間エイリアジング現象に起因する。このような空間エイリアジング現象によるレベル信号の局所的な減衰は、以下、「ディップ」という。
 一方、図9に示すように、位相情報が取り除かれた後の信号を合成する場合(第あ8参照)の、出力振幅値(output2)の対数値特性922(|H2(ω,θin)|)は、減衰せず、入射波信号の周波数によらずに一定の値である。
 図10は、位相情報が取り除かれる前の信号を合成した場合(図7参照)の周波数ごとの指向特性の実験結果を示す図であり、図1に対応するものである。
 図10に示すように、1600Hzの周波数におけるレベル信号の指向特性914は、例えば30度方向および330度方向においてディップを有する。これは、図9で説明した対数値特性の減衰によるものである。
 図11は、位相情報が取り除かれた後の信号を合成した場合(図8参照)の周波数ごとの指向特性の実験結果を示す図であり、図1および図10に対応するものである。
 図11に示すように、各周波数におけるレベル信号の指向特性911~914は、いずれもディップを有さない。
 このように、位相情報が取り除かれた後の信号(ここではレベル信号)を合成することにより、空間エイリアジング現象によるディップの発生を回避し、均一な指向特性を有するレベル信号として、合成レベル信号が得られる。
 音響処理装置100は、上述のように、第1のレベル信号変換部130-1および第2のレベル信号変換部130-2を有し、位相情報が取り除かれた後のレベル信号を加算する。このため、音響処理装置100は、空間エイリアジングにより発生する位相干渉を回避することができ、図11に示すような、音波の到来方向に依存しない均一な音圧周波数特性(均一な周波数毎の指向特性)を得ることができる。
 このように、本実施の形態に係る音響処理装置100は、位相情報が取り除かれた後の信号を合成することにより、周波数によらずに均一な振幅特性を得ることができる。したがって、音響処理装置100は、2つの信号の合成によりかえって周囲音の振幅特性が悪化するといった事態を防ぎつつ、2つの信号の合成による指向特性の均一化を図ることができる。
 以下、音響処理装置100の動作について説明する。
 図12は、音響処理装置100の動作の一例を示すフローチャートである。音響処理装置100は、例えば、図12に示す動作を、電源が投入されたときや分析に関する機能がオンになったときに開始し、電源が切られたときや分析に関する機能がオフになったときに終了する。
 まず、ステップS1において、第1の周波数分析部120-1は、第1の収音器110-1から入力される収音信号を、複数の第1の周波数信号に変換する。また、同様に、第2の周波数分析部120-2は、第2の収音器110-2から入力される収音信号を、複数の第2の周波数信号に変換する。例えば、第1の周波数分析部120-1および第2の周波数分析部120-2は、図5で説明したフィルタバンクを用いた構成となっているものとする。この場合、第1の周波数信号および第2の周波数信号は、各バンドバスフィルタにより帯域制限された時間波形である。
 そして、ステップS2において、第1のレベル信号変換部130-1は、第1の周波数分析部120-1から出力される第1の周波数信号から、位相情報が取り除かれた第1のレベル信号を生成する。同様に、第2のレベル信号変換部130-2は、第2の周波数分析部120-2から出力される第2の周波数信号から、位相情報が取り除かれた第2のレベル信号を生成する。この第2のレベル信号は、レベル信号伝送部150を介して、右側補聴器のレベル信号合成部140へ伝送される。なお、この際、レベル信号伝送部150は、時間軸上で情報を間引かれた第2のレベル信号(圧縮された第2のレベル信号)を伝送してもよい。これにより、レベル信号伝送部150は、伝送データ量を削減することができる。
 そして、ステップS3において、レベル信号合成部140は、第1のレベル信号と第2のレベル信号とを加算して、合成レベル信号を生成する。
 そして、ステップS4において、検知・識別部160は、合成レベル信号を用いて、検知・識別処理を行う。ここでの検知・識別処理は、比較的広帯域な可聴帯域信号を対象として、スペクトルの平坦性やスペクトル形状などを検知・識別する処理であり、例えば広帯域ノイズ識別処理である。そして、出力部170は、検知・識別結果を出力する。
 そして、ステップS5において、分析結果反映部180は、検知・識別結果に応じて第1の収音信号に対する音声制御を行い、ステップS1へ戻る。
 このように、本実施の形態に係る音響処理装置100は、頭部の左右に装着された2つの収音器から得られる2つの信号を、位相情報を取り除いた後に加算して合成する。このようにして得られる信号(本実施の形態では合成レベル信号)は、上述の通り、入射波の周波数によらず頭部周囲に均一な指向特性を有する。したがって、音響処理装置100は、頭部の音響的影響と空間エイリアジング現象との両方を低減した信号に基づいて周囲音を分析することができ、周囲音の分析の精度を向上させることができる。すなわち、音響処理装置100は、ディップによる特定方向の誤検知や誤識別を低減することができる。
 更に、音響処理装置100は、音源の移動や頭部の回転(首振り)などにより、2つの収音器に対する入射波の到来角度が変化した場合でも、周波数特性の変化が少なくなり、安定した頭部周囲音の検知・識別が可能となる。
 (実施の形態2)
 本発明の実施の形態2は、頭部の音響的影響が少ない周波数帯域の信号、つまり、収音の指向特性が2つの収音器の間で大きく異ならない周波数帯域のレベル信号を、伝送せず、左右間での合成の対象としないようにした例である。言い換えると、本実施の形態は、第2のレベル信号のうち、全周波数ではなく、頭部の影響による減衰が大きい高域の部分のみを伝送し、第1のレベル信号と合成することで、伝送データ量を削減するようにした例である。
 図1の、例えば200Hz、400Hz付近の特性からも明らかなように、低周波数帯域のレベル信号には、頭部側で若干の感度低下があるものの、大きな指向特性の乱れや偏りがない。これは、頭部の大きさより十分波長が長い(頭部の最長部の3~5倍程度以上の)低周波数帯域においては、音波の回折により、指向特性に対する頭部による影響を受け難くなるからである。すなわち、低周波数帯域では、収音の指向特性は、2つの収音器の間で近似している。
 そこで、本実施の形態では、低周波数帯域のレベル信号については左右間での合成の対象としないようにする。すなわち、本実施の形態に係る音響処理装置は、頭部の影響を受けにくい低周波数帯域域については、左右のレベル信号の加算や一方の伝送を省略する。
 なお、以下の説明において、「低域」とは、図4に示す補聴器を装着した状態において、可聴周波数帯域のうち、収音の指向特性が2つの収音器の間で大きく異ならない周波数帯域をいう。具体的には、「低域」とは、実験等により定められた特定の境界周波数を下回る周波数帯域をいう。また、「高域」とは、可聴周波数帯域のうち「低域」ではない周波数帯域をいう。人の頭部の大きさはほぼ一定であり、400Hz~800Hz以下の周波数帯域が、頭部の影響を受けにくい周波数帯域である。したがって、音響処理装置は、例えば800Hzを境界周波数とする。
 図13は、本実施の形態に係る音響処理装置の構成の一例を示すブロック図であり、実施の形態1の図2に対応するものである。図2との対応部分には同一符号を付し、これについての説明を省略する。
 図13において、音響処理装置100aの第1のレベル信号変換部130a-1は、第1の高域レベル信号変換部131a-1および低域レベル信号変換部132aを有する。音響処理装置100aの第2のレベル信号変換部130a-2は、第2の高域レベル信号変換部131a-2を有する。また、音響処理装置100aは、実施の形態1とはそれぞれ処理の対象が異なる、レベル信号合成部140a、レベル信号伝送部150a、および検知・識別部160aを有する。
 第1の高域レベル信号変換部131a-1は、第1の周波数信号のうち、高域の周波数信号を、音圧レベルを示す信号に変換する。そして、第1の高域レベル信号変換部131a-1は、変換後の信号を、第1の高域レベル信号として、レベル信号合成部140aへ出力する。
 低域レベル信号変換部132aは、第1の周波数信号のうち、低域の周波数信号を、音圧レベルを示す信号に変換する。そして、低域レベル信号変換部132aは、変換後の信号を、低域レベル信号として、検知・識別部160aへ出力する。
 第2の高域レベル信号変換部131a-2は、第2の周波数信号のうち、高域の周波数信号を、音圧レベルを示す信号に変換する。そして、第2の高域レベル信号変換部131a-2は、変換後の信号を、第2の高域レベル信号として、レベル信号伝送部150aへ出力する。
 レベル信号伝送部150aには、第2の高域レベル信号のみが入力され、第2の周波数信号の低域についてのレベル信号は入力されない。したがって、レベル信号伝送部150aは、実施の形態1において伝送される第2のレベル信号のうち、低域のレベル信号を伝送しない。
 レベル信号合成部140aは、第1の高域レベル信号と第2の高域レベル信号とを合成した合成レベル信号を生成し、検知・識別部160aへ出力する。
 検知・識別部160aは、合成レベル信号と低域レベル信号とに基づいて周囲音の分析を行い、その分析結果を出力部170へ出力する。例えば、検知・識別部160aは、低域レベル信号を2倍にした信号と合成レベル信号とを合わせた信号に基づいて、周囲音の分析を行う。
 なお、第2のレベル信号変換部130a-2は、実施の形態1と同様に低域についてもレベル信号を生成してもよい。この場合、検知・識別部160aは、入力された全てのレベル信号(つまり実施の形態1における第2のレベル信号)から高域のレベル信号のみを、第2の高域レベル信号として抽出し、伝送する。
 図14は、音響処理装置100aの動作の一例を示すフローチャートであり、実施の形態1の図12に対応するものである。図12と同一部分には同一ステップ番号を付し、これについての説明を省略する。
 ステップS2aにおいて、第1のレベル信号変換部130a-1は、第1の周波数信号から、第1の高域レベル信号および低域レベル信号を生成する。また、第2のレベル信号変換部130a-2は、第2の周波数信号から、第2の高域レベル信号を生成する。この第2の高域レベル信号は、レベル信号伝送部150aを介して、右側補聴器のレベル信号合成部140aへ伝送される。
 そして、ステップS3aにおいて、レベル信号合成部140aは、第2の高域レベル信号を第1の高域レベル信号と加算して、合成レベル信号を生成する。
 そして、ステップS4aにおいて、検知・識別部160aは、高域の合成レベル信号と低域レベル信号とを合成して得られる最終的な合成レベル信号を用いて、検知・識別処理を行う。
 図15は、本実施の形態における最終的な合成レベル信号の、周波数ごとの指向特性の実験結果を示す図であり、図1および図10に対応するものである。ここでは、第1の周波数分析部120-1および第2の周波数分析部120-2にフィルタバンクを用い、境界周波数を800Hzとした場合の例を示す。
 図15に示すように、800Hz、1600Hzの高域の指向特性913、914だけでなく、200Hz、400Hzの低域の指向特性911、912も、図1よりも均一となっていることが分かる。すなわち、本実施の形態において分析の対象となる信号は、従来に比べ、指向特性の均一性が改善されていることが分かる。高域については実施の形態1と同様に2つの収音信号から生成されたレベル信号を合成しているため、図10のようなディップも見られない。
 このような音響処理装置100aは、収音の指向特性が第1の収音器と第2の収音器と間で大きく異ならない周波数帯域のレベル信号については、伝送せず、左右間での合成の対象としない。すなわち、音響処理装置100aは、第2の収音信号の高域から生成した第2の高域レベル信号のみを伝送する。これにより、音響処理装置100aは、伝送するデータ量を低減することができ、無線伝送路のように伝送容量が少ない場合でも、比較的均一な指向特性の信号を用いた検出・識別処理が可能となる。したがって、音響処理装置100aは、補聴器の小型化や省電力化を図ることができる。
 (実施の形態3)
 本発明の実施の形態3は、可聴周波数領域のうち限られた周波数帯域の信号のみを用いて周囲音の分析を行う例である。ここでは、高域の1点の周波数(以下「高域特定周波数」という)の収音信号のレベル信号と、低域の1点の周波数(以下「低域特定周波数」という)の収音信号のレベル信号とのみに基づいて、合成レベル信号を生成する例について説明する。
 図16は、本実施の形態に係る音響処理装置の要部構成を示すブロック図であり実施の形態2の図13に対応するものである。図13との対応部分には同一符号を付し、これについての説明を省略する。
 図16において、音響処理装置100bの第1の周波数分析部120b-1は、第1の高域信号抽出部121b-1および低域信号抽出部122bを有する。音響処理装置100bの第2の周波数分析部120b-2は、第2の高域信号抽出部121b-2を有する。音響処理装置100bの第1のレベル信号変換部130a-1は、実施の形態2とはそれぞれ処理の対象が異なる、第1の高域レベル信号変換部131b-1および低域レベル信号変換部132bを有する。音響処理装置100bの第2のレベル信号変換部130a-2は、実施の形態2とは処理の対象が異なる、第2の高域レベル信号変換部131b-2を有する。また、音響処理装置100bは、実施の形態2とはそれぞれ処理の対象が異なる、レベル信号合成部140b、レベル信号伝送部150b、および検知・識別部160bを有する。
 第1の高域信号抽出部121b-1は、第1の収音信号から高域特定周波数の成分のみを抽出した周波数信号(以下「高域特定周波数の第1の周波数信号」という)を、第1の高域レベル信号変換部131b-1へ出力する。第1の高域信号抽出部121b-1は、例えば、境界周波数に基づいてカットオフ周波数が決定されたHPF(high pass filter)を用いて、高域特定周波数の成分の抽出を行う。
 第2の高域信号抽出部121b-2は、第1の高域信号抽出部121b-1と同様である。第2の高域信号抽出部121b-2は、第2の収音信号から高域特定周波数の成分のみを抽出した周波数信号(以下「高域特定周波数の第2の周波数信号」という)を、第2の高域レベル信号変換部131b-2へ出力する。
 低域信号抽出部122bは、第1の収音信号から低域特定周波数の成分のみを抽出した周波数信号(以下「低域特定周波数の周波数信号」という)を、低域レベル信号変換部132bへ出力する。低域信号抽出部122bは、例えば、境界周波数に基づいてカットオフ周波数が決定されたLPF(low pass filter)を用いて、低域特定周波数の成分の抽出を行う。
 第1の高域レベル信号変換部131b-1は、高域特定周波数の第1の周波数信号を、音圧レベルを示す信号に変換し、高域特定周波数の第1のレベル信号として、レベル信号合成部140bへ出力する。
 第2の高域レベル信号変換部131b-2は、高域特定周波数の第2の周波数信号を、音圧レベルを示す信号に変換し、高域特定周波数の第2のレベル信号として、レベル信号伝送部150bへ出力する。
 低域レベル信号変換部132bは、低域特定周波数の周波数信号を、音圧レベルを示す信号に変換し、低域特定周波数のレベル信号として、検知・識別部160bへ出力する。
 レベル信号伝送部150bには、高域特定周波数の第2のレベル信号のみが入力される。したがって、レベル信号伝送部150bは、実施の形態2において伝送される第2の高域レベル信号のうち、高域特定周波数以外のレベル信号を伝送しない。
 レベル信号合成部140bは、高域特定周波数の第1のレベル信号と高域特定周波数の第2のレベル信号とを合成した合成レベル信号を生成し、検知・識別部160bへ出力する。
 検知・識別部160bは、合成レベル信号と低域特定周波数のレベル信号とに基づいて周囲音の分析を行い、その分析結果を出力部170へ出力する。例えば、検知・識別部160bは、低域特定周波数のレベル信号を2倍にした信号と合成レベル信号とを合わせた信号に基づいて、周囲音の分析を行う。本実施の形態における合成レベル信号と低域特定周波数のレベル信号との組は、つまり、高域特定周波数と低域特定周波数の2点のみ周波数スペクトル情報を含む。したがって、検知・識別部160bは、2点の周波数スペクトルにのみ着目した、比較的単純な検知・識別処理を行う。
 図17は、音響処理装置100bの動作の一例を示すフローチャートであり、実施の形態2の図14に対応するものである。図14と同一部分には同一ステップ番号を付し、これについての説明を省略する。
 まず、ステップS1bにおいて、第1の高域信号抽出部121b-1は、第1の収音信号から、高域特定周波数の第1の周波数信号を抽出する。第2の高域信号抽出部121b-2は、第2の収音信号から、高域特定周波数の第2の周波数信号を抽出する。また、低域信号抽出部122bは、第1の収音信号から、低域特定周波数の周波数信号を抽出する。
 そして、ステップS2bにおいて、第1の高域レベル信号変換部131b-1は、高域特定周波数の第1の周波数信号から、高域特定周波数の第1のレベル信号を生成する。第2の高域レベル信号変換部131b-2は、高域特定周波数の第2の周波数信号から、高域特定周波数の第2のレベル信号を生成する。また、低域レベル信号変換部132bは、低域特定周波数の周波数信号から、低域特定周波数のレベル信号を生成する。
 そして、ステップS3bにおいて、レベル信号合成部140bは、高域特定周波数の第2のレベル信号を高域特定周波数の第1のレベル信号と加算して、合成レベル信号を生成する。
 そして、ステップS4bにおいて、検知・識別部160bは、高域特定周波数の合成レベル信号と低域特定周波数のレベル信号とを合成して得られる最終的な合成レベル信号を用いて、検知・識別処理を行う。
 このような音響処理装置100bは、収音の指向特性が2つの収音器の間で大きく異なる周波数帯域(高域)の一部の周波数帯域のレベル信号のみを、補聴器間で伝送する。すなわち、音響処理装置100bは、分析精度との関係で不要なレベル信号については、伝送しない。これにより、音響処理装置100bは、補聴器間の伝送容量が極端に少ない場合でも、均一な音圧周波数特性の合成信号に基づいて、周囲音の分析を行うことができる。
 なお、伝送の対象となる周波数は、本実施の形態では高域特定周波数および低域特定周波数の2点としたが、これに限定されず、少なくとも収音の指向特性が2つの収音器の間で大きく異なる周波数の1点を含めばよい。例えば、伝送の対象となる周波数は、高域の他の1点のみであってもよいし、3以上であってもよい。
 (実施の形態4)
 特に補聴器の場合、収音器の近くでビニールを丸めるときの音のような不快音がそのまま音声出力部から出力されてしまうことは好ましくない。そこで、本発明の実施の形態4として、収音信号から所定の音の検知を行い、所定の音が検知されたことを条件として音量を低減する処理を行うようにした場合の、具体的構成および動作の一例について説明する。
 通常、環境騒音(空調音あるいは機械音)や、音声(人の発話音声)の周波数スペクトルエネルギーは、主に低周波数帯域に存在する。例えば、音声の周波数スペクトルエネルギーは、主に1kHz以下の帯域に集中している。そして、音声においては、低周波数帯域から高周波数帯域にかけての長時間スペクトル傾斜は、1kHz付近を境に-6dB/octで高域に向かって減衰する形となっている。一方、上述の不快音は、低周波数帯域から高周波数帯域にかけて比較的平坦な、白色雑音に近いスペクトル特性を持つ。すなわち、このような不快音は、その振幅スペクトルが比較的平坦であるという性質を持つ。そこで、本実施の形態に係る音響処理装置は、振幅スペクトルが平坦か否に基づいて、不快音の検知を行う。そして、本実施の形態に係る音響処理装置は、このような不快音を検知した場合に、再生音の音量を抑圧して聞こえの不快感の緩和を図る。
 図18は、本実施の形態における検知・識別部の構成の一例を示す図である。この検知・識別部は、実施の形態1の図2に示す検知・識別部160として用いられるものである。
 図18において、検知・識別部160は、平滑化部162、周波数平坦性指標算出部163、全帯域レベル信号算出部164、判定部165、およびカウンタ166を有する。
 平滑化部162は、レベル信号合成部140から入力された合成レベル信号を平滑化し、平滑化合成レベル信号を生成する。そして、平滑化部162は、生成した平滑化合成レベル信号を、周波数平坦性指標算出部163および全帯域レベル信号算出部164へ出力する。平滑化部162は、例えば、例えばLPFを用いて、合成レベル信号に対する平滑処理を行う。
 周波数平坦性指標算出部163は、平滑化合成レベル信号を用いて、基の合成レベル信号の周波数軸上における平坦性の検証を行い、その平坦性の度合いを示す周波数平坦性指標を算出する。そして、周波数平坦性指標算出部163は、算出した周波数平坦性指標を、判定部165へ出力する。
 全域レベル信号算出部164は、平滑化合成レベル信号を用いて、所定の全周波数帯域(例えば可聴帯域)における全周波数レベルを算出し、算出結果を、判定部165へ出力する。
 判定部165は、周波数平坦性指標と全周波数レベルとに基づいて、周囲音に不快音が含まれるか否かを判定し、不快音判定結果を、出力部170へ出力する。より具体的には、判定部165は、カウンタ166を用いて、周囲音に不快音が含まれると連続して判定した時間長さ(以下「連続判定時間」という)を、不快音が持続している時間長さとしてカウントする。そして、判定部165は、連続判定時間が所定の閾値を超えている間は、不快音が検知された旨を示す判定結果を出力し、連続判定時間が所定の閾値を超えていない間は、不快音が検知されていない旨を示す判定結果を出力する。
 このような検知・識別部160は、合成レベル信号に基づいて、不快音の検知を行うことができる。
 出力部170は、本実施の形態では、入力される判定結果に応じて制御フラグのオンオフが切り替わる制御信号を、分析結果反映部180に出力するものとする。
 図19は、分析結果反映部180の構成の一例を示すブロック図である。
 平滑化部182は、出力部170からの制御信号を平滑化し、平滑化制御信号を生成する。そして、平滑化部182は、生成した平滑化制御信号を、可変減衰部183へ出力する。すなわち、平滑化制御信号は、制御信号が示すオンオフに応じて、音量を滑らかに変化させるための信号である。平滑化部182は、例えば、例えばLPFを用いて、制御信号に対する平滑処理を行う。
 可変減衰部は、平滑化制御信号に基づいて、第1の収音信号に対して、不快音が検知されたことを条件として音量を低減する処理を行い、かかる処理を施した第1の収音信号を、音声出力部190へ出力する。
 図20は、本実施の形態に係る音響処理装置100の動作の一例を示すフローチャートであり、実施の形態1の図12に対応するものである。図12と同一部分には同一ステップ番号を付し、これについての説明を省略する。
 ステップS30において、検知識別部160の平滑化部162は、合成レベル信号を周波数帯域ごとに平滑化し、平滑化合成レベル信号lev_frqs(k)を算出する。kは、帯域分割インデックスであり、例えば図5に示すN分割フィルタバンクを用いる場合、kは0~N-1の範囲の値を取る。以下、N個の周波数帯域ごとに合成レベル信号が得られているものとする。
 そして、ステップS31において、全帯域レベル信号算出部164は、帯域ごとの平滑化合成レベル信号lev_frqs(k)を全てのkについて加算して、全帯域レベル信号lev_all_frqsを算出する。全帯域レベル信号算出部164は、例えば、以下の式(3)を用いて、全帯域レベル信号lev_all_frqsを算出する。
Figure JPOXMLDOC01-appb-M000003
 そして、ステップS32において、判定部165は、まず、第1の収音信号が抑圧処理を行うほどの十分なレベルか否かを判定する。具体的には、判定部165は、全帯域レベル信号lev_all_frqsが、予め定めた規定値lev_thr以上であるか否かを判断する。そして、判定部165は、全帯域レベル信号lev_all_frqsが規定値lev_thr以上である場合(S32:YES)、ステップS33へ進む。また、判定部165は、全帯域レベル信号lev_all_frqsが規定値lev_thr未満である場合(S32:NO)、ステップS39へ進む。
 ステップS33において、周波数平坦性指標算出部163は、帯域ごとの平滑化合成レベル信号lev_frqs(k)から、周波数スペクトルの平坦性を示す周波数平坦性指標smth_idxを算出する。具体的には、周波数平坦性指標算出部163は、例えば、周波数ごとのレベルの分散を用いて、周波数ごとのレベルばらつきを算出し、算出したレベルばらつきを、周波数平坦性指標smth_idxとする。周波数平坦性指標算出部163は、例えば、以下の式(4)を用いて、周波数平坦性指標smth_idxを算出する。
Figure JPOXMLDOC01-appb-M000004
 但し、式(4)において、lev_frqs_meanは、平滑化合成レベル信号lev_frqs(k)の平均値である。周波数平坦性指標算出部163は、例えば、以下の式(5)を用いて、lev_frqs_meanを算出する。
Figure JPOXMLDOC01-appb-M000005
 そして、ステップS34において、判定部165は、合成レベル信号の周波数スペクトルが平坦かどうかを判定する。具体的には、判定部165は、周波数平坦性指標smth_idxが予め定めた規定値smth_thr以下であるか否かを判断する。判定部165は、周波数平坦性指標smth_idxが規定値smth_thr以下である場合(S34:YES)、ステップS35へ進む。また、判定部165は、周波数平坦性指標smth_idxが規定値smth_thrを超えている場合(S34:NO)、S39へ進む。
 ステップS35において、判定部165は、カウンタ166のカウンタ値をインクリメントする。
 そして、ステップS36において、判定部165は、収音レベルが十分あり、かつ、スペクトル平坦な状態が規定化数持続しているかを判定する。具体的には、判定部165は、カウンタ166のカウンタ値が予め定めた規定回数cnt_thr以上となっているか否かを判断する。判定部165は、カウンタ値が規定回数cnt_thr以上である場合(S36:YES)、ステップS37へ進む。また、判定部165は、カウンタ値が規定回数cnt_thr未満である場合(S36:NO、ステップS40へ進む。
 ステップS37において、判定部165は、不快音ありと判定し、出力部170へ出力する制御信号の制御フラグ(ann_flg(n))に、不快音ありを示す「1」をセットする。但し、nは現在時刻を示す。
 一方、ステップS39において、判定部165は、カウンタ166のカウンタ値をクリアして、ステップS40へ進む。
 そして、ステップS40において、判定部165は、不快音なしと判定し、出力部170へ出力する制御信号の制御フラグ(ann_flg(n))に、不快音なしを示す「0」をセットする。
 そして、ステップS38において、分析結果反映部180は、制御フラグ(ann_flg(n))を受ける。次に、分析結果反映部180は、平滑化部182で平滑化した平滑化制御フラグ(ann_flg_smt(n))(つまり平滑化制御信号)を基に、第1の収音器110-1(110-2)の収音信号を可変減衰部183にて抑圧する。
 分析結果反映部180の平滑化部182は、例えば、以下の式(6)で示される1次の積分器を用いて、平滑化制御フラグ(ann_flg_smt(n))を算出する。なお、αは、1より十分小さい値である。また、ann_flg_smt(n-1)は、1つ前の時刻の平滑化制御フラグである。
Figure JPOXMLDOC01-appb-M000006
 そして、分析結果反映部180の可変減衰部183は、音量制御部の入力信号をx(n)と置くと、例えば、以下の式(7)を用いて、出力信号の値(出力値)y(n)を算出する。
Figure JPOXMLDOC01-appb-M000007
 なお、式(7)におけるatt(n)は、時刻nにおける減衰量を示す値である。分析結果反映部180は、例えば、固定最大減衰量att_maxに基づき、以下の式(8)を用いて、att(n)を算出する。固定最大減衰量att_maxは、att(n)の最大減衰量を決定するパラメータであり、例えば最大6dBの抑圧を実現する場合には0.5である。
Figure JPOXMLDOC01-appb-M000008
 このような音響処理装置100は、不快音を検知したとき、周囲音の再生音量を低減することができる。また、実施の形態1で説明したとおり、音響処理装置100は、頭部の音響的影響と空間エイリアジング現象との両方を低減した周囲音のレベル信号として、合成レベル信号を生成する。したがって、本実施の形態に係る音響処理装置100は、不快音を高精度に検出し、不快音の音量低減を確実に行うことができる。
 なお、分析結果反映部180による音量制御の対象となる信号は、本実施の形態では第1の収音信号としたが、これに限定されない。例えば、分析結果反映部180は、指向特性合成処理や非線形圧縮処理などが施された後の第1の収音信号を対象として、音量制御を行うようにしてもよい。
 また、分析結果反映部180による音量制御の対象となる周波数帯域および音量低減の仕方は、本実施の形態では、全周波数帯域に対して一律な音量低減としたが(式(6)参照)、これに限定されない。例えば、分析結果反映部180は、限定された周波数帯域に対してのみ音量低減を行ったり、より高い周波数ほどより大きく音量を低減させるようにしてもよい。また、この場合、検知・識別部160は、低減の対象となる周波数帯域に関するパラメータのみを算出するようにしてもよい。すなわち、検知・識別部160は、例えば上述の式(3)~式(5)において、帯域インデックスk=2~N-2というように、帯域インデックスk=0~N-1の一部を用いて各種パラメータを算出してもよい。
 なお、以上説明した各実施の形態では、分析結果反映部は、本実施の形態では右側補聴器に配置されているとしたが、左側補聴器に配置されていてもよい。この場合、レベル信号伝送部は、右側補聴器に配置されて、第1のレベル信号を左側補聴器へ伝送する。そして、レベル信号合成部、検知・識別部、および出力部は、左側補聴器に配置される。
 また、レベル信号の合成の対象となる周波数帯域は、以上説明した各実施の形態では高域としたが、これに限定されず、収音の指向特性が2つの収音器の間で大きく異なり、かつ、分析に用いられる周波数帯域であればよい。
 また、レベル信号合成部、検知・識別部、出力部、および分析結果反映部は、両方の補聴器から分離して配置されていてもよい。この場合、両方の補聴器に、レベル信号伝送部が必要となる。
 また、本発明の適用は、補聴器に限定されない。本発明は、2つの収音器がそれぞれ取得した収音信号に基づいて周囲音の分析を行う各種の機器に適用することができる。このような機器としては、周囲音の分析の対象が人の頭部である場合には、例えば、ヘッドホンステレオや、ヘッドセット一体型の補聴器など、頭部に2つのマイクロホンが装着できるような機器が挙げられる。また、本発明は、周囲音の分析結果を用いて、音量低減や注意喚起のための警告などの処理を行う各種の装置に適用することができる。
 以上、本実施の形態に係る音響処理装置は、2つの収音器がそれぞれ取得した収音信号に基づいて周囲音の分析を行う音響処理装置において、前記収音信号ごとに、前記収音信号を、位相情報が取り除かれたレベル信号に変換するレベル信号変換部と、前記2つの収音器の前記収音信号から得られる前記レベル信号を合成した合成レベル信号を生成するレベル信号合成部と、前記合成レベル信号に基づいて前記周囲音の分析を行う検知・識別部と、を有するもので、周囲音の分析の精度を向上させることができる。
 2010年2月24日出願の特願2010-38903の日本出願に含まれる明細書、図面および要約書の開示内容は、すべて本願に援用される。
 本発明に係る音響処理装置および音響処理方法は、周囲音の分析の精度を向上させることができる音響処理装置および音響処理方法として有用である。
 100、100a、100b 音響処理装置
 110-1 第1の収音器
 110-2 第2の収音器
 120-1、120b-1 第1の周波数分析部
 120-2、120b-2 第2の周波数分析部
 121b-1 第1の高域信号抽出部
 121b-1 第1の高域信号抽出部
 122b 低域信号抽出部
 130-1、130a-1、130b-1 第1のレベル信号変換部
 130-2、130a-2、130b-2 第2のレベル信号変換部
 131a-1、131b-1 第1の高域レベル信号変換部
 131a-2、131b-2 第2の高域レベル信号変換部
 132a、132b 低域レベル信号変換部
 140、140a、140b レベル信号合成部
 150、150a、150b レベル信号伝送部
 160、160a、160b 検知・識別部
 162 平滑化部
 163 周波数平坦性指標算出部
 164 全帯域レベル信号算出部
 165 判定部
 166 カウンタ
 170 出力部
 180 分析結果反映部
 190 音声出力部
 300-1 右側補聴器
 300-2 左側補聴器
 310 補聴器本体
 320 音響管
 330 イヤホン

Claims (9)

  1.  2つの収音器がそれぞれ取得した収音信号に基づいて周囲音の分析を行う音響処理装置において、
     前記収音信号ごとに、前記収音信号を、位相情報が取り除かれたレベル信号に変換するレベル信号変換部と、
     前記2つの収音器の前記収音信号から得られる前記レベル信号を合成した合成レベル信号を生成するレベル信号合成部と、
     前記合成レベル信号に基づいて前記周囲音の分析を行う検知・識別部と、
     を有する、
     音響処理装置。
  2.  前記2つの収音器は、人の右耳に装着される第1の収音器および前記人の左耳に装着される第2の収音器である、
     請求項1記載の音響処理装置。
  3.  前記収音信号ごとに、前記収音信号を、周波数帯域ごとの周波数信号に変換する周波数分析部、
     を更に有し、
     前記レベル信号変換部は、
     前記周波数信号ごとに、前記周波数信号を、位相情報が取り除かれたレベル信号に変換し、
     前記レベル信号合成部は、
     前記2つの収音器の前記収音信号から得られる前記レベル信号を、前記周波数帯域ごとに加算して得られる信号を、前記合成レベル信号とする、
     請求項2記載の音響処理装置。
  4.  前記第1の収音器と前記第2の収音器とに対応して、前記周波数分析部および前記レベル信号変換部を2つずつ有し、
     前記第1の収音器を備え前記右耳に装着される第1の装置の内部に、前記第1の収音器に対応する前記周波数分析部および前記レベル信号変換部を配置し、
     前記第2の収音器を備え前記左耳に装着される第2の装置の内部に、前記第2の収音器に対応する前記周波数分析部および前記レベル信号変換部を配置し、
     前記第1の装置および前記第2の装置のいずれか一方の内部に、前記レベル信号合成部および前記検知・識別部を配置し、
     前記レベル信号合成部と共に配置されていない側で生成される前記レベル信号を、前記レベル信号合成部へ伝送するレベル信号伝送部、
     を更に有する、
     請求項3記載の音響処理装置。
  5.  前記レベル信号伝送部は、
     収音の指向特性が前記第1の収音器と前記第2の収音器と間で大きく異ならない周波数帯域の前記レベル信号を、前記レベル信号合成部に伝送しない、
     請求項4記載の音響処理装置。
  6.  前記レベル信号伝送部は、
     収音の指向特性が前記第1の収音器と前記第2の収音器と間で大きく異なる周波数帯域の一部の周波数帯域の前記レベル信号のみを、前記レベル信号合成部に伝送する、
     請求項5記載の音響処理装置。
  7.  前記検知・識別部は、
     前記周囲音に含まれる所定の音を検知し、
     前記収音信号に対して、前記所定の音が検知されたことを条件として音量を低減する処理を行う分析結果反映部と、
     前記分析結果反映部が前記処理を施した前記収音信号を、音に変換して出力する音声出力部と、
     を更に有する、
     請求項1記載の音響処理装置。
  8.  前記検知・識別部は、
     前記周囲音に含まれる所定の音を検知し、
     前記所定の音が検知されたことを条件として所定の警告を行う分析結果反映部、を更に有する、
     請求項1記載の音響処理装置。
  9.  2つの収音器がそれぞれ取得した収音信号に基づいて周囲音の分析を行う音響処理方法において、
     前記収音信号ごとに、前記収音信号を、位相情報が取り除かれたレベル信号に変換するステップと、
     前記2つの収音器の前記収音信号から得られる前記レベル信号を合成した合成レベル信号を生成するステップと、
     前記合成レベル信号に基づいて前記周囲音の分析を行うステップと、
     を有する、
     音響処理方法。
     
PCT/JP2011/001031 2010-02-24 2011-02-23 音響処理装置および音響処理方法 WO2011105073A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP11747042.7A EP2541971B1 (en) 2010-02-24 2011-02-23 Sound processing device and sound processing method
JP2011528111A JP5853133B2 (ja) 2010-02-24 2011-02-23 音響処理装置および音響処理方法
US13/258,171 US9277316B2 (en) 2010-02-24 2011-02-23 Sound processing device and sound processing method
CN201180001709.8A CN102388624B (zh) 2010-02-24 2011-02-23 音响处理装置以及音响处理方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010-038903 2010-02-24
JP2010038903 2010-02-24

Publications (1)

Publication Number Publication Date
WO2011105073A1 true WO2011105073A1 (ja) 2011-09-01

Family

ID=44506503

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/001031 WO2011105073A1 (ja) 2010-02-24 2011-02-23 音響処理装置および音響処理方法

Country Status (5)

Country Link
US (1) US9277316B2 (ja)
EP (1) EP2541971B1 (ja)
JP (1) JP5853133B2 (ja)
CN (1) CN102388624B (ja)
WO (1) WO2011105073A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5938682B2 (ja) * 2011-04-11 2016-06-22 パナソニックIpマネジメント株式会社 補聴器および振動検出方法
GB2514422A (en) * 2013-05-24 2014-11-26 Alien Audio Ltd Improvements in audio systems
KR101573577B1 (ko) * 2013-10-08 2015-12-01 현대자동차주식회사 음원 출력 제어 장치 및 방법

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10126890A (ja) * 1996-10-21 1998-05-15 Nec Corp ディジタル補聴器
JP2000098015A (ja) 1998-09-25 2000-04-07 Honda Motor Co Ltd 接近車両検出装置およびその方法
JP2009212690A (ja) * 2008-03-03 2009-09-17 Audio Technica Corp 集音装置及び同装置における方向性雑音の除去方法
JP2009218764A (ja) * 2008-03-10 2009-09-24 Panasonic Corp 補聴器
JP2010038903A (ja) 2008-07-31 2010-02-18 Honeywell Internatl Inc 閉ループ線形駆動加速度計を用いて面外線形加速度を検出するためのシステムおよび方法

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5479522A (en) * 1993-09-17 1995-12-26 Audiologic, Inc. Binaural hearing aid
US5867581A (en) * 1994-10-14 1999-02-02 Matsushita Electric Industrial Co., Ltd. Hearing aid
US5732045A (en) * 1996-12-31 1998-03-24 The United States Of America As Represented By The Secretary Of The Navy Fluctuations based digital signal processor including phase variations
US5991419A (en) * 1997-04-29 1999-11-23 Beltone Electronics Corporation Bilateral signal processing prosthesis
DE19934724A1 (de) * 1999-03-19 2001-04-19 Siemens Ag Verfahren und Einrichtung zum Aufnehmen und Bearbeiten von Audiosignalen in einer störschallerfüllten Umgebung
US7206421B1 (en) * 2000-07-14 2007-04-17 Gn Resound North America Corporation Hearing system beamformer
US7330556B2 (en) * 2003-04-03 2008-02-12 Gn Resound A/S Binaural signal enhancement system
CN1868235B (zh) * 2003-10-10 2011-03-30 奥迪康有限公司 处理来自听音装置中两个或多个麦克风的信号的方法及具有多个麦克风的听音装置
US20080079571A1 (en) * 2006-09-29 2008-04-03 Ramin Samadani Safety Device
WO2008083315A2 (en) * 2006-12-31 2008-07-10 Personics Holdings Inc. Method and device configured for sound signature detection
US8917894B2 (en) * 2007-01-22 2014-12-23 Personics Holdings, LLC. Method and device for acute sound detection and reproduction
US8611560B2 (en) * 2007-04-13 2013-12-17 Navisense Method and device for voice operated control
CN101589430B (zh) * 2007-08-10 2012-07-18 松下电器产业株式会社 声音分离装置、声音合成装置及音质变换装置
CN101569209B (zh) * 2007-10-04 2013-08-21 松下电器产业株式会社 噪声抽取装置和方法、麦克风装置、集成电路以及摄像机

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10126890A (ja) * 1996-10-21 1998-05-15 Nec Corp ディジタル補聴器
JP2000098015A (ja) 1998-09-25 2000-04-07 Honda Motor Co Ltd 接近車両検出装置およびその方法
JP2009212690A (ja) * 2008-03-03 2009-09-17 Audio Technica Corp 集音装置及び同装置における方向性雑音の除去方法
JP2009218764A (ja) * 2008-03-10 2009-09-24 Panasonic Corp 補聴器
JP2010038903A (ja) 2008-07-31 2010-02-18 Honeywell Internatl Inc 閉ループ線形駆動加速度計を用いて面外線形加速度を検出するためのシステムおよび方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2541971A4

Also Published As

Publication number Publication date
CN102388624A (zh) 2012-03-21
EP2541971A4 (en) 2016-10-26
JP5853133B2 (ja) 2016-02-09
US9277316B2 (en) 2016-03-01
CN102388624B (zh) 2014-11-12
EP2541971A1 (en) 2013-01-02
US20120008797A1 (en) 2012-01-12
JPWO2011105073A1 (ja) 2013-06-20
EP2541971B1 (en) 2020-08-12

Similar Documents

Publication Publication Date Title
EP3253075B1 (en) A hearing aid comprising a beam former filtering unit comprising a smoothing unit
KR101470262B1 (ko) 다중-마이크로폰 위치 선택적 프로세싱을 위한 시스템들, 방법들, 장치, 및 컴퓨터 판독가능 매체
JP5388379B2 (ja) 補聴装置、及び補聴方法
US9432766B2 (en) Audio processing device comprising artifact reduction
US9560456B2 (en) Hearing aid and method of detecting vibration
JP5886304B2 (ja) 方向性高感度記録制御のためのシステム、方法、装置、及びコンピュータ可読媒体
US8249273B2 (en) Sound input device
JP5493611B2 (ja) 情報処理装置、情報処理方法およびプログラム
US9082411B2 (en) Method to reduce artifacts in algorithms with fast-varying gain
JP2012147475A (ja) 音識別方法および装置
JP2010513987A (ja) 近接場ベクトル信号増幅
CN108235207B (zh) 用于确定有用信号源的方向的方法
WO2018173267A1 (ja) 収音装置および収音方法
CN113711308A (zh) 风噪声检测系统和方法
CN113949955B (zh) 降噪处理方法、装置、电子设备、耳机及存储介质
JP5853133B2 (ja) 音響処理装置および音響処理方法
US12003921B2 (en) Hearing aid comprising an ITE-part adapted to be located in an ear canal of a user
EP1519626A2 (en) Method and device for processing an acoustic signal
US8107660B2 (en) Hearing aid
WO2018173266A1 (ja) 収音装置および収音方法
CN117998251A (zh) 音频信号处理方法及装置、音频播放设备、存储介质

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201180001709.8

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 2011528111

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 13258171

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2011747042

Country of ref document: EP

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11747042

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE