WO2018105668A1 - 音響装置及び音響処理方法 - Google Patents
音響装置及び音響処理方法 Download PDFInfo
- Publication number
- WO2018105668A1 WO2018105668A1 PCT/JP2017/043882 JP2017043882W WO2018105668A1 WO 2018105668 A1 WO2018105668 A1 WO 2018105668A1 JP 2017043882 W JP2017043882 W JP 2017043882W WO 2018105668 A1 WO2018105668 A1 WO 2018105668A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- sound
- processing
- unit
- user
- signal
- Prior art date
Links
- 238000003672 processing method Methods 0.000 title claims description 40
- 238000012545 processing Methods 0.000 claims abstract description 145
- 238000000034 method Methods 0.000 claims abstract description 62
- 230000005236 sound signal Effects 0.000 claims abstract description 56
- 230000008569 process Effects 0.000 claims abstract description 52
- 238000001914 filtration Methods 0.000 claims abstract description 30
- 238000005192 partition Methods 0.000 claims abstract description 6
- 238000004891 communication Methods 0.000 claims description 46
- 238000001514 detection method Methods 0.000 claims description 31
- 230000008859 change Effects 0.000 claims description 10
- 230000006870 function Effects 0.000 description 10
- 230000004048 modification Effects 0.000 description 7
- 238000012986 modification Methods 0.000 description 7
- 239000000463 material Substances 0.000 description 5
- 210000004556 brain Anatomy 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000036772 blood pressure Effects 0.000 description 3
- 230000036760 body temperature Effects 0.000 description 3
- 238000010276 construction Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000000873 masking effect Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 241000269400 Sirenidae Species 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 229920003023 plastic Polymers 0.000 description 1
- 239000004033 plastic Substances 0.000 description 1
- 229920002635 polyurethane Polymers 0.000 description 1
- 239000004814 polyurethane Substances 0.000 description 1
- 230000002040 relaxant effect Effects 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000002618 waking effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R25/00—Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
- H04R25/55—Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception using an external connection, either wireless or wired
- H04R25/554—Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception using an external connection, either wireless or wired using a wireless connection, e.g. between microphone and amplifier or using Tcoils
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R1/00—Details of transducers, loudspeakers or microphones
- H04R1/10—Earpieces; Attachments therefor ; Earphones; Monophonic headphones
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R1/00—Details of transducers, loudspeakers or microphones
- H04R1/10—Earpieces; Attachments therefor ; Earphones; Monophonic headphones
- H04R1/1041—Mechanical or electronic switches, or control elements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R1/00—Details of transducers, loudspeakers or microphones
- H04R1/10—Earpieces; Attachments therefor ; Earphones; Monophonic headphones
- H04R1/1091—Details not provided for in groups H04R1/1008 - H04R1/1083
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R25/00—Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R3/00—Circuits for transducers, loudspeakers or microphones
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R1/00—Details of transducers, loudspeakers or microphones
- H04R1/10—Earpieces; Attachments therefor ; Earphones; Monophonic headphones
- H04R1/1016—Earpieces of the intra-aural type
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2225/00—Details of deaf aids covered by H04R25/00, not provided for in any of its subgroups
- H04R2225/41—Detection or adaptation of hearing aid parameters or programs to listening situation, e.g. pub, forest
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2420/00—Details of connection covered by H04R, not provided for in its groups
- H04R2420/07—Applications of wireless loudspeakers or wireless microphones
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R25/00—Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
- H04R25/40—Arrangements for obtaining a desired directivity characteristic
- H04R25/407—Circuits for combining signals of a plurality of transducers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R3/00—Circuits for transducers, loudspeakers or microphones
- H04R3/04—Circuits for transducers, loudspeakers or microphones for correcting frequency response
Definitions
- the present invention relates to an acoustic device to be worn on a user's ear and an acoustic processing method in the acoustic device, the acoustic device having a function of selecting a sound to be heard by the user and an acoustic processing method.
- CASA Computer Auditory Scene Analysis
- Non-Patent Document 1 A technical field called CASA (Computational Auditory Scene Analysis) is known (for example, Non-Patent Document 1) for realizing a human auditory function with a computer.
- CASA computational Auditory Scene Analysis
- Non-Patent Document 1 A technical field called Non-Patent Document 1 for realizing a human auditory function with a computer.
- the realization of a mixed sound separation method has attracted attention.
- Some sounds a person hears on a daily basis are sounds that the person wants to listen to actively, while others do not.
- the former sound is, for example, a sound necessary for daily life such as a conversational sound, or a comfortable sound such as a wild bird's cry.
- the latter sound is an unpleasant sound for the person, such as a sound of construction work performed nearby or a heavy bass sound such as an engine sound of a car that passes frequently.
- a sound of construction work performed nearby such as a heavy bass sound such as an engine sound of a car that passes frequently.
- the present invention has been made under the above-described background, and is an acoustic device to be worn on a user's ear and a sound processing method in the acoustic device, which changes an external sound to be heard by the user. It is an object of the present invention to provide a sound device and a sound processing method that can perform sound.
- the acoustic device of the present invention acquires a sound signal indicating sound and a member that partitions the user's ear hole and the external space when the user's ear or ear hole is attached.
- a sound processing unit that performs a filter process on the sound signal acquired by the acquisition unit, the sound processing unit changing the filter process according to a predetermined condition, and the filter process.
- a sound device comprising: a sound emitting unit that radiates sound indicated by a sound signal to the ear hole.
- the present invention provides an acquisition step for acquiring a sound signal indicating sound, a filter processing step for performing a filter process on the sound signal acquired in the acquisition step, and the filter processing in the filter processing step according to a predetermined condition.
- a sound processing method comprising: a sound processing step of changing the sound signal; and a sound emission step of radiating the sound indicated by the sound signal subjected to the filter processing to the ear hole.
- worn and the acoustic processing method in this acoustic apparatus, Comprising:
- the acoustic apparatus and acoustic processing method which can change the external sound which a user hears are provided. can do.
- FIG. 1 is a diagram showing a user wearing an audio device according to an embodiment of the present invention.
- FIG. 2 is an enlarged view of the periphery of a user's ear wearing the acoustic device according to the embodiment.
- FIG. 3 is a block diagram showing an electrical configuration of the signal processing unit according to the embodiment.
- FIG. 4 is a flowchart illustrating an example of processing executed by the acoustic device according to the embodiment.
- FIG. 1 is a diagram showing a user U wearing a sound device 10 according to an embodiment of the present invention.
- FIG. 2 is an enlarged view of the periphery of the ear 100 of the user U wearing the acoustic device 10. 1 and 2 show a state in which the acoustic device 10 is attached to the right ear of the user U, it is assumed that the acoustic device 10 is also attached to the left ear.
- the dimensions of each element are different from the actual dimensions in order to facilitate understanding of the configuration of the present embodiment.
- the sound device 10 is equivalent in appearance to a canal type earphone. That is, the acoustic device 10 is used in a state where it is attached to the ear hole 200 of the ear 100.
- the acoustic device 10 has a structure in which external sounds are not easily transmitted through the ear hole 200.
- the acoustic device 10 is small and lightweight. Therefore, the user U can move while using the acoustic device 10.
- the acoustic device 10 includes a housing 11, an earpiece 12, a detection unit 13, a signal processing unit 14, and a sound emission unit 15.
- the housing 11 is a cylindrical member.
- a detection unit 13, a signal processing unit 14, and a sound emission unit 15 are accommodated in the housing 11.
- the housing 11 is a member that closes the ear hole 200 and partitions the ear hole 200 and the external space when attached to the ear hole 200.
- the earpiece 12 is a cylindrical member.
- the earpiece 12 is attached to one end of the housing 11 and the end on the ear hole 200 side.
- the material of the earpiece 12 is preferably a material having a high degree of adhesion with the wall of the ear hole 200. The reason is to make it difficult for external sounds to penetrate the ear hole 200. Examples of such a material include polyurethane and plastic, but other materials may be used.
- the detection unit 13 detects an external sound.
- the detection unit 13 converts the detected sound into a sound signal and supplies the sound signal to the signal processing unit 14.
- the detection unit 13 is a microphone.
- This sound signal is an analog electric signal.
- the detection unit 13 is disposed at one end of the housing 11 and in the vicinity of the end on the side opposite to the end on the side where the earpiece 12 is disposed. Note that the housing 11 may not include the detection unit 13.
- the communication unit 141 of the signal processing unit 14 of the housing 11 receives a sound signal transmitted from the outside. For example, a sound detected by a microphone of a communication terminal device (for example, a smartphone) possessed by the user is received by the communication unit 141 of the housing 11 by wireless communication.
- a remote sound is detected by a robot microphone disposed in a remote place, and a sound signal indicating a sound around the remote robot is received by the communication unit 141 of the housing 11 by wireless communication.
- the communication unit 141 also functions as an acquisition unit that acquires a sound signal.
- the signal processing unit 14 performs predetermined signal processing on the sound signal supplied from the detection unit 13 and supplies the sound signal to the sound emission unit 15.
- This signal processing includes filter processing that allows some of the sounds detected by the detection unit 13 to pass and prevents the remaining sounds from passing. Details of the filtering process will be described later.
- the signal processing unit 14 is, for example, a hardware circuit exemplified by a CPU (Central Processing Unit), an ASIC (Application Specific Integrated Circuit), or a DSP (Digital Signal Processor), a RAM (Random Access Memory), or a ROM (Read Only Memory). ),
- a wireless communication unit including a memory, a wireless communication circuit, and an antenna.
- the wireless communication standard is, for example, Bluetooth (registered trademark) or Wi-Fi (registered trademark), but other standards may be used.
- the sound emitting unit 15 radiates the sound indicated by the sound signal processed by the signal processing unit 14 to the ear hole 200.
- the sound emitting unit 15 is a speaker.
- the sound emitting unit 15 is one end of the housing 11, and the end on the side where the earpiece 12 is disposed is also disposed in the vicinity.
- the user U hears a sound selected by the audio device 10 among external sounds.
- the signal processing unit 14 performs signal processing that allows a sound to be heard by the user U to pass and prevents other sounds from passing.
- FIG. 3 is a block diagram showing an electrical configuration of the signal processing unit 14.
- the signal processing unit 14 includes a communication unit 141, a selection unit 142, an A / D converter 143, a sound processing unit 144, and a D / A converter 145.
- the communication unit 141 performs wireless communication with an external device.
- the communication unit 141 performs at least wireless communication for acquiring a signal for selecting a sound to be passed or not to be passed by the filter processing performed by the sound processing unit 144.
- the selection unit 142 selects a sound that is allowed to pass through the filtering process or a sound that is not allowed to pass.
- the sound that is passed through the filtering process is, for example, a sound necessary for daily life such as a conversational sound, or a comfortable sound such as a wild bird's cry. Sounds that are not allowed to pass through the filtering process are unpleasant sounds for the person, such as, for example, the sound of construction work that is being performed nearby, or heavy bass sounds such as the engine sound of a car that passes frequently. Therefore, the selection unit 142 selects, for example, a sound that does not allow a low-frequency sound to pass, and a sound that allows a higher-frequency sound to pass.
- the selection unit 142 selects a sound previously selected (that is, preset) by the user U as a sound that is to be passed by the filtering process or a sound that is not to be passed.
- the user U performs an operation of selecting the sound using a communication terminal device (for example, a smartphone) in which a predetermined application program is installed.
- the communication terminal device transmits a signal notifying the content selected by the user U to the signal processing unit 14 by wireless communication.
- the selection unit 142 acquires (receives) the signal from the communication terminal device.
- the selection unit 142 sets a filter condition (for example, a filter coefficient) of the sound processing unit 144 according to the selected sound to be passed or not to be passed.
- the selection unit 142 sets the filter condition so that the level of a predetermined frequency band (for example, the frequency band with the highest level) is low for the sound that is not allowed to pass through the filtering process.
- the selection unit 142 sets the filter condition so as to reduce the level of the entire predetermined frequency band such as the audible range (for example, 200 Hz to 2 kHz) and the audio band (for example, 200 Hz to 4 kHz) by a predetermined amount. It may be set (for example, -20 dB).
- the selection unit 142 not only sets the filter condition so that the level of the predetermined frequency band is low for the sound that is not passed, but also sets the sound processing unit 144 to output “alternative sound”. May be.
- the sound processing unit 144 reproduces a predetermined substitute sound that is comfortable for the user U at the same timing when the sound of the predetermined frequency band is detected by the detection unit 13. By reproducing the substitute sound, there is an effect of masking a sound that is not allowed to pass (that is, a sound that has become difficult to hear due to a low level in the filter process), and further makes it difficult for the user U to hear the sound.
- the sound processing performed by the sound processing unit 144 may include processing for outputting a predetermined sound in addition to the filter processing.
- the selection unit 142 may set a filter condition so as to increase the level of the entire predetermined frequency band by a predetermined amount, and increase the specific sound that the user U wants to hear (for example, +20 dB). To do).
- the selection unit 142 may set a filter condition for the sound to be passed by the filter processing so that the sound processing unit 144 processes the sound signal.
- the sound processing unit 144 may emphasize the high-frequency sound slightly to process it into a relaxing sound, or apply reverb to process it into a comfortable sound.
- such a processing method may also be set.
- the A / D converter 143 converts the sound signal supplied from the detection unit 13 from an analog format to a digital format, and then supplies the converted signal to the sound processing unit 144.
- the sound processing unit 144 performs sound processing including filter processing on at least the sound signal supplied from the A / D converter 143.
- the sound processing unit 144 changes the filter processing applied to the sound signal by following the filter condition setting of the selection unit 142.
- the sound processing unit 144 includes, for example, a digital filter such as an FIR filter.
- the sound processing unit 144 performs a filtering process on the sound signal so that at least the sound selected so as to be passed by the selection unit 142 is allowed to pass and other sounds are not allowed to pass.
- the D / A converter 145 converts the sound signal from a digital format to an analog format and then supplies the sound signal to the sound emitting unit 15.
- the sound emitting unit 15 radiates the sound indicated by the supplied sound signal to the ear hole 200. User U can hear this sound.
- the selection unit 142 may select a sound to be passed by the filtering process or a sound not to be passed by a method other than the preset. Whether the selection unit 142 selects, based on a signal input by the user U when a certain specific sound is allowed to pass, as a sound that is to be passed by filtering or a sound that is not allowed to pass, for example. Judge whether. As such a signal, there is a signal corresponding to the operation of the user U. For example, when the user U hears a certain sound and feels uncomfortable, the user U performs an operation for instructing that he / she does not want to hear the sound within a predetermined time after hearing the certain sound. This is done using a communication terminal device.
- the communication terminal device notifies the signal processing unit 14 that the operation has been performed, together with the time at which the operation was performed.
- the selection unit 142 acquires a signal indicating this notification using the communication unit 141, the selection unit 142 does not allow the specific sound passed immediately before to be passed.
- the selection unit 142 selects, as sounds that are not allowed to pass, sounds that have a level of a predetermined frequency band that is equal to or higher than a predetermined value, among sounds detected a predetermined time before the operation time.
- the feature information obtained by extracting the feature of the speaker's voice may be registered by the speaker recognition technique, and the selection unit 142 may select the speaker's voice that matches the feature information as a sound that does not pass through the filtering process. .
- the feature information may be stored in advance in a storage unit (not shown), or the feature information may be registered by extracting the feature of the speaker's voice.
- the sound processing unit 144 is connected to the speaker (for example, The synthesized voice such as “Mr. XX was talking” may be reproduced as “alternative sound” while masking the sound as not passing the voice of Mr. XX).
- the signal input from the user U may be a signal detected from the living body of the user U (that is, a biological signal).
- a biological signal there is a signal corresponding to the brain wave of the user U.
- an apparatus for measuring brain waves sequentially measures the brain waves of the user U.
- the selection unit 142 receives a signal indicating that effect. This signal may be transmitted to the signal processing unit 14 from a device that measures brain waves, or may be transmitted from the communication terminal device of the user U.
- the acoustic device 10 may have a function of measuring an electroencephalogram. Then, the selection unit 142 passes the specific sound that was passed when the electroencephalogram indicating that the user U felt comfortable was measured based on the acquired signal, and subsequently felt uncomfortable. The specific sound that is passed when the electroencephalogram indicating is measured is prevented from passing thereafter. In addition, there is a signal indicating the heart rate, body temperature, and blood pressure of the user U as another example of detecting a biological signal, not limited to an electroencephalogram.
- the housing 11 is used when at least one of the heart rate, body temperature, and blood pressure of the user U changes by a predetermined threshold value or more than the normal value (mainly at least one of the heart rate, body temperature, blood pressure is higher than the normal value by a predetermined threshold value or more.
- a biological signal detection unit that outputs a signal indicating that the user U feels uncomfortable.
- the selection unit 142 receives a signal indicating that the selection unit 142 feels uncomfortable.
- the biological signal detection unit may be provided in a communication terminal device that is separate from the casing 11 connected by wireless communication.
- FIG. 4 is a flowchart illustrating an example of processing executed by the acoustic device 10.
- the selection unit 142 selects a sound to be passed or not to be passed by the filtering process (step S1).
- the selection unit 142 performs selection according to the preset performed by the user U based on the signal acquired via the communication unit 141.
- the selection unit 142 sets the sound processing unit 144 based on the result selected in Step S1 (Step S2).
- This setting includes at least a filter condition setting.
- the detection unit 13 detects an external sound (step S3).
- the sound processing unit 144 performs sound processing including filter processing on the sound signal supplied from the detection unit 13 according to the setting in step S2 (step S4).
- the sound emitting unit 15 radiates the sound signal after the sound processing supplied from the sound processing unit 144, that is, the sound indicated by the sound signal after being subjected to at least filter processing, to the ear hole 200 (that is, the sound emission). (Step S5).
- the selection unit 142 determines whether the communication unit 141 has acquired a signal for selecting a sound to be passed or not to be passed by the filtering process (step S6).
- Such a signal is a signal for selecting a sound that is to be passed by filter processing by a method other than preset or a sound that is not allowed to pass. If “NO” is determined in the step S6, the process of the acoustic device 10 is returned to the step S3. If “YES” is determined in the step S6, the process of the acoustic device 10 is returned to the step S1, and the sound to be passed or not to be passed is selected by the filter process.
- the acoustic device 10 of the embodiment described above it is possible to select the sound that should be heard by the user U from the detected external sounds and let the user U hear it. Furthermore, the acoustic device 10 has a function of learning a sound that the user U wants to hear or a sound that the user U does not want to hear. Thereby, the acoustic device 10 can selectively let the user U hear an external sound based on the filter processing suitable for the sound that the user U wants to hear or the sound that is not.
- the present invention can be implemented in a form different from the above-described embodiment.
- the present invention can also be implemented in the following forms, for example. Further, the following modifications may be combined as appropriate.
- (Modification 1) The selection unit 142 may change the filtering process applied to the sound signal according to the conditions described in the following (1) to (3).
- the sound processing unit 144 changes the filter process according to the position of the acoustic device 10. For example, for safety reasons, it is considered desirable for the user U to be able to hear engine sounds of vehicles such as automobiles and notification sounds (sirens) emitted by emergency vehicles such as ambulances. On the other hand, when the user U is indoors, it is considered that there is relatively less trouble due to the inability to hear such sounds than when the user U is outdoors. In addition, outdoors, the user U does not have to listen to the conversation voice of a person irrelevant to himself / herself, but may want to be sure to hear the voice of the person talking to the user U indoors. is there.
- the selection unit 142 specifies the position of the acoustic device 10 and sets the filter condition so that the sound according to the specified position is allowed to pass or is not allowed to pass.
- the position of the acoustic device 10 for example, a method obtained by GPS (Global Positioning System) positioning is conceivable, but another method may be used.
- the sound processing unit 144 changes the filter processing according to the time. For example, at night outdoors, it is difficult for the user U to look around. Therefore, for safety reasons, it is considered desirable for the user U to be able to hear the engine sound of a vehicle such as an automobile and the notification sound generated by an emergency vehicle such as an ambulance. On the other hand, at a time such as morning or noon, the user U can easily look around, so it is considered that there is relatively little trouble due to the inability to hear these sounds. In addition, it is desirable that the voice of the conversation can be heard at the time when the user U is waking up, but it may be desirable not to hear such voice at the time when the user U is sleeping, such as at midnight. Therefore, the selection unit 142 identifies the time and sets the filter condition so that the sound according to the identified time is allowed to pass or is not allowed to pass. About time, it is good to specify, for example using the time measuring function of sound equipment 10.
- the sound processing unit 144 changes the filter processing according to the user of the acoustic device 10. Even if the sound is the same, some users feel that the sound is comfortable, and some users feel it uncomfortable. It is also conceivable that the acoustic device 10 is shared by a plurality of persons. Therefore, the selection unit 142 identifies a user of the audio device 10 and sets a filter condition so that the identified user passes or does not pass sound. Regarding the identification of the user, for example, a login operation at the start of use of the acoustic device 10 or a method using an otoacoustic authentication technique is conceivable, but other methods may be used. Note that attribute information related to the age, sex, and preference of the user U is provided, and the selection unit 142 may set the filter condition according to the provided attribute information.
- the sound processing unit 144 changes the filter processing according to the direction of the casing 11 of the acoustic device 10 and the direction of arrival of sound from the outside. For example, when the user U is walking along the road on the right side of the road, a filter process may be set to pass the sound of the vehicle from the left direction (road side) of the user U.
- the direction of the housing 11 can be detected by a gyro sensor, the direction of arrival of sound from the outside can be detected by a directional microphone or a plurality of microphones, and geographical information such as road arrangement is obtained by GPS (Global Positioning System). ) Can be detected.
- the conditions for changing the filter processing applied to the sound signal described above are merely examples. Therefore, the acoustic device 10 may change the sound to be heard by the user U by changing the filter process according to yet another condition.
- Modification 2 The material, shape, arrangement position, and the like of each component of the acoustic device 10 described in the above-described embodiment are merely examples, and various modifications can be made. A part of the configuration of the acoustic device 10 described above may be omitted or changed.
- the acoustic device 10 may not have a configuration for changing the filter processing based on a signal input from the user U.
- the audio device 10 may include an operation unit (for example, a physical button) that receives an operation of the user U. In this case, the acoustic device 10 may not have a function of performing wireless communication.
- the acoustic device 10 associates the content (filter name) of the user U's utterance with the filter setting in advance, changes the filter setting according to the user U's utterance, It is good also as a structure which switches off.
- the user U may say “XX (filter name) turned on” to turn on the filter with the filter name XX.
- the sound device 10 utters the name of the speaker by the user U when the name of the speaker, the feature information of the speaker, and the filter setting (filter processing) related to the feature information are registered in association with each other. It is good also as a structure changed to the setting of a corresponding filter according to.
- the acoustic device of the present invention may not be an earphone type.
- the acoustic device of the present invention may be configured to cover the ear 100 of the user U like a headphone type.
- a portion corresponding to the ear cup is attached to the user's ear and corresponds to a member that partitions the user's ear hole and the external space.
- the function realized by the signal processing unit 14 of the above-described embodiment can be realized by a combination of a plurality of programs, or can be realized by cooperation of a plurality of hardware resources.
- this program can be a magnetic recording medium (magnetic tape, magnetic disk (HDD (Hard Disk Drive), FD (Flexible Disk), etc.)), optical recording medium (
- the recording medium may be stored in a computer-readable recording medium such as an optical disk, a magneto-optical recording medium, or a semiconductor memory, or distributed via a network.
- the acoustic device further including a detection unit that detects the external sound, wherein the acquisition unit is a sound signal or a communication unit that indicates the external sound detected by the detection unit A sound signal indicating the sound received via the is acquired.
- the acoustic device further including a selection unit that selects a sound to be passed by the filter process or a sound that is not to be passed, and the sound processing unit is selected by the selection unit
- the filter processing is changed according to the sound that has been made.
- the selection unit is configured to transmit the specific sound based on a signal input from a user when the specific sound is transmitted, or It is determined whether or not to select the sound not to pass.
- the acoustic device includes a communication unit that performs communication for acquiring a signal for selecting the sound to be passed or the sound that is not allowed to pass, and the selection unit includes: Based on the signal acquired by the communication, the sound to pass or the sound not to pass is selected.
- the sound processing unit changes the filter processing according to a geographical position of the acoustic device.
- the sound processing unit changes the filter processing according to time.
- the sound processing unit changes the filter processing according to the user.
- the sound processing unit changes the filter processing according to the attribute of the user.
- the sound emitting unit In the acoustic device according to any one of (1) to (9), the sound emitting unit generates a sound indicated by the filtered sound signal and an alternative sound different from the sound. Radiates to the ear hole at the same timing.
- the acoustic device further includes a speaker recognition unit that recognizes the speaker based on a feature of the voice of the speaker, and the selection unit includes: The voice of the speaker recognized by the speaker recognition unit is selected as the sound that does not pass.
- the acoustic device according to any one of (1) to (11), further including a biological signal detection unit that detects a biological signal of the user, wherein the sound processing unit includes the biological signal.
- the filter processing is changed in accordance with the change in.
- the sound processing unit changes the filtering process according to the user's utterance detected by the detection unit.
- the sound processing unit includes the filter according to a direction of a housing of the acoustic device and a direction of arrival of sound from the outside. Change processing.
- an acoustic processing method comprising: a sound processing step; and a sound emission step of radiating the sound indicated by the filtered sound signal to an ear hole.
- the acoustic processing method further includes a selection step of selecting a sound that is to be passed by the filter processing or a sound that is not to be passed, and the sound processing step is the selection step.
- the filtering process is changed according to the selected sound.
- the selection step the sound that allows the specific sound to pass based on a signal input from a user when the specific sound is allowed to pass, Alternatively, it is determined whether or not to select the sound that is not allowed to pass.
- the selection method further includes a communication step of performing communication for acquiring a signal for selecting the sound to be passed or the sound to be not passed. Selects the sound to pass or the sound not to pass based on the signal acquired by the communication.
- the sound processing step performs the filtering process according to a geographical position of an acoustic device that performs the acoustic processing method. Change.
- the sound processing step changes the filter processing according to time.
- the sound processing step changes the filter processing according to the user.
- the sound processing step changes the filtering process according to the attribute of the user.
- the sound emitting step includes a sound indicated by the filtered sound signal and an alternative sound different from the sound. At the same timing.
- the acoustic processing method according to any one of (17) to (24), further including a speaker recognition step of recognizing the speaker based on a feature of the voice of the speaker, wherein the selection step includes The voice of the speaker recognized in the speaker recognition step is selected as the sound that does not pass.
- the acoustic processing method according to any one of (15) to (25), further including a biological signal detection step of detecting a biological signal of the user, wherein the sound processing step includes the biological processing step. The filtering process is changed according to the change of the signal.
- the sound processing step performs the filtering process according to the user's utterance detected by the detection step. Change.
- the sound processing step includes a direction of a housing of an acoustic device in which the acoustic processing method is performed and sound from the outside.
- the filtering process is changed in accordance with the arrival direction of.
- an external sound to be heard by the user can be changed, which is useful.
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Neurosurgery (AREA)
- Otolaryngology (AREA)
- Computer Networks & Wireless Communication (AREA)
- Circuit For Audible Band Transducer (AREA)
- Headphones And Earphones (AREA)
Abstract
音響装置(10)は、利用者(U)の耳又は耳穴に装着されたときに、前記利用者(U)の耳穴と外部の空間とを仕切る部材(11)と、音を示す音信号を取得する取得部(141)と、前記取得部で取得された音信号にフィルタ処理を施す音処理部であって、前記フィルタ処理を所定の条件に応じて変化させる音処理部(144)と、前記フィルタ処理が施された音信号が示す音を、前記耳穴に放射する放音部(15)と、を備える。
Description
本発明は、利用者の耳に装着される音響装置及び該音響装置における音響処理方法であって、その利用者に聞かせる音を選択する機能を有する音響装置及び音響処理方法に関する。
人間の聴覚機能を計算機で実現することに関し、CASA(Computational Auditory Scene Analysis)と呼ばれる技術分野が知られている(例えば非特許文献1)。この技術分野では、混合音の分離法の実現が注目されている。
亀岡弘和,ルルー・ジョナトン,小野順貴,嵯峨山茂樹、"調波時間構造化クラスタリングによるCASAへのアプローチ"、[online]、[平成28年10月27日検索]、インターネット〈URL:http://hil.t.u-tokyo.ac.jp/~kameoka/paper/Kameoka2006H10.pdf〉
人物が日ごろ耳にする音には、その人物が積極的に聞きたい音もあれば、そうではない音もある。前者の音は、例えば、会話の音声等の日常生活に必要な音、又は野鳥の鳴き声のような快適な音である。後者の音は、例えば、近くで行われている工事の音、又は頻繁に通過する自動車のエンジン音等の重低音等の、その人物にとって不快な音である。また、同じ音であっても、その音を積極的に聞きたい状況と、そうではない状況との両方があり得る。
本発明は、上述した背景の下になされたものであり、利用者の耳に装着される音響装置及び該音響装置における音響処理方法であって、利用者に聞かせる外部の音を変化させることのできる音響装置及び音響処理方法を提供することを目的とする。
本発明は、上述した背景の下になされたものであり、利用者の耳に装着される音響装置及び該音響装置における音響処理方法であって、利用者に聞かせる外部の音を変化させることのできる音響装置及び音響処理方法を提供することを目的とする。
上述した課題を解決するため、本発明の音響装置は、利用者の耳又は耳穴に装着されたときに、前記利用者の耳穴と外部の空間とを仕切る部材と、音を示す音信号を取得する取得部と、前記取得部で取得された音信号にフィルタ処理を施す音処理部であって、前記フィルタ処理を所定の条件に応じて変化させる音処理部と、前記フィルタ処理が施された音信号が示す音を、前記耳穴に放射する放音部と、を備える音響装置を提供する。
また、本発明は、音を示す音信号を取得する取得工程と、前記取得工程で取得された音信号にフィルタ処理を施すフィルタ処理工程と、フィルタ処理工程における前記フィルタ処理を所定の条件に応じて変化させる音処理工程と、前記フィルタ処理が施された音信号が示す音を、耳穴に放射する放音工程と、を備える音響処理方法を提供する。
また、本発明は、音を示す音信号を取得する取得工程と、前記取得工程で取得された音信号にフィルタ処理を施すフィルタ処理工程と、フィルタ処理工程における前記フィルタ処理を所定の条件に応じて変化させる音処理工程と、前記フィルタ処理が施された音信号が示す音を、耳穴に放射する放音工程と、を備える音響処理方法を提供する。
本発明によれば、利用者の耳に装着される音響装置及び該音響装置における音響処理方法であって、利用者に聞かせる外部の音を変化させることのできる音響装置及び音響処理方法を提供することができる。
[実施形態]
以下、図面を参照して本発明の実施形態を説明する。
図1は、本発明の一実施形態に係る音響装置10を装着した利用者Uを示す図である。図2は、音響装置10を装着した利用者Uの耳100の周辺を拡大した図である。図1及び図2には、利用者Uの右耳に音響装置10が装着された様子が示されているが、左耳にも音響装置10が装着されているものとする。なお、図面においては、本実施形態の構成を分かりやすくするため、各要素の寸法を実際の寸法とは異ならせてある。
以下、図面を参照して本発明の実施形態を説明する。
図1は、本発明の一実施形態に係る音響装置10を装着した利用者Uを示す図である。図2は、音響装置10を装着した利用者Uの耳100の周辺を拡大した図である。図1及び図2には、利用者Uの右耳に音響装置10が装着された様子が示されているが、左耳にも音響装置10が装着されているものとする。なお、図面においては、本実施形態の構成を分かりやすくするため、各要素の寸法を実際の寸法とは異ならせてある。
音響装置10は、外観がカナル型のイヤホンと同等である。即ち、音響装置10は、耳100の耳穴200に装着された状態で使用される。音響装置10は、外部の音が耳穴200に透過しにくい構造となっている。音響装置10は、小型且つ軽量である。よって、利用者Uは、音響装置10を使用した状態で移動することができる。
音響装置10は、筐体11と、イヤーピース12と、検出部13と、信号処理部14と、放音部15とを含む。筐体11は、筒状の部材である。筐体11の内部には、検出部13、信号処理部14、及び放音部15が収容されている。筐体11は、耳穴200に装着されたときに、耳穴200を塞いで、耳穴200と外部の空間とを仕切る部材である。イヤーピース12は、筒状の部材である。イヤーピース12は、筐体11の一端であって、耳穴200側の端部に装着されている。イヤーピース12の素材は、耳穴200の壁部との密着度が高い素材であることが望ましい。その理由は、外部の音が耳穴200に透過しにくくなるようにするためである。かかる素材として、例えばポリウレタン又はプラスチックがあるが、これら以外の素材であってもよい。
検出部13は、外部の音を検出する。検出部13は、検出した音を音信号に変換して、信号処理部14に供給する。検出部13は、ここではマイクロホンである。この音信号は、アナログ形式の電気信号である。検出部13は、筐体11の一端であって、イヤーピース12が配置される側の端部とは反対側の端部の近傍に配置されている。
なお、筐体11は検出部13を含んでいなくてもよい。筐体11の信号処理部14の通信部141は、外部から送信された音信号を受信する。例えば、ユーザの所持している通信端末装置(例えば、スマートフォン)のマイクで検出した音を無線通信により筐体11の通信部141で受信する。また、例えば、遠隔地に配置されたロボットのマイクにより遠隔地の音を検出し、無線通信により筐体11の通信部141で遠隔地のロボットの周囲の音を示す音信号を受信する。これらの場合、通信部141は音信号を取得する取得部としても機能する。
なお、筐体11は検出部13を含んでいなくてもよい。筐体11の信号処理部14の通信部141は、外部から送信された音信号を受信する。例えば、ユーザの所持している通信端末装置(例えば、スマートフォン)のマイクで検出した音を無線通信により筐体11の通信部141で受信する。また、例えば、遠隔地に配置されたロボットのマイクにより遠隔地の音を検出し、無線通信により筐体11の通信部141で遠隔地のロボットの周囲の音を示す音信号を受信する。これらの場合、通信部141は音信号を取得する取得部としても機能する。
信号処理部14は、検出部13から供給された音信号に所定の信号処理を施して、放音部15に供給する。この信号処理は、検出部13が検出した音のうちの一部の音を通過させ、残りの音を通過させないようにするフィルタ処理を含む。フィルタ処理について詳しくは後述する。信号処理部14は、例えば、CPU(Central Processing Unit)、ASIC(Application Specific Integrated Circuit)、又はDSP(Digital Signal Processor)で例示されるハードウェア回路、RAM(Random Access Memory)又はROM(Read Only Memory)で例示されるメモリ、無線通信回路及びアンテナを含む無線通信部等を含む。無線通信の規格は、例えばBluetooth(登録商標)又はWi-Fi(登録商標)があるが、これら以外の規格でもよい。
放音部15は、信号処理部14による処理済みの音信号が示す音を、耳穴200に放射する。放音部15は、ここではスピーカである。放音部15は、筐体11の一端であって、イヤーピース12が配置される側の端部も近傍に配置されている。
かかる音響装置10の機能により、利用者Uは、外部の音のうち、音響装置10によって選択された音を聞くことになる。そのために、信号処理部14は、利用者Uに聞かせるべき音を通過させ、それ以外の音を通過させないようにする信号処理を行う。
図3は、信号処理部14の電気的な構成を示すブロック図である。図3に示すように、信号処理部14は、通信部141と、選択部142と、A/D変換器143と、音処理部144と、D/A変換器145とを含む。
通信部141は、外部の装置と無線通信を行う。通信部141は、少なくとも、音処理部144が行うフィルタ処理によって通過させる音、又は通過させない音を選択するための信号を取得する無線通信を行う。
通信部141は、外部の装置と無線通信を行う。通信部141は、少なくとも、音処理部144が行うフィルタ処理によって通過させる音、又は通過させない音を選択するための信号を取得する無線通信を行う。
選択部142は、フィルタ処理によって通過させる音、又は通過させない音を選択する。フィルタ処理によって通過させる音は、例えば、会話の音声等の日常生活に必要な音、又は野鳥の鳴き声のような快適な音である。フィルタ処理によって通過させない音は、例えば、近くで行われている工事の音、又は頻繁に通過する自動車のエンジン音等の重低音等の、その人物にとって不快な音である。そこで、選択部142は、例えば、低い音域の音を通過させない音として選択し、それよりも高い音域の音を通過させる音として選択する。
選択部142は、利用者Uによって予め選択された(つまり、プリセットされた)音を、フィルタ処理によって通過させる音、又は通過させない音として選択する。例えば、利用者Uは、所定のアプリケーションプログラムがインストールされた通信端末装置(例えば、スマートフォン)を用いて、かかる音を選択する操作を行う。この操作に従い、通信端末装置は、無線通信により、利用者Uが選択した内容を通知する信号を、信号処理部14へ送信する。選択部142は、通信部141を用いて、通信端末装置からその信号を取得(受信)する。
選択部142は、選択した通過させる音、又は通過させない音に応じて、音処理部144のフィルタ条件(例えば、フィルタ係数)を設定する。選択部142は、フィルタ処理により通過させない音については、所定の周波数帯域(例えば、レベルが最も高い周波数帯域)のレベルが低くなるように、フィルタ条件を設定する。これ以外に、選択部142は、可聴域(例えば、200Hz~2kHz)や音声帯域(例えば、200Hz~4kHz)等の所定の周波数帯域全体のレベルを、所定量だけ低減させるように、フィルタ条件を設定してもよい(例えば、-20dBとする)。更に、選択部142は、通過させない音に対して所定の周波数帯域のレベルが低くなるようにフィルタ条件を設定するだけでなく、「代替音」を出力するように、音処理部144の設定をしてもよい。この場合、音処理部144は、当該所定の周波数帯域の音が検出部13により検出された場合に、利用者Uにとって心地よい所定の代替音を、同タイミングで再生させる。代替音を再生することによって、通過させない音(即ち、フィルタ処理でレベルが低くなり聞こえにくくなった音)をマスクし、更に利用者Uにとって当該音をより聞こえにくくする効果もある。このように、音処理部144が行う音処理には、フィルタ処理以外にも、所定の音を出力するための処理が含まれる場合がある。なお、選択部142は、所定の周波数帯域全体のレベルを、所定量だけ増加させるように、フィルタ条件を設定し、利用者Uが聞きたい特定の音を大きくしてもよい(例えば、+20dBとする)。
更に、選択部142は、音処理部144に音信号の加工を行わせるように、フィルタ処理により通過させる音についてのフィルタ条件を設定してもよい。音処理部144は、例えば、高域の音を若干強調してのびやかな音に加工したり、リバーブをかけて心地よい音に加工したりしてもよい。選択部142が通過させる音を選択する際には、このような加工方法も併せて設定できるようにしてもよい。
A/D変換器143は、検出部13から供給された音信号をアナログ形式からデジタル形式に変換した後に、音処理部144に供給する。
音処理部144は、少なくともA/D変換器143から供給された音信号にフィルタ処理を含む音処理を施す。音処理部144は、選択部142のフィルタ条件の設定に従うことで、音信号に施すフィルタ処理を変化させる。音処理部144は、例えば、FIRフィルタ等のデジタルフィルタを含む。音処理部144は、少なくとも、選択部142によって通過させるように選択された音を通過させ、それ以外の音を通過させないように、音信号にフィルタ処理を施す。
D/A変換器145は、音信号をデジタル形式からアナログ形式に変換した後に、放音部15に供給する。放音部15は、供給された音信号が示す音を、耳穴200に放射する。利用者Uは、この音を聞くことができる。
ところで、選択部142は、フィルタ処理により通過させる音、又は通過させない音を、プリセット以外の方法で選択してもよい。選択部142は、例えば、或る特定の音を通過させた場合に利用者Uによって入力された信号に基づいて、当該特定の音をフィルタ処理により通過させる音、又は通過させない音として選択するかどうかを判断する。かかる信号として、利用者Uの操作に応じた信号がある。例えば、利用者Uは、或る音が聞こえてきた場合に、それを不快と感じたときは、或る音が聞こえてから所定時間内にその音を聞きたくない旨を指示する操作を、通信端末装置を用いて行う。その通信端末装置は、当該操作が行われた旨を、操作が行われた時刻とともに、信号処理部14へ通知する。選択部142は、この通知を示す信号を、通信部141を用いて取得すると、その直前に通した特定の音を、以降は通過させないようにする。選択部142は、例えば、操作時刻から所定時間前までに検出された音のうち、所定の周波数帯域のレベルが所定値以上である音を、通過させない音として選択する。なお、話者認識技術により、話者の音声の特徴を抽出した特徴情報を登録し、選択部142が、特徴情報と一致する話者の音声をフィルタ処理により通過させない音として選択してもよい。これにより、特定の話者の音声のみを消すことができる。なお、特徴情報は予め記憶部(不図示)に記憶しておいてもよいし、話者の音声の特徴を抽出して特徴情報を登録してもよい。また、音響装置10は、話者の氏名、話者の特徴情報及び該特徴情報に関するフィルタの設定(フィルタ処理)が対応づけられて登録されている場合、音処理部144は、話者(例えば○○さん)の音声を通過させない音としてマスクしつつ、「○○さんが話していました」というような合成音声を「代替音」として再生しても良い。
利用者Uから入力される信号は、利用者Uの生体から検出された信号(つまり、生体信号)であってもよい。生体信号の一例として、利用者Uの脳波に応じた信号がある。或る特定の音を聞いた人物が、その音を快適と感じたか、又は不快と感じたかは、脳波の変化に基づいて推定することができる。そこで、脳波を計測する装置(図示略)は、利用者Uの脳波を逐次計測する。人物が快適と感じたか、又は不快と感じたことを示す脳波が検出された場合には、選択部142は、その旨を示す信号を受信する。この信号は、脳波を計測する装置から信号処理部14に送信されてもよいし、利用者Uの通信端末装置から送信されてもよい。音響装置10が、脳波を計測する機能を有してもよい。そして、選択部142は、取得した信号に基づいて、利用者Uが快適と感じたことを示す脳波が計測されたときに通過させた特定の音を、以降も通過させ、不快と感じたことを示す脳波が計測されたときに通過させた特定の音を、以降は通過させないようにする。なお、脳波に限らず、生体信号を検出する他の例としては、利用者Uの心拍数、体温、血圧を示す信号がある。筐体11は、利用者Uの心拍数、体温、血圧の少なくとも一つが平常値よりも所定閾値以上変化した場合(主に心拍数、体温、血圧の少なくとも一つが平常値よりも所定閾値以上高くなった場合)に利用者Uが不快に感じていることを示す信号を出力する生体信号検出部を含んでいてもよい。選択部142が、不快に感じていることを示す信号を受信する。なお生体信号検出部は、無線通信で接続された筐体11とは別体の通信端末装置に設けられていてもよい。
図4は、音響装置10で実行される処理の一例を示すフローチャートである。
選択部142は、フィルタ処理により通過させる音、又は通過させない音を選択する(ステップS1)。ここでは、選択部142は、通信部141を介して取得した信号に基づいて、利用者Uが行ったプリセットに従った選択を行う。選択部142は、ステップS1で選択した結果に基づいて、音処理部144の設定を行う(ステップS2)。この設定には少なくともフィルタ条件の設定が含まれる。この設定が行われると、検出部13は、外部の音を検出する(ステップS3)。音処理部144は、ステップS2の設定に従い、検出部13から供給された音信号にフィルタ処理を含む音処理を施す(ステップS4)。そして、放音部15は、音処理部144から供給された当該音処理後の音信号、即ち少なくともフィルタ処理が施された後の音信号が示す音を、耳穴200に放射(つまり、放音)する(ステップS5)。次に、選択部142は、フィルタ処理によって通過させる音、又は通過させない音を選択するための信号を、通信部141を用いて取得したかどうかを判断する(ステップS6)。かかる信号は、プリセット以外の方法でフィルタ処理により通過させる音、又は通過させない音を選択するための信号である。ステップS6で「NO」と判定された場合は、音響装置10の処理はステップS3に戻される。ステップS6で「YES」と判定された場合は、音響装置10の処理はステップS1に戻されて、フィルタ処理により通過させる音、又は通過させない音の選択が行われる。
選択部142は、フィルタ処理により通過させる音、又は通過させない音を選択する(ステップS1)。ここでは、選択部142は、通信部141を介して取得した信号に基づいて、利用者Uが行ったプリセットに従った選択を行う。選択部142は、ステップS1で選択した結果に基づいて、音処理部144の設定を行う(ステップS2)。この設定には少なくともフィルタ条件の設定が含まれる。この設定が行われると、検出部13は、外部の音を検出する(ステップS3)。音処理部144は、ステップS2の設定に従い、検出部13から供給された音信号にフィルタ処理を含む音処理を施す(ステップS4)。そして、放音部15は、音処理部144から供給された当該音処理後の音信号、即ち少なくともフィルタ処理が施された後の音信号が示す音を、耳穴200に放射(つまり、放音)する(ステップS5)。次に、選択部142は、フィルタ処理によって通過させる音、又は通過させない音を選択するための信号を、通信部141を用いて取得したかどうかを判断する(ステップS6)。かかる信号は、プリセット以外の方法でフィルタ処理により通過させる音、又は通過させない音を選択するための信号である。ステップS6で「NO」と判定された場合は、音響装置10の処理はステップS3に戻される。ステップS6で「YES」と判定された場合は、音響装置10の処理はステップS1に戻されて、フィルタ処理により通過させる音、又は通過させない音の選択が行われる。
以上説明した実施形態の音響装置10によれば、検出した外部の音のうち、利用者Uに聞かせるべき音を選択して、その利用者Uに聞かせることができる。更に、音響装置10は、利用者Uが聞きたい音、又はそうではない音を学習する機能を有する。これにより、音響装置10は、利用者Uが聞きたがっている音、又はそうではない音に適したフィルタ処理に基づいて、外部の音を選択的に利用者Uに聞かせることができる。
[変形例]
本発明は、上述した実施形態と異なる形態で実施することが可能である。本発明は、例えば、以下のような形態で実施することも可能である。また、以下に示す変形例は、各々を適宜に組み合わせてもよい。
(変形例1)
選択部142は、音信号に施すフィルタ処理を、以下の(1)~(3)で説明する条件に応じて変化させてもよい。
本発明は、上述した実施形態と異なる形態で実施することが可能である。本発明は、例えば、以下のような形態で実施することも可能である。また、以下に示す変形例は、各々を適宜に組み合わせてもよい。
(変形例1)
選択部142は、音信号に施すフィルタ処理を、以下の(1)~(3)で説明する条件に応じて変化させてもよい。
(1)音響装置10の位置(場所)
音処理部144は、音響装置10の位置に応じてフィルタ処理を変化させる。例えば、屋外においては、安全上の理由から、自動車等の車両のエンジン音や、救急車等の緊急車両が発する報知音(サイレン)は、利用者Uが聞くことができることが望ましいと考えられる。一方、屋内に利用者Uが居る場合は、屋外に居る場合に比べて、かかる音が聞くできないことによる支障は比較的少ないと考えられる。また、屋外において、利用者Uは、自身に無関係の人物の会話の音声は聞かなくてもよいが、屋内で利用者Uに話しかけてくる人物の声を確実に聞こえるようにしておきたい場合がある。
そこで、選択部142は、音響装置10の位置を特定し、その特定した位置に応じた音を通過させ、又は通過させないように、フィルタ条件を設定する。音響装置10の位置については、例えば、GPS(Global Positioning System)方式の測位により得る方法が考えられるが、別の方式が用いられてもよい。
音処理部144は、音響装置10の位置に応じてフィルタ処理を変化させる。例えば、屋外においては、安全上の理由から、自動車等の車両のエンジン音や、救急車等の緊急車両が発する報知音(サイレン)は、利用者Uが聞くことができることが望ましいと考えられる。一方、屋内に利用者Uが居る場合は、屋外に居る場合に比べて、かかる音が聞くできないことによる支障は比較的少ないと考えられる。また、屋外において、利用者Uは、自身に無関係の人物の会話の音声は聞かなくてもよいが、屋内で利用者Uに話しかけてくる人物の声を確実に聞こえるようにしておきたい場合がある。
そこで、選択部142は、音響装置10の位置を特定し、その特定した位置に応じた音を通過させ、又は通過させないように、フィルタ条件を設定する。音響装置10の位置については、例えば、GPS(Global Positioning System)方式の測位により得る方法が考えられるが、別の方式が用いられてもよい。
(2)時刻
音処理部144は、時刻に応じてフィルタ処理を変化させる。例えば、屋外の夜間においては、利用者Uは周辺を見渡し難い。よって、安全上の理由から、自動車等の車両のエンジン音や、救急車等の緊急車両が発する報知音は、利用者Uが聞くことができることが望ましいと考えられる。一方、朝又は昼のような時刻の場合、利用者Uは周辺を見渡しやすいので、これらの音を聞くことができないことによる支障は比較的少ないと考えられる。また、利用者Uが起きている時刻は、会話の音声は聞くことできることが望ましいが、深夜のような利用者Uが睡眠中の時刻においてはかかる音声はむしろ聞こえない方が望ましい場合がある。そこで、選択部142は、時刻を特定し、その特定した時刻に応じた音を通過させ、又は通過させないように、フィルタ条件を設定する。時刻については、例えば音響装置10の計時機能を用いて特定されるとよい。
音処理部144は、時刻に応じてフィルタ処理を変化させる。例えば、屋外の夜間においては、利用者Uは周辺を見渡し難い。よって、安全上の理由から、自動車等の車両のエンジン音や、救急車等の緊急車両が発する報知音は、利用者Uが聞くことができることが望ましいと考えられる。一方、朝又は昼のような時刻の場合、利用者Uは周辺を見渡しやすいので、これらの音を聞くことができないことによる支障は比較的少ないと考えられる。また、利用者Uが起きている時刻は、会話の音声は聞くことできることが望ましいが、深夜のような利用者Uが睡眠中の時刻においてはかかる音声はむしろ聞こえない方が望ましい場合がある。そこで、選択部142は、時刻を特定し、その特定した時刻に応じた音を通過させ、又は通過させないように、フィルタ条件を設定する。時刻については、例えば音響装置10の計時機能を用いて特定されるとよい。
(3)利用者
音処理部144は、音響装置10の利用者に応じてフィルタ処理を変化させる。同じ音であっても、その音を快適と感じる利用者もいれば、それを不快と感じる利用者もいると考えられる。また、音響装置10が、複数の人物で共用されることも考えられる。そこで、選択部142は、音響装置10の利用者を特定し、その特定した利用者に音を通過させ、又は通過させないように、フィルタ条件を設定する。利用者の特定に関しては、例えば、音響装置10の使用開始時におけるログイン操作、又は耳音響認証の技術を用いる方法が考えられるが、これら以外の方法が用いられてもよい。なお、利用者Uの年齢、性別、好みに関する属性情報が提供され、選択部142は、提供された属性情報に応じてフィルタ条件を設定してもよい。
音処理部144は、音響装置10の利用者に応じてフィルタ処理を変化させる。同じ音であっても、その音を快適と感じる利用者もいれば、それを不快と感じる利用者もいると考えられる。また、音響装置10が、複数の人物で共用されることも考えられる。そこで、選択部142は、音響装置10の利用者を特定し、その特定した利用者に音を通過させ、又は通過させないように、フィルタ条件を設定する。利用者の特定に関しては、例えば、音響装置10の使用開始時におけるログイン操作、又は耳音響認証の技術を用いる方法が考えられるが、これら以外の方法が用いられてもよい。なお、利用者Uの年齢、性別、好みに関する属性情報が提供され、選択部142は、提供された属性情報に応じてフィルタ条件を設定してもよい。
(4)音の到来方向
音処理部144は、音響装置10の筐体11の向き及び外部からの音の到来方向に応じてフィルタ処理を変化させる。例えば、利用者Uが道路沿いに道路の右側を歩いている場合、利用者Uの左方向(道路側)からの車の音は通過させるフィルタ処理に設定してもよい。筐体11の向きはジャイロセンサによって検出可能であり、外部からの音の到来方向は指向性マイクや、複数のマイクによって検出可能であり、道路の配置等の地理的情報はGPS(Global Positioning System)を利用することにより検出可能である。
音処理部144は、音響装置10の筐体11の向き及び外部からの音の到来方向に応じてフィルタ処理を変化させる。例えば、利用者Uが道路沿いに道路の右側を歩いている場合、利用者Uの左方向(道路側)からの車の音は通過させるフィルタ処理に設定してもよい。筐体11の向きはジャイロセンサによって検出可能であり、外部からの音の到来方向は指向性マイクや、複数のマイクによって検出可能であり、道路の配置等の地理的情報はGPS(Global Positioning System)を利用することにより検出可能である。
以上説明した音信号に施すフィルタ処理を変化させる条件は、あくまで一例である。よって、音響装置10は、更に別の条件に応じてフィルタ処理を変化させることで、利用者Uに聞かせる音を変化させてもよい。
(変形例2)
上述した実施形態で説明した音響装置10の各構成要素の素材や形状、配置位置等はあくまで一例であり、種々の変形が可能である。
上述した音響装置10が備える構成のうちの一部が省略、又は変更されてもよい。例えば、音響装置10は、利用者Uから入力された信号に基づいてフィルタ処理を変化させる構成を有しなくてもよい。また、音響装置10が、利用者Uの操作を受け付ける操作手段(例えば、物理ボタン)を備えてもよい。この場合、音響装置10が無線通信を行う機能を有しなくてもよい。また、利用者Uの発話に基づいてフィルタ処理を変化させる構成としてもよい。例えば、音響装置10は、利用者Uの発話の内容(フィルタ名)とフィルタの設定とを予め対応付けておき、利用者Uの発話に応じてフィルタの設定を変更したり、フィルタのオン及びオフを切り替える構成としてもよい。また、利用者Uが「××(フィルタ名)をオンにして」と発話することにより、フィルタ名が××のフィルタをオンにする構成としてもよい。
また、音響装置10は、話者の氏名、話者の特徴情報及び該特徴情報に関するフィルタの設定(フィルタ処理)が対応づけられて登録されている場合、利用者Uによる話者の氏名の発話に応じて対応するフィルタの設定に変更する構成としてもよい。
上述した実施形態で説明した音響装置10の各構成要素の素材や形状、配置位置等はあくまで一例であり、種々の変形が可能である。
上述した音響装置10が備える構成のうちの一部が省略、又は変更されてもよい。例えば、音響装置10は、利用者Uから入力された信号に基づいてフィルタ処理を変化させる構成を有しなくてもよい。また、音響装置10が、利用者Uの操作を受け付ける操作手段(例えば、物理ボタン)を備えてもよい。この場合、音響装置10が無線通信を行う機能を有しなくてもよい。また、利用者Uの発話に基づいてフィルタ処理を変化させる構成としてもよい。例えば、音響装置10は、利用者Uの発話の内容(フィルタ名)とフィルタの設定とを予め対応付けておき、利用者Uの発話に応じてフィルタの設定を変更したり、フィルタのオン及びオフを切り替える構成としてもよい。また、利用者Uが「××(フィルタ名)をオンにして」と発話することにより、フィルタ名が××のフィルタをオンにする構成としてもよい。
また、音響装置10は、話者の氏名、話者の特徴情報及び該特徴情報に関するフィルタの設定(フィルタ処理)が対応づけられて登録されている場合、利用者Uによる話者の氏名の発話に応じて対応するフィルタの設定に変更する構成としてもよい。
(変形例3)
本発明の音響装置は、イヤホン型でなくてもよい。例えば、本発明の音響装置は、ヘッドフォン型のように、利用者Uの耳100を覆う構成であってもよい。この場合、イヤーカップに相当する部分が、利用者の耳に装着され、利用者の耳穴と外部の空間とを仕切る部材に相当する。
本発明の音響装置は、イヤホン型でなくてもよい。例えば、本発明の音響装置は、ヘッドフォン型のように、利用者Uの耳100を覆う構成であってもよい。この場合、イヤーカップに相当する部分が、利用者の耳に装着され、利用者の耳穴と外部の空間とを仕切る部材に相当する。
(変形例4)
上述した実施形態の信号処理部14が実現する機能は、複数のプログラムの組み合わせによって実現され、又は、複数のハードウェア資源の連携によって実現され得る。信号処理部14の機能がプログラムを用いて実現される場合、このプログラムは、磁気記録媒体(磁気テープ、磁気ディスク(HDD(Hard Disk Drive)、FD(Flexible Disk))等)、光記録媒体(光ディスク等)、光磁気記録媒体、半導体メモリなどのコンピュータ読み取り可能な記録媒体に記憶した状態で提供されてもよいし、ネットワークを介して配信されてもよい。
上述した実施形態の信号処理部14が実現する機能は、複数のプログラムの組み合わせによって実現され、又は、複数のハードウェア資源の連携によって実現され得る。信号処理部14の機能がプログラムを用いて実現される場合、このプログラムは、磁気記録媒体(磁気テープ、磁気ディスク(HDD(Hard Disk Drive)、FD(Flexible Disk))等)、光記録媒体(光ディスク等)、光磁気記録媒体、半導体メモリなどのコンピュータ読み取り可能な記録媒体に記憶した状態で提供されてもよいし、ネットワークを介して配信されてもよい。
ここで、本開示の実施形態を以下のようにまとめる。
(1)利用者の耳又は耳穴に装着されたときに、前記利用者の耳穴と外部の空間とを仕切る部材と、音を示す音信号を取得する取得部と、前記取得部で取得された音信号にフィルタ処理を施す音処理部であって、前記フィルタ処理を所定の条件に応じて変化させる音処理部と、前記フィルタ処理が施された音信号が示す音を、前記耳穴に放射する放音部と、を備えた音響装置を提供する。
(2)上記(1)に記載の音響装置において、前記外部の音を検出する検出部をさらに備え、前記取得部は、前記検出部で検出された前記外部の音を示す音信号又は通信部を介して受信した音を示す音信号を取得する。
(3)上記(1)又は(2)に記載の音響装置において、前記フィルタ処理によって通過させる音、又は通過させない音を選択する選択部をさらに備え、前記音処理部は、前記選択部で選択された音に応じて前記フィルタ処理を変化させる。
(4)上記(3)に記載の音響装置において、前記選択部は、特定の音を通過させた場合に利用者から入力された信号に基づいて、当該特定の音を前記通過させる音、又は前記通過させない音として選択するかどうかを判断する。
(5)上記(3)又は(4)に記載の音響装置において、前記通過させる音、又は前記通過させない音を選択するための信号を取得する通信を行う通信部を備え、前記選択部は、前記通信により取得された前記信号に基づいて、前記通過させる音、又は前記通過させない音を選択する。
(6)上記(1)から(5)のいずれか1項に記載の音響装置において、前記音処理部は、当該音響装置の地理的位置に応じて前記フィルタ処理を変化させる。
(7)上記(1)から(6)のいずれか1項に記載の音響装置において、前記音処理部は、時刻に応じて前記フィルタ処理を変化させる。
(8)上記(1)から(7)のいずれか1項に記載の音響装置において、前記音処理部は、前記利用者に応じて前記フィルタ処理を変化させる。
(9)上記(1)から(8)のいずれか1項に記載の音響装置において、前記音処理部は、前記利用者の属性に応じて前記フィルタ処理を変化させる。
(10)上記(1)から(9)のいずれか1項に記載の音響装置において、前記放音部は、前記フィルタ処理が施された音信号が示す音及び当該音とは異なる代替音を同タイミングで前記耳穴に放射する。
(11)上記(3)から(10)のいずれか1項に記載の音響装置において、話者の音声の特徴に基づき前記話者を認識する話者認識部をさらに備え、前記選択部は、前記話者認識部で認識した話者の音声を前記通過させない音として選択する。
(12)上記(1)から(11)のいずれか1項に記載の音響装置において、前記利用者の生体信号を検出する生体信号検出部をさらに有し、前記音処理部は、前記生体信号の変化に応じて前記フィルタ処理を変化させる。
(13)上記(2)から(12)のいずれか1項に記載の音響装置において、前記音処理部は、前記検出部によって検出された前記利用者の発話に応じて、前記フィルタ処理を変化させる。
(14)上記(1)から(13)のいずれか1項に記載の音響装置において、前記音処理部は、当該音響装置の筐体の向き及び外部からの音の到来方向に応じて前記フィルタ処理を変化させる。
(15)音を示す音信号を取得する取得工程と、前記取得工程で取得された音信号にフィルタ処理を施すフィルタ処理工程と、フィルタ処理工程における前記フィルタ処理を所定の条件に応じて変化させる音処理工程と、前記フィルタ処理が施された音信号が示す音を、耳穴に放射する放音工程と、を備える音響処理方法を提供する。
(16)上記(15)に記載の音響処理方法において、外部の音を検出する検出工程をさらに備え、前記取得工程は、前記検出工程で検出された前記外部の音を示す音信号又は通信を介して受信した音を示す音信号を取得する。
(17)上記(15)又は(16)に記載の音響処理方法において、前記フィルタ処理によって通過させる音、又は通過させない音を選択する選択工程をさらに備え、前記音処理工程は、前記選択工程で選択された音に応じて前記フィルタ処理を変化させる。
(18)上記(17)に記載の音響処理方法において、前記選択工程は、特定の音を通過させた場合に利用者から入力された信号に基づいて、当該特定の音を前記通過させる音、又は前記通過させない音として選択するかどうかを判断する。
(19)上記(17)又は(18)に記載の音響処理方法において、前記通過させる音、又は前記通過させない音を選択するための信号を取得する通信を行う通信工程をさらに備え、前記選択工程は、前記通信により取得された前記信号に基づいて、前記通過させる音、又は前記通過させない音を選択する。
(20)上記(15)から(19)のいずれか1項に記載の音響処理方法において、前記音処理工程は、当該音響処理方法を実施する音響装置の地理的位置に応じて前記フィルタ処理を変化させる。
(21)上記(15)から(20)のいずれか1項に記載の音響処理方法において、前記音処理工程は、時刻に応じて前記フィルタ処理を変化させる。
(22)上記(15)から(21)のいずれか1項に記載の音響処理方法において、前記音処理工程は、前記利用者に応じて前記フィルタ処理を変化させる。
(23)上記(15)から(21)のいずれか1項に記載の音響処理方法において、前記音処理工程は、前記利用者の属性に応じて前記フィルタ処理を変化させる。
(24)上記(15)から(23)のいずれか1項に記載の音響処理方法において、前記放音工程は、前記フィルタ処理が施された音信号が示す音及び当該音とは異なる代替音を同タイミングで前記耳穴に放射する。
(25)上記(17)から(24)のいずれか1項に記載の音響処理方法において、話者の音声の特徴に基づき前記話者を認識する話者認識工程をさらに備え、前記選択工程は、前記話者認識工程で認識した話者の音声を前記通過させない音として選択する。
(26)上記(15)から(25)のいずれか1項に記載の音響処理方法において、前記利用者の生体信号を検出する生体信号検出工程をさらに有し、前記音処理工程は、前記生体信号の変化に応じて前記フィルタ処理を変化させる。
(27)上記(16)から(26)のいずれか1項に記載の音響処理方法において、前記音処理工程は、前記検出工程によって検出された前記利用者の発話に応じて、前記フィルタ処理を変化させる。
(28)上記(15)から(27)のいずれか1項に記載の音響処理方法において、前記音処理工程は、当該音響処理方法が実施される音響装置の筐体の向き及び外部からの音の到来方向に応じて前記フィルタ処理を変化させる。
(18)上記(17)に記載の音響処理方法において、前記選択工程は、特定の音を通過させた場合に利用者から入力された信号に基づいて、当該特定の音を前記通過させる音、又は前記通過させない音として選択するかどうかを判断する。
(19)上記(17)又は(18)に記載の音響処理方法において、前記通過させる音、又は前記通過させない音を選択するための信号を取得する通信を行う通信工程をさらに備え、前記選択工程は、前記通信により取得された前記信号に基づいて、前記通過させる音、又は前記通過させない音を選択する。
(20)上記(15)から(19)のいずれか1項に記載の音響処理方法において、前記音処理工程は、当該音響処理方法を実施する音響装置の地理的位置に応じて前記フィルタ処理を変化させる。
(21)上記(15)から(20)のいずれか1項に記載の音響処理方法において、前記音処理工程は、時刻に応じて前記フィルタ処理を変化させる。
(22)上記(15)から(21)のいずれか1項に記載の音響処理方法において、前記音処理工程は、前記利用者に応じて前記フィルタ処理を変化させる。
(23)上記(15)から(21)のいずれか1項に記載の音響処理方法において、前記音処理工程は、前記利用者の属性に応じて前記フィルタ処理を変化させる。
(24)上記(15)から(23)のいずれか1項に記載の音響処理方法において、前記放音工程は、前記フィルタ処理が施された音信号が示す音及び当該音とは異なる代替音を同タイミングで前記耳穴に放射する。
(25)上記(17)から(24)のいずれか1項に記載の音響処理方法において、話者の音声の特徴に基づき前記話者を認識する話者認識工程をさらに備え、前記選択工程は、前記話者認識工程で認識した話者の音声を前記通過させない音として選択する。
(26)上記(15)から(25)のいずれか1項に記載の音響処理方法において、前記利用者の生体信号を検出する生体信号検出工程をさらに有し、前記音処理工程は、前記生体信号の変化に応じて前記フィルタ処理を変化させる。
(27)上記(16)から(26)のいずれか1項に記載の音響処理方法において、前記音処理工程は、前記検出工程によって検出された前記利用者の発話に応じて、前記フィルタ処理を変化させる。
(28)上記(15)から(27)のいずれか1項に記載の音響処理方法において、前記音処理工程は、当該音響処理方法が実施される音響装置の筐体の向き及び外部からの音の到来方向に応じて前記フィルタ処理を変化させる。
本出願は、2016年12月6日に出願された日本特許出願(特願2016-236778)に基づくものであり、ここに参照として取り込まれる。
本発明によれば、利用者に聞かせる外部の音を変化させることができるため有用である。
10…音響装置
11…筐体
12…イヤーピース
13…検出部
14…信号処理部
141…通信部
142…選択部
143…A/D変換器
144…音処理部
145…D/A変換器
15…放音部
100…耳
200…耳穴
11…筐体
12…イヤーピース
13…検出部
14…信号処理部
141…通信部
142…選択部
143…A/D変換器
144…音処理部
145…D/A変換器
15…放音部
100…耳
200…耳穴
Claims (28)
- 利用者の耳又は耳穴に装着されたときに、前記利用者の耳穴と外部の空間とを仕切る部材と、
音を示す音信号を取得する取得部と、
前記取得部で取得された音信号にフィルタ処理を施す音処理部であって、前記フィルタ処理を所定の条件に応じて変化させる音処理部と、
前記フィルタ処理が施された音信号が示す音を、前記耳穴に放射する放音部と
を備える音響装置。 - 前記外部の音を検出する検出部をさらに備え、
前記取得部は、前記検出部で検出された前記外部の音を示す音信号又は通信部を介して受信した音を示す音信号を取得する
ことを特徴とする請求項1に記載の音響装置。 - 前記フィルタ処理によって通過させる音、又は通過させない音を選択する選択部をさらに備え、
前記音処理部は、前記選択部で選択された音に応じて前記フィルタ処理を変化させる
ことを特徴とする請求項1又は2に記載の音響装置。 - 前記選択部は、特定の音を通過させた場合に利用者から入力された信号に基づいて、当該特定の音を前記通過させる音、又は前記通過させない音として選択するかどうかを判断する
ことを特徴とする請求項3に記載の音響装置。 - 前記通過させる音、又は前記通過させない音を選択するための信号を取得する通信を行う通信部を備え、
前記選択部は、前記通信により取得された前記信号に基づいて、前記通過させる音、又は前記通過させない音を選択する
ことを特徴とする請求項3又は請求項4に記載の音響装置。 - 前記音処理部は、当該音響装置の地理的位置に応じて前記フィルタ処理を変化させる
ことを特徴とする請求項1から請求項5のいずれか1項に記載の音響装置。 - 前記音処理部は、時刻に応じて前記フィルタ処理を変化させる
ことを特徴とする請求項1から請求項6のいずれか1項に記載の音響装置。 - 前記音処理部は、前記利用者に応じて前記フィルタ処理を変化させる
ことを特徴とする請求項1から請求項7のいずれか1項に記載の音響装置。 - 前記音処理部は、前記利用者の属性に応じて前記フィルタ処理を変化させる
ことを特徴とする請求項1から請求項8のいずれか1項に記載の音響装置。 - 前記放音部は、前記フィルタ処理が施された音信号が示す音及び当該音とは異なる代替音を同タイミングで前記耳穴に放射する
ことを特徴とする請求項1から請求項9のいずれか1項に記載の音響装置。 - 話者の音声の特徴に基づき前記話者を認識する話者認識部をさらに備え、
前記選択部は、前記話者認識部で認識した話者の音声を前記通過させない音として選択する
ことを特徴とする請求項3から請求項10のいずれか1項に記載の音響装置。 - 前記利用者の生体信号を検出する生体信号検出部をさらに有し、
前記音処理部は、前記生体信号の変化に応じて前記フィルタ処理を変化させる
ことを特徴とする請求項1から請求項11のいずれか1項に記載の音響装置。 - 前記音処理部は、前記検出部によって検出された前記利用者の発話に応じて、前記フィルタ処理を変化させる
ことを特徴とする請求項2から請求項12のいずれか1項に記載の音響装置。 - 前記音処理部は、当該音響装置の筐体の向き及び外部からの音の到来方向に応じて前記フィルタ処理を変化させる
ことを特徴とする請求項1から請求項13のいずれか1項に記載の音響装置。 - 音を示す音信号を取得する取得工程と、
前記取得工程で取得された音信号にフィルタ処理を施すフィルタ処理工程と、
フィルタ処理工程における前記フィルタ処理を所定の条件に応じて変化させる音処理工程と、
前記フィルタ処理が施された音信号が示す音を、耳穴に放射する放音工程と
を備える音響処理方法。 - 外部の音を検出する検出工程をさらに備え、
前記取得工程は、前記検出工程で検出された前記外部の音を示す音信号又は通信を介して受信した音を示す音信号を取得する
ことを特徴とする請求項15に記載の音響処理方法。 - 前記フィルタ処理によって通過させる音、又は通過させない音を選択する選択工程をさらに備え、
前記音処理工程は、前記選択工程で選択された音に応じて前記フィルタ処理を変化させる
ことを特徴とする請求項15又は16に記載の音響処理方法。 - 前記選択工程は、特定の音を通過させた場合に利用者から入力された信号に基づいて、当該特定の音を前記通過させる音、又は前記通過させない音として選択するかどうかを判断する
ことを特徴とする請求項17に記載の音響処理方法。 - 前記通過させる音、又は前記通過させない音を選択するための信号を取得する通信を行う通信工程をさらに備え、
前記選択工程は、前記通信により取得された前記信号に基づいて、前記通過させる音、又は前記通過させない音を選択する
ことを特徴とする請求項17又は請求項18に記載の音響処理方法。 - 前記音処理工程は、当該音響処理方法を実施する音響装置の地理的位置に応じて前記フィルタ処理を変化させる
ことを特徴とする請求項15から請求項19のいずれか1項に記載の音響処理方法。 - 前記音処理工程は、時刻に応じて前記フィルタ処理を変化させる
ことを特徴とする請求項15から請求項20のいずれか1項に記載の音響処理方法。 - 前記音処理工程は、前記利用者に応じて前記フィルタ処理を変化させる
ことを特徴とする請求項15から請求項21のいずれか1項に記載の音響処理方法。 - 前記音処理工程は、前記利用者の属性に応じて前記フィルタ処理を変化させる
ことを特徴とする請求項15から請求項22のいずれか1項に記載の音響処理方法。 - 前記放音工程は、前記フィルタ処理が施された音信号が示す音及び当該音とは異なる代替音を同タイミングで前記耳穴に放射する
ことを特徴とする請求項15から請求項23のいずれか1項に記載の音響処理方法。 - 話者の音声の特徴に基づき前記話者を認識する話者認識工程をさらに備え、
前記選択工程は、前記話者認識工程で認識した話者の音声を前記通過させない音として選択する
ことを特徴とする請求項17から請求項24のいずれか1項に記載の音響処理方法。 - 前記利用者の生体信号を検出する生体信号検出工程をさらに有し、
前記音処理工程は、前記生体信号の変化に応じて前記フィルタ処理を変化させる
ことを特徴とする請求項15から請求項25のいずれか1項に記載の音響処理方法。 - 前記音処理工程は、前記検出工程によって検出された前記利用者の発話に応じて、前記フィルタ処理を変化させる
ことを特徴とする請求項16から請求項26のいずれか1項に記載の音響処理方法。 - 前記音処理工程は、当該音響処理方法が実施される音響装置の筐体の向き及び外部からの音の到来方向に応じて前記フィルタ処理を変化させる
ことを特徴とする請求項15から請求項27のいずれか1項に記載の音響処理方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018555048A JP6980695B2 (ja) | 2016-12-06 | 2017-12-06 | 特定音フィルタ処理装置及び特定音フィルタ処理方法 |
US16/432,208 US10805710B2 (en) | 2016-12-06 | 2019-06-05 | Acoustic device and acoustic processing method |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016236778 | 2016-12-06 | ||
JP2016-236778 | 2016-12-06 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
US16/432,208 Continuation US10805710B2 (en) | 2016-12-06 | 2019-06-05 | Acoustic device and acoustic processing method |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2018105668A1 true WO2018105668A1 (ja) | 2018-06-14 |
Family
ID=62492022
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2017/043882 WO2018105668A1 (ja) | 2016-12-06 | 2017-12-06 | 音響装置及び音響処理方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US10805710B2 (ja) |
JP (1) | JP6980695B2 (ja) |
WO (1) | WO2018105668A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020161982A1 (ja) * | 2019-02-05 | 2020-08-13 | ソニー株式会社 | 音響装置 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06189396A (ja) * | 1992-07-29 | 1994-07-08 | Minnesota Mining & Mfg Co <3M> | ユーザ作動に依る選ばれた音声成分を適正に濾過する聴覚補助装置及びその濾過方法 |
JPH0822291A (ja) * | 1994-07-06 | 1996-01-23 | Sekisui Chem Co Ltd | 移動可能な能動消音装置 |
JPH08294197A (ja) * | 1994-10-14 | 1996-11-05 | Matsushita Electric Ind Co Ltd | 補聴器 |
WO2009125579A1 (ja) * | 2008-04-09 | 2009-10-15 | パナソニック株式会社 | 補聴器、補聴装置、補聴方法、及び集積回路 |
JP2011188334A (ja) * | 2010-03-10 | 2011-09-22 | Panasonic Corp | 補聴器 |
JP2011199697A (ja) * | 2010-03-23 | 2011-10-06 | Yamaha Corp | ヘッドフォン |
JP2013146060A (ja) * | 2011-12-29 | 2013-07-25 | Gn Resound As | 定位向上補聴器 |
WO2014034086A1 (ja) * | 2012-09-03 | 2014-03-06 | パナソニック株式会社 | 補聴器、補聴器を用いた補聴システム、および補聴方法 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5867581A (en) | 1994-10-14 | 1999-02-02 | Matsushita Electric Industrial Co., Ltd. | Hearing aid |
US20150281853A1 (en) * | 2011-07-11 | 2015-10-01 | SoundFest, Inc. | Systems and methods for enhancing targeted audibility |
JP6190351B2 (ja) * | 2013-12-13 | 2017-08-30 | ジーエヌ ヒアリング エー/エスGN Hearing A/S | 学習型補聴器 |
US9716939B2 (en) * | 2014-01-06 | 2017-07-25 | Harman International Industries, Inc. | System and method for user controllable auditory environment customization |
US10425717B2 (en) * | 2014-02-06 | 2019-09-24 | Sr Homedics, Llc | Awareness intelligence headphone |
US9202474B2 (en) * | 2014-02-24 | 2015-12-01 | The Boeing Company | Effecting voice communication in a sound-restricted environment |
US9560437B2 (en) * | 2014-04-08 | 2017-01-31 | Doppler Labs, Inc. | Time heuristic audio control |
-
2017
- 2017-12-06 WO PCT/JP2017/043882 patent/WO2018105668A1/ja active Application Filing
- 2017-12-06 JP JP2018555048A patent/JP6980695B2/ja active Active
-
2019
- 2019-06-05 US US16/432,208 patent/US10805710B2/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06189396A (ja) * | 1992-07-29 | 1994-07-08 | Minnesota Mining & Mfg Co <3M> | ユーザ作動に依る選ばれた音声成分を適正に濾過する聴覚補助装置及びその濾過方法 |
JPH0822291A (ja) * | 1994-07-06 | 1996-01-23 | Sekisui Chem Co Ltd | 移動可能な能動消音装置 |
JPH08294197A (ja) * | 1994-10-14 | 1996-11-05 | Matsushita Electric Ind Co Ltd | 補聴器 |
WO2009125579A1 (ja) * | 2008-04-09 | 2009-10-15 | パナソニック株式会社 | 補聴器、補聴装置、補聴方法、及び集積回路 |
JP2011188334A (ja) * | 2010-03-10 | 2011-09-22 | Panasonic Corp | 補聴器 |
JP2011199697A (ja) * | 2010-03-23 | 2011-10-06 | Yamaha Corp | ヘッドフォン |
JP2013146060A (ja) * | 2011-12-29 | 2013-07-25 | Gn Resound As | 定位向上補聴器 |
WO2014034086A1 (ja) * | 2012-09-03 | 2014-03-06 | パナソニック株式会社 | 補聴器、補聴器を用いた補聴システム、および補聴方法 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020161982A1 (ja) * | 2019-02-05 | 2020-08-13 | ソニー株式会社 | 音響装置 |
CN113383558A (zh) * | 2019-02-05 | 2021-09-10 | 索尼集团公司 | 声学装置 |
JPWO2020161982A1 (ja) * | 2019-02-05 | 2021-12-02 | ソニーグループ株式会社 | 音響装置 |
JP7409327B2 (ja) | 2019-02-05 | 2024-01-09 | ソニーグループ株式会社 | 音響装置 |
Also Published As
Publication number | Publication date |
---|---|
US20190289385A1 (en) | 2019-09-19 |
JP6980695B2 (ja) | 2021-12-15 |
JPWO2018105668A1 (ja) | 2019-10-24 |
US10805710B2 (en) | 2020-10-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10817251B2 (en) | Dynamic capability demonstration in wearable audio device | |
EP3701525B1 (en) | Electronic device using a compound metric for sound enhancement | |
JP6325686B2 (ja) | ヘッドセットと音源との間のオーディオの協調的処理 | |
JP6374529B2 (ja) | ヘッドセットと音源との間のオーディオの協調的処理 | |
CN107533839B (zh) | 一种对周围环境音的处理方法及设备 | |
US11540743B2 (en) | Ear-worn devices with deep breathing assistance | |
US20120213393A1 (en) | Providing notification sounds in a customizable manner | |
KR20130133790A (ko) | 보청기를 가진 개인 통신 장치 및 이를 제공하기 위한 방법 | |
JP2010011447A (ja) | 補聴器並びに補聴器に用いられる補聴処理方法及び集積回路 | |
CN113395647B (zh) | 具有至少一个听力设备的听力系统及运行听力系统的方法 | |
US10129633B1 (en) | Automated awareness for ANR systems | |
WO2008103925A1 (en) | Method and device for sound detection and audio control | |
CN113891225A (zh) | 听力装置的算法参数的个人化 | |
TWI831785B (zh) | 個人聽力裝置 | |
JP2018509820A (ja) | パーソナライズされたヘッドホン | |
US20220272465A1 (en) | Hearing device comprising a stress evaluator | |
KR101760753B1 (ko) | 착용자의 상태를 알려 주는 청음 보조 장치 | |
US11189265B2 (en) | Systems and methods for assisting the hearing-impaired using machine learning for ambient sound analysis and alerts | |
US11282492B2 (en) | Smart-safe masking and alerting system | |
EP2876899A1 (en) | Adjustable hearing aid device | |
US12089005B2 (en) | Hearing aid comprising an open loop gain estimator | |
WO2018105668A1 (ja) | 音響装置及び音響処理方法 | |
US20230328461A1 (en) | Hearing aid comprising an adaptive notification unit | |
JP2007187748A (ja) | 音選択加工装置 | |
US10873816B2 (en) | Providing feedback of an own voice loudness of a user of a hearing device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 17878756 Country of ref document: EP Kind code of ref document: A1 |
|
ENP | Entry into the national phase |
Ref document number: 2018555048 Country of ref document: JP Kind code of ref document: A |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 17878756 Country of ref document: EP Kind code of ref document: A1 |