WO2014141735A1 - 信号処理装置、ヘッドフォンおよび信号処理方法 - Google Patents

信号処理装置、ヘッドフォンおよび信号処理方法 Download PDF

Info

Publication number
WO2014141735A1
WO2014141735A1 PCT/JP2014/050781 JP2014050781W WO2014141735A1 WO 2014141735 A1 WO2014141735 A1 WO 2014141735A1 JP 2014050781 W JP2014050781 W JP 2014050781W WO 2014141735 A1 WO2014141735 A1 WO 2014141735A1
Authority
WO
WIPO (PCT)
Prior art keywords
signal
sound
microphone
headphone
unit
Prior art date
Application number
PCT/JP2014/050781
Other languages
English (en)
French (fr)
Inventor
森茂 藤澤
Original Assignee
ヤマハ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ヤマハ株式会社 filed Critical ヤマハ株式会社
Priority to US14/772,614 priority Critical patent/US20160012816A1/en
Publication of WO2014141735A1 publication Critical patent/WO2014141735A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K11/00Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/16Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/175Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound
    • G10K11/178Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase
    • G10K11/1781Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase characterised by the analysis of input or output signals, e.g. frequency range, modes, transfer functions
    • G10K11/17821Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase characterised by the analysis of input or output signals, e.g. frequency range, modes, transfer functions characterised by the analysis of the input signals only
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K11/00Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/16Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/175Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound
    • G10K11/178Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase
    • G10K11/1783Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase handling or detecting of non-standard events or conditions, e.g. changing operating modes under specific operating conditions
    • G10K11/17837Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase handling or detecting of non-standard events or conditions, e.g. changing operating modes under specific operating conditions by retaining part of the ambient acoustic environment, e.g. speech or alarm signals that the user needs to hear
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K11/00Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/16Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/175Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound
    • G10K11/178Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase
    • G10K11/1787General system configurations
    • G10K11/17873General system configurations using a reference signal without an error signal, e.g. pure feedforward
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K11/00Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/16Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/175Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound
    • G10K11/178Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase
    • G10K11/1787General system configurations
    • G10K11/17885General system configurations additionally using a desired external signal, e.g. pass-through audio such as music or speech
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/10Earpieces; Attachments therefor ; Earphones; Monophonic headphones
    • H04R1/1083Reduction of ambient noise
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/005Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/04Circuit arrangements, e.g. for selective connection of amplifier inputs/outputs to loudspeakers, for loudspeaker detection, or for adaptation of settings to personal preferences or hearing impairments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K2210/00Details of active noise control [ANC] covered by G10K11/178 but not provided for in any of its subgroups
    • G10K2210/10Applications
    • G10K2210/108Communication systems, e.g. where useful sound is kept and noise is cancelled
    • G10K2210/1081Earphones, e.g. for telephones, ear protectors or headsets
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K2210/00Details of active noise control [ANC] covered by G10K11/178 but not provided for in any of its subgroups
    • G10K2210/30Means
    • G10K2210/301Computational
    • G10K2210/3031Hardware, e.g. architecture
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K2210/00Details of active noise control [ANC] covered by G10K11/178 but not provided for in any of its subgroups
    • G10K2210/30Means
    • G10K2210/301Computational
    • G10K2210/3046Multiple acoustic inputs, multiple acoustic outputs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/033Headphones for stereophonic communication
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/01Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]

Definitions

  • the present invention relates to a signal processing device, headphones, and a signal processing method.
  • This application claims priority on March 12, 2013 based on Japanese Patent Application No. 2013-048890 for which it applied to Japan, and uses the content for it here.
  • Sealed headphones which are highly sound-insulating headphones, can listen to the sound of the sound source (audio sound) without leaking to the surroundings.
  • Noise canceling headphones are known as an application example of sealed headphones.
  • the noise-canceling headphone acquires surrounding sounds with a microphone, and adds the surrounding sounds to the audio sound in the opposite phase, thereby canceling the surrounding sounds that reach the user's ear.
  • These headphones have a problem of blocking even necessary sounds (for example, calling voices of surrounding people).
  • the noise-canceling headphone disclosed in Patent Document 1 has a talk-through function that can be set to a state similar to a state in which the headphone is removed by outputting only ambient sounds acquired by a microphone.
  • the headphone disclosed in Patent Document 1 extracts only a specific band (sound band) from the sound acquired by the microphone, and mixes the extracted sound with the audio sound. With this configuration, the audio sound can be heard without blocking the human voice.
  • the headphone disclosed in Patent Document 1 simply mixes the sound acquired by the microphone with the audio sound. For this reason, the sound acquired by the microphone overlaps with the audio sound, which makes it difficult to hear.
  • An example of an object of the present invention is to provide a signal processing device, a headphone, and a signal processing method that make it easy to hear the sound of the sound source and the surrounding sound without overlapping the sound of the sound source and the surrounding sound.
  • a signal processing apparatus includes an input unit that receives input of a sound source signal, a sound collection unit that acquires ambient sounds and generates a sound collection signal, and a sound image based on the sound source signal is localized. At least one of the sound source signal and the sound collection signal is processed so that at least one of the sound source signal and the sound collection signal is processed, so that the first position to be different from the second position where the sound image based on the signal of the sound collection signal is localized
  • a localization processing unit that mixes the sound source signal and the collected sound signal to generate an addition signal, and an output unit that outputs the addition signal.
  • the above signal processing device performs processing to localize the sound of the sound source and the surrounding sound at different positions while mixing the surrounding sound acquired by the sound collection unit with the sound of the sound source, so that these sounds do not overlap . Therefore, the user can hear the sound of the sound source and the surrounding sound clearly.
  • the above signal processing apparatus it is possible to clearly hear the sound of the sound source and the surrounding sound without performing processing that extracts only the audio band. For this reason, the sound (for example, the sound of an emergency vehicle) including main components other than the voice band can be heard clearly.
  • the user can clearly hear both the sound of the sound source and the surrounding sound without leaking the sound of the sound source such as a musical sound to the surroundings.
  • a headphone includes the above signal processing device and a headphone unit that emits sound based on the addition signal.
  • a signal processing method receives an input of a sound source signal, acquires a surrounding sound to generate a sound collection signal, and a first position where a sound image based on the sound source signal is localized; At least one of the sound source signal and the sound collection signal is processed so that the second position where the sound image based on the signal of the sound collection signal is localized is different, and at least one of the sound source signal processed and the sound collection signal is processed. Mixing the sound signal to generate an addition signal and outputting the addition signal.
  • the sound of the sound source and the surrounding sound do not overlap, and the sound of the sound source and the surrounding sound can be easily heard.
  • FIG. 1A is a schematic diagram of a headphone 100 according to the first embodiment.
  • the headphones 100 are sealed.
  • the headphone 100 includes a signal processing unit 1, a headphone unit 2L, a headphone unit 2R, and a microphone 11.
  • the signal processing unit 1 may be an example of a processing device.
  • Various signals in the present embodiment are all digital signals unless otherwise specified. Illustration and description of a configuration for converting various signals from analog to digital and a configuration for converting digital to analog are omitted.
  • the headphone unit 2L is disposed in the listener's left ear.
  • the headphone unit 2R is disposed in the right ear of the listener.
  • the microphone 11 is provided in the vicinity of the headphone unit 2R, acquires ambient sounds, and outputs a sound collection signal.
  • the installation position of the microphone 11 is not limited to this example.
  • the microphone 11 may be provided in the vicinity of the headphone unit 2 ⁇ / b> L, may be provided in the vicinity of the signal processing unit 1, or may be incorporated in the signal processing unit 1.
  • the headphone 100 of this embodiment performs processing so that the position where the sound image based on the ambient sound (sound pickup signal) acquired by the microphone 11 is localized and the position where the sound image based on the sound of the sound source (audio signal) is localized are different. I do.
  • a head-related transfer function hereinafter referred to as HRTF
  • HRTF head-related transfer function
  • HRTF is an impulse response that expresses the difference in sound volume, arrival time, and frequency characteristics from a virtual speaker (SPV in FIG. 1A) installed at a certain position to each of the left and right ears.
  • the headphone 100 gives HRTF to be localized by the virtual speaker SPV located behind the head to at least one of the surrounding sound and the sound of the sound source.
  • the headphone 100 supplies the ambient sound and the sound of the sound source, to which at least one of them is given HRTF, to the headphone unit 2L and the headphone unit 2R.
  • FIG. 1B is a block diagram showing the configuration of the signal processing unit 1.
  • the signal processing unit 1 includes a microphone amplifier 12, a localization processing unit 13, a level adjuster 14L, a level adjuster 14R, an input unit 15, a switch 16, a headphone amplifier 17L, a headphone amplifier 17R, and an output unit 18.
  • the signal processing unit 1 may be a dedicated unit for the headphones 100, but is not limited thereto.
  • Each configuration of the signal processing unit 1 can also be realized by using a general information processing device (for example, a smartphone).
  • the input unit 15 receives an input of a sound source signal (audio signal) from an external device such as an audio player (or an audio playback function unit of the own device).
  • the localization processing unit 13 and the switch 16 accept input of an audio signal input to the input unit 15.
  • each of the localization processing unit 13 and the switch 16 receives input of two-channel audio signals of the L channel signal Lch and the R channel signal Rch from the input unit 15.
  • the front-end microphone amplifier 12 amplifies ambient sound (sound collection signal) collected by the microphone 11 and inputs the amplified sound collection signal to the localization processing unit 13.
  • the localization processing unit 13 includes a filter for convolving the HRTF impulse response.
  • the localization processing unit 13 adds the HRTF to the collected sound signal input from the microphone amplifier 12 to make the position where the sound image based on the collected sound signal is localized different from the audio signal.
  • the localization processing unit 13 may be provided as hardware.
  • the localization processing unit 13 may be realized as software by a CPU in an information processing apparatus such as a smartphone executing a predetermined program.
  • the localization processing unit 13 includes a filter 131L, a filter 131R, an adder 132L, and an adder 132R.
  • the filter 131L adds HRTF (B L ) corresponding to the path from the virtual speaker SPV behind the listener to the left ear to the collected sound signal.
  • the adder 132L mixes the collected sound signal to which the HRTF (B L ) is added with the L channel audio signal.
  • the filter 131R adds HRTF (B R ) corresponding to the path from the virtual speaker SPV behind the listener to the right ear to the collected sound signal.
  • the adder 132R mixes the collected sound signal to which HRTF (B R ) is added into the R channel audio signal.
  • the level adjuster 14L and the level adjuster 14R adjust the level of each of the L channel audio signal and the R channel audio signal input from the localization processing unit 13 and input to the switch 16.
  • the switch 16 is an L-channel audio signal and an R-channel audio signal input from the input unit 15 or an L-channel audio signal and an R-channel audio input from the level adjuster 14L and the level adjuster 14R according to a user operation. Either one of the signals is input to the subsequent stage.
  • the headphone amplifier 17L and the headphone amplifier 17R amplify the L channel audio signal and the R channel audio signal input from the switch 16, respectively, and input to the output unit 18.
  • the output unit 18 inputs the L channel audio signal input from the headphone amplifier 17L and the headphone amplifier 17R to the headphone unit 2L and the headphone unit 2R.
  • the headphones 100 function as normal sealed headphones.
  • the sound collecting signal of the microphone 11 is mixed with the L channel audio signal and the R channel audio signal input from the level adjuster 14L and the level adjuster 14R. Therefore, the user can listen to both the audio sound and the surrounding sound.
  • the collected sound signal of the microphone 11 is localized at the position of the virtual speaker SPV behind the listener. For this reason, the user localizes the audio sound in the head and local sounds around the rear position. Therefore, the user can listen to the audio sound without leaking to the surroundings, and can clearly hear both the audio sound and the surrounding sounds. Therefore, the user can naturally listen to the sound of the sound source without being obstructed by surrounding sounds, and does not miss the necessary sound (for example, the sound of an emergency vehicle).
  • an HRTF that is localized at the position of the virtual speaker SPV behind the listener is given to the sound collected signal of the microphone 11.
  • the localization process is not limited to this, and any method such as adjustment of the left / right mixing balance and volume control may be used.
  • the localization processing can be realized by inputting the sound pickup signal of the microphone 11 to the headphone unit 2L and inputting the audio signal to the headphone unit 2R. Localization processing can also be realized by analog processing.
  • the sound image based on the collected sound signal of the microphone 11 may be localized in the head, and the sound image based on the audio signal may be localized at the position of the virtual speaker SPV behind the listener.
  • HRTF may be applied to both the collected sound signal and the audio signal.
  • FIG. 2A is a schematic diagram of a headphone 100A according to the second embodiment.
  • FIG. 2B is a block diagram showing a configuration of a signal processing unit 1A according to the second embodiment.
  • the headphone 100A is a sealed type.
  • the localization processing unit 13A in this example further includes a filter 133L and a filter 133R.
  • the filter 133L adds HRTF (F L ) corresponding to the path from the virtual speaker SPVF in front of the listener to the left ear to the L channel audio signal.
  • the adder 132L mixes the audio signal to which HRTF (F L ) is added and the collected sound signal to which HRTF (B L ) is added to generate an addition signal.
  • the filter 133R adds HRTF (F R ) corresponding to the path from the virtual speaker SPVF in front of the listener to the right ear to the audio signal.
  • the adder 132R mixes the audio signal to which HRTF (F R ) is added and the collected sound signal to which HRTF (B R ) is added to generate an addition signal.
  • the sound image based on the collected sound signal is localized at the position of the virtual speaker SPV behind the listener.
  • the sound image based on the audio signal is localized at the position of the virtual speaker SPVF in front of the listener. Therefore, also in this example, the user can listen to the audio sound without leaking to the surroundings, and can clearly hear both the audio sound and the surrounding sounds.
  • FIG. 3 is a block diagram showing a configuration of a signal processing unit 1B according to an application example of the first embodiment. 3 that are the same as those shown in FIG. 1B are given the same reference numerals, and descriptions thereof are omitted.
  • the signal processing unit 1 ⁇ / b> B in this example includes a cancel signal generation circuit 19 that receives an input of a sound collection signal from the microphone 11.
  • the cancel signal generation circuit 19 is a circuit that generates a cancel signal that simulates sounds heard by the listener among surrounding sounds. That is, the cancel signal generation circuit 19 is composed of a filter that simulates the sound insulation characteristics of a sealed headphone.
  • the adder 132L and the adder 132R mix the cancel signal generated by the cancel signal generation circuit 19 into the L channel audio signal and the R channel audio signal in opposite phases.
  • the level adjuster 141 ⁇ / b> L and the level adjuster 141 ⁇ / b> R adjust the levels of the L channel audio signal and the R channel audio signal mixed with the anti-phase cancel signal, and input to the switch 16.
  • the headphones 100 function as noise canceling headphones.
  • the collected sound signal acquired by the single microphone 11 is input to the localization processing unit 13 and the cancel signal generation circuit 19, but the number of microphones is not limited to one.
  • a plurality of microphones may be provided, and a sound collection signal acquired by each microphone may be input to the cancel signal generation circuit 19.
  • the cancel signal generation circuit 19 can also be applied to the signal processing unit 1A (and signal processing unit 1C and signal processing unit 1D described later) shown in FIG. 2B.
  • FIG. 4A is a schematic diagram of a headphone 100C according to the third embodiment.
  • FIG. 4B is a block diagram showing a configuration of a signal processing unit 1C according to the third embodiment.
  • the headphone 100C is a sealed type.
  • the headphone 110C in this example includes two microphones, that is, a microphone 11L and a microphone 11R.
  • the headphones 110C localize sound images based on sounds collected by the microphone 11L and the microphone 11R at different positions.
  • the microphone 11L mainly acquires the left sound of the listener among the surrounding sounds.
  • the microphone 11R mainly acquires sounds on the right side of the listener among surrounding sounds.
  • the signal processing unit 1C includes a microphone amplifier 12L that amplifies the sound collection signal of the microphone 11L and a microphone amplifier 12R that amplifies the sound collection signal of the microphone 11R.
  • the localization processing unit 13C includes a filter 151L and a filter 151R instead of the filter 131L and the filter 131R in FIG. 2B.
  • the filter 151L adds HRTF (SL L ) corresponding to the direct path from the virtual speaker SL on the left rear side of the listener to the left ear to the collected sound signal.
  • the filter 151L inputs the collected sound signal provided with HRTF (SL L ) to the adder 132L.
  • the filter 151L adds HRTF (SL R ) corresponding to the indirect path from the virtual speaker SL to the right ear to the collected sound signal, and inputs the collected sound signal to which the HRTF (SL R ) is added to the adder 132R. To do.
  • the filter 151R adds HRTF (SR R ) corresponding to the direct path from the virtual speaker SR on the right rear side of the listener to the right ear to the collected sound signal.
  • the filter 151R inputs the collected sound signal provided with HRTF (SR R ) to the adder 132R. In addition, the filter 151R adds HRTF (SR L ) corresponding to the indirect path from the virtual speaker SR to the left ear to the collected sound signal. The filter 151R inputs the collected sound signal provided with HRTF (SR L ) to the adder 132L.
  • the adder 132L includes an audio signal to which HRTF (F L ) is assigned, a sound collection signal from the microphone 11L to which HRTF (SL L ) is assigned, and a sound collection signal from the microphone 11R to which HRTF (SR L ) is assigned. And mix.
  • the adder 132R includes an audio signal to which HRTF (F R ) is assigned, a sound collection signal of the microphone 11R to which HRTF (SR R ) is assigned, and a microphone 11L to which HRTF (SL R ) is assigned. Mix the collected sound signal.
  • the localization processing unit 13C can localize the sound around the left side to the virtual speaker SL on the left rear side of the listener, and can localize the sound around the right side on the virtual speaker SL on the right rear side of the listener. . Therefore, the listener can perceive in which direction the surrounding sound is generated, and can obtain a sense of left and right direction.
  • the audio sound is localized at the position of the virtual speaker SPVF in front of the listener, but is not limited thereto. Audio sound may be localized in the head without performing localization processing.
  • FIG. 5A is a schematic diagram of a headphone 100D according to the fourth embodiment.
  • FIG. 5B is a block diagram showing a configuration of a signal processing unit 1D according to the fourth embodiment.
  • the headphone 100D is a sealed type.
  • the same configurations as those in FIGS. 4A and 4B are denoted by the same reference numerals, and description thereof is omitted.
  • the headphone 100D in this example includes five microphones, that is, a microphone 11FL, a microphone 11FR, a microphone 11SL, a microphone 11SR, and a microphone 11C.
  • the five microphones 11FL to 11C are directional microphones. Each of the microphones 11FL to 11C acquires sound coming from different directions.
  • the microphone 11FL acquires sounds that come mainly from the front left side of the listener among the surrounding sounds.
  • the microphone 11FR acquires sounds that come mainly from the front right side of the listener among the surrounding sounds.
  • the microphone 11 ⁇ / b> SL obtains sounds that come mainly from the left rear side of the listener among the surrounding sounds.
  • the microphone 11SR acquires sounds that come mainly from the rear right side of the listener among the surrounding sounds.
  • the microphone 11 ⁇ / b> C acquires the sound that comes mainly from the front in front of the listener among the surrounding sounds.
  • the signal processing unit 1D includes a microphone amplifier 12FL, a microphone amplifier 12FR, a microphone amplifier 12SL, a microphone amplifier 12SR, and a microphone amplifier 12C that amplify the sound collected signal of each microphone.
  • Each of the microphone amplifiers 12FL to 12C inputs the amplified sound collection signal to the localization processing unit 13D.
  • FIG. 6 is a block diagram showing a configuration of the localization processing unit 13D.
  • the localization processing unit 13D includes a filter 152L, a filter 152R, a filter 161, a level adjuster 162, an adder 163L, and an adder 163R in addition to the configuration of the localization processing unit 13C shown in FIG. 4B.
  • the filter 152L adds HRTF (FL L ) corresponding to the direct path from the virtual speaker FL on the left front of the listener to the left ear to the collected sound signal.
  • the filter 152L inputs the collected sound signal provided with HRTF (FL L ) to the adder 132L.
  • the filter 152L adds HRTF (FL R ) corresponding to the indirect path from the virtual speaker FL to the right ear to the collected sound signal.
  • the filter 152L inputs the collected sound signal provided with HRTF (FL R ) to the adder 132R.
  • the filter 152R adds HRTF (FR R ) corresponding to the direct path from the virtual speaker FR on the front right side of the listener to the right ear to the collected sound signal.
  • the filter 152R inputs the collected sound signal provided with HRTF (FR R ) to the adder 132R.
  • the filter 152R adds HRTF (FR L ) corresponding to the indirect path from the virtual speaker FR to the left ear to the collected sound signal.
  • the filter 152R inputs the collected sound signal provided with HRTF (FR L ) to the adder 132L.
  • the filter 161 adds HRTF (C) corresponding to the path from the virtual speaker C in front of the listener to the left ear (and the right ear) to the collected sound signal.
  • the filter 161 inputs the collected sound signal to which HRTF (C) is added to the level adjuster 162.
  • the distance between the virtual speaker C and the listener is set farther than the distance between the virtual speaker SPVF and the listener. Therefore, the listener can perceive that the sound from the virtual speaker C and the sound from the virtual speaker SPVF are emitted from different positions.
  • the level adjuster 162 adjusts the level of the input sound pickup signal to 0.5 times, and the level adjuster 162 inputs the sound pickup signal whose level is adjusted to the adder 163L and the adder 163R. Such adjustment prevents in-phase components (sounds that arrive evenly from the front front of the listener to the left and right ears) from being amplified more than other sounds.
  • the adder 132L collects the audio signal Lch to which HRTF (F L ) is applied, the sound collection signal of the microphone 11FL to which HRTF (FL L ) is provided, and the sound to be collected by the microphone 11SL to which HRTF (SL L ) is applied.
  • the signal, the sound collection signal of the microphone 11FR to which HRTF (FR L ) is assigned, and the sound collection signal of the microphone 11SR to which HRTF (SR L ) is assigned are mixed.
  • the adder 132R is, HRTF (F R) and the audio signal Rch, which is granted, and the collected sound signal of the microphone 11FR that HRTF (FR R) has been applied, the microphone HRTF (SR R) is assigned 11SR , The sound collection signal of the microphone 11FL to which HRTF (FL R ) is applied, and the sound collection signal of the microphone 11SL to which HRTF (SL R ) is applied are mixed.
  • the adder 163L mixes the signal output from the adder 132L and the output signal of the level adjuster 162 to generate an added signal, and inputs the added signal to the level adjuster 14L.
  • adder 163R mixes the signal output from adder 132R and the output signal of level adjuster 162 to generate an added signal, and inputs the added signal to level adjuster 14R.
  • the localization processing unit 13D can localize the sound around the front left side to the virtual speaker FL on the left front of the listener. Further, the localization processing unit 13D can localize the sound around the rear left side on the virtual speaker SL on the left rear side of the listener. Also, the localization processing unit 13D can localize the sound around the front right side to the virtual speaker FR on the right front of the listener. Further, the localization processing unit 13D can localize the sound around the rear right side on the virtual speaker SR on the right rear side of the listener. Further, the localization processing unit 13D can localize sounds around the front front to the virtual speaker C in front of the listener.
  • the audio sound is localized at the position of the virtual speaker SPVF in front of the listener, but is not limited to this. Audio sound may be localized in the head without performing localization processing.
  • the listener can obtain not only the left and right direction feeling but also the direction feeling including the front and rear as to which direction the surrounding sound is generated around.
  • the headphones 100 to 100D may be of a canal type, an inner ear type, or the like that is inserted into the ear.
  • the headphones 100 to 100D may be of a type worn on the head. In the case where the headphones 100 to 100D are worn on the head, it is possible to attach a microphone to the headband and acquire sound coming from the front front of the listener.
  • the present invention can be applied to a signal processing device, headphones, and a signal processing method.

Landscapes

  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Otolaryngology (AREA)
  • Stereophonic System (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Headphones And Earphones (AREA)
  • Soundproofing, Sound Blocking, And Sound Damping (AREA)

Abstract

 信号処理装置は、音源の信号の入力を受け付ける入力部と、周囲の音を取得して収音信号を生成する収音部と、前記音源の信号に基づく音像が定位する第1位置と、前記収音信号の信号に基づく音像が定位する第2位置とが相違するように、前記音源の信号および前記収音信号の少なくとも一方を処理し、少なくとも一方が処理された前記音源の信号と前記収音信号とをミックスして、加算信号を生成する定位処理部と、前記加算信号を出力する出力部とを備える。

Description

信号処理装置、ヘッドフォンおよび信号処理方法
 この発明は、信号処理装置、ヘッドフォンおよび信号処理方法に関する。
 本願は、2013年3月12日に、日本に出願された特願2013-048890号に基づき優先権を主張し、その内容をここに援用する。
 遮音性の高いヘッドフォンである密閉型ヘッドフォンは、音源の音(オーディオ音)を周囲に漏らすことなく聴くことができる。密閉型ヘッドフォンの応用例として、ノイズキャンセルヘッドフォンが知られている。ノイズキャンセルヘッドフォンは、マイクで周囲の音を取得し、周囲の音をオーディオ音に逆位相で加算することで、利用者の耳に到達する周囲の音を打ち消す。
 これらのヘッドフォンは、必要な音(例えば、周囲の人の呼びかけ声等)まで遮ってしまうという課題がある。
 そこで、例えば、特許文献1に開示のノイズキャンセルヘッドフォンは、マイクで取得した周囲の音のみを出力することにより、ヘッドフォンを外した状態と同じような状態とすることができるトークスルー機能を有する。
 ただし、トークスルー機能をオンにすると、オーディオ音が出力されなくなる。そこで、特許文献1に開示のヘッドフォンは、マイクで取得した音から特定の帯域(音声帯域)のみ抽出し、抽出された音をオーディオ音にミックスする。この構成により、人の声を遮断することなくオーディオ音を聞くことができる。
日本国特開2012-63483号公報
 しかし、特許文献1に開示のヘッドフォンは、マイクで取得した音をオーディオ音に単純にミックスするだけである。このため、マイクで取得した音とオーディオ音とが重なり、聴きづらい音になってしまう。
 本発明の目的の一例は、音源の音と周囲の音とが重ならずに、音源の音も周囲の音も聴き取り易くする信号処理装置、ヘッドフォンおよび信号処理方法を提供することである。
 本発明の実施態様に係る信号処理装置は、音源の信号の入力を受け付ける入力部と、周囲の音を取得して収音信号を生成する収音部と、前記音源の信号に基づく音像が定位する第1位置と、前記収音信号の信号に基づく音像が定位する第2位置とが相違するように、前記音源の信号および前記収音信号の少なくとも一方を処理し、少なくとも一方が処理された前記音源の信号と前記収音信号とをミックスして、加算信号を生成する定位処理部と、前記加算信号を出力する出力部とを備える。
 上記の信号処理装置は、収音部で取得した周囲の音を音源の音にミックスしつつ、音源の音と周囲の音とを異なる位置に定位させる処理を行うため、これらの音が重ならない。よって、利用者は、音源の音も周囲の音も明瞭に聴くことができる。
 また、上記の信号処理装置によれば、音声帯域だけを抽出するような処理をせずとも音源の音も周囲の音も明瞭に聴くことができる。このため、音声帯域以外に主たる成分が含まれる音(例えば緊急車両の音)も明瞭に聴くことができる。
 よって、利用者は、楽音等の音源の音を周囲に漏らすことなく、音源の音と周囲の音とを両方とも明瞭に聴くことができる。
 本発明の実施態様に係るヘッドフォンは、上記の信号処理装置と、前記加算信号に基づいて放音するヘッドフォンユニットとを備える。
 本発明の実施態様に係る信号処理方法は、音源の信号の入力を受け付け、周囲の音を取得して収音信号を生成し、前記音源の信号に基づく音像が定位する第1位置と、前記収音信号の信号に基づく音像が定位する第2位置とが相違するように、前記音源の信号および前記収音信号の少なくとも一方を処理し、少なくとも一方が処理された前記音源の信号と前記収音信号とをミックスして、加算信号を生成し、前記加算信号を出力することを含む。
 本発明の実施形態によれば、音源の音と周囲の音とが重ならずに、音源の音も周囲の音も聴き取り易くなる。
第1の実施形態に係るヘッドフォンの構成を示す図である。 第1の実施形態に係る信号処理ユニットの構成を示すブロック図である。 第2の実施形態に係るヘッドフォンの構成を示す図である。 第2の実施形態に係る信号処理ユニットの構成を示すブロック図である。 第1の実施形態の応用例に係る信号処理ユニットの構成を示す図である。 第3の実施形態に係るヘッドフォンの構成を示す図である。 第3の実施形態に係る信号処理ユニットの構成を示すブロック図である。 第4の実施形態に係るヘッドフォンの構成を示す図である。 第4の実施形態に係る信号処理ユニットの構成を示すブロック図である。 第4の実施形態に係る定位処理部の構成を示す図である。
 図1Aは、第1の実施形態に係るヘッドフォン100の概略図である。ヘッドフォン100は密閉型である。図1Aに示すように、ヘッドフォン100は、信号処理ユニット1と、ヘッドフォンユニット2Lと、ヘッドフォンユニット2Rと、マイク11と、を備えている。信号処理ユニット1は、処理装置の一例であってもよい。本実施形態における各種信号は、特に記載がない場合、全てデジタル信号であり。各種信号をアナログからデジタルに変換するための構成およびデジタルからアナログに変換するための構成の図示および説明は省略する。ヘッドフォンユニット2Lは、聴取者の左耳に配置される。ヘッドフォンユニット2Rは、聴取者の右耳に配置される。
 マイク11は、ヘッドフォンユニット2Rの近傍に設けられ、周囲の音を取得し、収音信号を出力する。ただし、マイク11の設置位置はこの例に限られない。マイク11は、例えばヘッドフォンユニット2Lの近傍に設けられていてもよいし、信号処理ユニット1の近傍に設けられていてもよいし、信号処理ユニット1に内蔵されていてもよい。
 この実施形態のヘッドフォン100は、マイク11で取得した周囲の音(収音信号)に基づく音像が定位する位置と、音源の音(オーディオ信号)に基づく音像が定位する位置が相違するように処理を行う。これらの音を異なる位置に定位させるためには、聴取者の頭部形状に対応する頭部伝達関数(以下、HRTFと言う。)を用いる。
 HRTFは、ある位置に設置した仮想スピーカ(図1AにおけるSPV)から左右の耳それぞれに至る音の大きさ、到達時間、および周波数特性の差を表現したインパルス応答である。図1Aに示す例においては、ヘッドフォン100は、頭部の後方に位置する仮想スピーカSPVに定位させるHRTFを、周囲の音と音源の音のうち少なくともいずれか一方に付与する。ヘッドフォン100は、少なくともいずれか一方にHRTFが付与された周囲の音と音源の音をヘッドフォンユニット2Lおよびヘッドフォンユニット2Rに供給する。その結果、聴取者に対して、周囲の音または音源の音が、仮想スピーカSPVから放音された様に仮想的に知覚させることができる。
 図1Bは、信号処理ユニット1の構成を示すブロック図である。信号処理ユニット1は、マイクアンプ12、定位処理部13、レベル調整器14L、レベル調整器14R、入力部15、スイッチ16、ヘッドフォンアンプ17L、ヘッドフォンアンプ17R、および出力部18を備えている。信号処理ユニット1は、ヘッドフォン100の専用ユニットであってもよいが、これに限られない。信号処理ユニット1の各構成は、一般的な情報処理装置(例えばスマートフォン)を用いて実現することも可能である。
 入力部15は、オーディオプレーヤ等の外部装置(または自装置のオーディオ再生機能部等)から音源の信号(オーディオ信号)の入力を受け付ける。定位処理部13およびスイッチ16は、入力部15に入力されたオーディオ信号の入力を受け付ける。この例では、定位処理部13およびスイッチ16各々は、入力部15からLチャンネル信号LchおよびRチャンネル信号Rchの2チャンネルのオーディオ信号の入力を受け付ける。フロントエンドのマイクアンプ12は、マイク11で収音され周囲の音(収音信号)を増幅し、増幅された収音信号を定位処理部13に入力する。
 定位処理部13は、HRTFのインパルス応答を畳み込むためのフィルタを備える。定位処理部13は、マイクアンプ12から入力された収音信号にHRTFを付与することにより、収音信号に基づく音像が定位する位置をオーディオ信号とは相違させる。定位処理部13は、ハードウェアとして設けられていてもよい。定位処理部13は、スマートフォン等の情報処理装置におけるCPUが所定のプログラムを実行することによりソフトウェアとして実現されてもよい。
 図1Bに示すように、定位処理部13は、フィルタ131L、フィルタ131R、加算器132L、および加算器132Rを備えている。
 フィルタ131Lは、聴取者の後方の仮想スピーカSPVから左耳に至る経路に対応するHRTF(B)を収音信号に付与する。加算器132Lは、HRTF(B)が付与された収音信号をLチャンネルオーディオ信号にミックスする。
 同様に、フィルタ131Rは、聴取者の後方の仮想スピーカSPVから右耳に至る経路に対応するHRTF(B)を収音信号に付与する。加算器132Rは、HRTF(B)が付与された収音信号をRチャンネルオーディオ信号にミックスする。
 レベル調整器14Lおよびレベル調整器14Rは、定位処理部13から入力されたLチャンネルオーディオ信号およびRチャンネルオーディオ信号それぞれのレベルを調整し、スイッチ16に入力する。
 スイッチ16は、利用者の操作にしたがって、入力部15から入力されたLチャンネルオーディオ信号およびRチャンネルオーディオ信号、またはレベル調整器14Lおよびレベル調整器14Rから入力されたLチャンネルオーディオ信号およびRチャンネルオーディオ信号、のいずれか一方を後段に入力する。ヘッドフォンアンプ17Lおよびヘッドフォンアンプ17Rはそれぞれ、スイッチ16から入力されたLチャンネルオーディオ信号およびRチャンネルオーディオ信号を増幅し、出力部18に入力する。出力部18は、ヘッドフォンアンプ17Lおよびヘッドフォンアンプ17Rから入力されたLチャンネルオーディオ信号をヘッドフォンユニット2Lおよびヘッドフォンユニット2Rに入力する。
 入力部15から入力されたLチャンネルオーディオ信号およびRチャンネルオーディオ信号が後段に入力される場合には、マイク11の収音信号がヘッドフォンユニット2Lおよびヘッドフォンユニット2Rから出力されない。よって、この場合、ヘッドフォン100は通常の密閉型ヘッドフォンとして機能する。
 一方で、レベル調整器14Lおよびレベル調整器14Rから入力されたLチャンネルオーディオ信号およびRチャンネルオーディオ信号は、マイク11の収音信号がミックスされている。したがって、利用者は、オーディオ音と周囲の音の両方を聴くことができる。マイク11の収音信号は、聴取者の後方の仮想スピーカSPVの位置に定位する処理がなされている。このため、利用者は、オーディオ音が頭内定位し、周囲の音が後方位置に定位する。したがって、利用者は、オーディオ音を周囲に漏らすことなく聴くことができ、かつオーディオ音と周囲の音とを両方とも明瞭に聴くことができる。よって、利用者は、周囲の音に阻害されずに音源の音を自然に聴くことができるとともに、必要な音(例えば緊急車両の音)を聴き逃すことがない。
 図1Aの例では、マイク11の収音信号に対し、聴取者の後方の仮想スピーカSPVの位置に定位するHRTFを付与している。しかしながら、定位処理は、これに限らず、左右ミキシングバランスの調整や音量制御等、どのような手法であってもよい。例えば、ミキシングバランスの調整する場合は、マイク11の収音信号をヘッドフォンユニット2Lに入力し、オーディオ信号をヘッドフォンユニット2Rに入力することにより定位処理を実現することが可能である。定位処理は、アナログ処理によっても実現可能である。
 マイク11の収音信号に基づく音像を頭内定位させ、オーディオ信号に基づく音像を聴取者の後方の仮想スピーカSPVの位置に定位させてもよい。収音信号およびオーディオ信号の両方にHRTFを付与してもよい。
 図2Aは、第2の実施形態に係るヘッドフォン100Aの概略図である。図2Bは、第2の実施形態に係る信号処理ユニット1Aの構成を示すブロック図である。ヘッドフォン100Aは密閉型である。
 図2Aおよび図2Bに示す構成のうち、図1Aおよび図1Bと同じ構成は、同じ符号を付し、説明を省略する。この例における定位処理部13Aは、さらにフィルタ133Lおよびフィルタ133Rを備えている。
 フィルタ133Lは、聴取者の前方の仮想スピーカSPVFから左耳に至る経路に対応するHRTF(F)をLチャンネルオーディオ信号に付与する。加算器132Lは、HRTF(F)が付与されたオーディオ信号と、HRTF(B)が付与された収音信号と、をミックスして加算信号を生成する。
 同様に、フィルタ133Rは、聴取者の前方の仮想スピーカSPVFから右耳に至る経路に対応するHRTF(F)をオーディオ信号に付与する。加算器132Rは、HRTF(F)が付与されたオーディオ信号と、HRTF(B)が付与された収音信号と、をミックスして加算信号を生成する。
 これにより、収音信号に基づく音像は、聴取者の後方の仮想スピーカSPVの位置に定位する。また、オーディオ信号に基づく音像は、聴取者の前方の仮想スピーカSPVFの位置に定位する。したがって、この例においても、利用者は、オーディオ音を周囲に漏らすことなく聴くことができ、かつオーディオ音と周囲の音とを両方とも明瞭に聴くことができる。
 図3は、第1の実施形態の応用例に係る信号処理ユニット1Bの構成を示すブロック図である。図3に示す構成のうち図1Bと同じ構成は、同じ符号を付し、説明を省略する。この例における信号処理ユニット1Bは、マイク11の収音信号の入力を受け付けるキャンセル信号生成回路19を備えている。キャンセル信号生成回路19は、周囲の音のうち、聴取者に聞こえる音を模擬したキャンセル信号を生成する回路である。すなわち、キャンセル信号生成回路19は、密閉型ヘッドフォンの遮音特性を模擬したフィルタからなる。
 加算器132Lおよび加算器132Rは、キャンセル信号生成回路19で生成されたキャンセル信号を、Lチャンネルオーディオ信号およびRチャンネルオーディオ信号それぞれに逆位相でミックスする。レベル調整器141Lおよびレベル調整器141Rは、逆位相のキャンセル信号がミックスされたLチャンネルオーディオ信号およびRチャンネルオーディオ信号のレベルを調整し、スイッチ16に入力する。
 したがって、収音信号を出力しないようにスイッチ16を設定すると、聴取者の耳に到達した周囲の音が、Lチャンネルオーディオ信号およびRチャンネルオーディオ信号にミックスされた逆位相のキャンセル信号でキャンセルされる。このため、この例に係るヘッドフォン100は、ノイズキャンセルヘッドフォンとして機能する。
 この例では、単一のマイク11が取得した収音信号を定位処理部13およびキャンセル信号生成回路19に入力する例を示したが、マイクの数は一つに限られない。複数のマイクを設け、それぞれのマイクで取得した収音信号をキャンセル信号生成回路19に入力してもよい。
 キャンセル信号生成回路19は、図2Bに示した信号処理ユニット1A(並びに後述の信号処理ユニット1Cおよび信号処理ユニット1D)にも適用することが可能である。
 図4Aは、第3の実施形態に係るヘッドフォン100Cの概略図である。図4Bは、第3の実施形態に係る信号処理ユニット1Cの構成を示すブロック図である。図4Aおよび図4Bに示す構成のうち、図2Aおよび図2Bと同じ構成は、同じ符号を付し、説明を省略する。ヘッドフォン100Cは密閉型である。
 この例におけるヘッドフォン110Cは、2つのマイク、すなわち、マイク11Lおよびマイク11Rを備える。ヘッドフォン110Cは、マイク11Lおよびマイク11Rそれぞれで収音した音に基づく音像を異なる位置に定位させる。マイク11Lは、周囲の音のうち、主に聴取者の左側の音を取得する。マイク11Rは、周囲の音のうち、主に聴取者の右側の音を取得する。
 信号処理ユニット1Cは、マイク11Lの収音信号を増幅するマイクアンプ12L、およびマイク11Rの収音信号を増幅するマイクアンプ12Rを備えている。定位処理部13Cは、図2Bのフィルタ131Lおよびフィルタ131Rに代えて、フィルタ151Lおよびフィルタ151Rを備えている。
 フィルタ151Lは、聴取者の後方左側の仮想スピーカSLから左耳に至る直接経路に対応するHRTF(SL)を収音信号に付与する。フィルタ151Lは、HRTF(SL)が付与された収音信号を加算器132Lに入力する。また、フィルタ151Lは、仮想スピーカSLから右耳に至る間接経路に対応するHRTF(SL)を収音信号に付与し、HRTF(SL)が付与された収音信号を加算器132Rに入力する。
 同様に、フィルタ151Rは、聴取者の後方右側の仮想スピーカSRから右耳に至る直接経路に対応するHRTF(SR)を収音信号に付与する。フィルタ151Rは、HRTF(SR)が付与された収音信号を加算器132Rに入力する。また、フィルタ151Rは、仮想スピーカSRから左耳に至る間接経路に対応するHRTF(SR)を収音信号に付与する。フィルタ151Rは、HRTF(SR)が付与された収音信号を加算器132Lに入力する。
 加算器132Lは、HRTF(F)が付与されたオーディオ信号と、HRTF(SL)が付与されたマイク11Lの収音信号と、HRTF(SR)が付与されたマイク11Rの収音信号と、をミックスする。同様に、加算器132Rは、HRTF(F)が付与されたオーディオ信号と、HRTF(SR)が付与されたマイク11Rの収音信号と、HRTF(SL)が付与されたマイク11Lの収音信号と、をミックスする。
 これにより、定位処理部13Cは、左側周囲の音を聴取者の左後方の仮想スピーカSLに定位させることができ、右側周囲の音を聴取者の右後方の仮想スピーカSLに定位させることができる。したがって、聴取者は、周囲の音がどの方向で発生しているか知覚でき、左右の方向感を得ることができる。
 この例では、オーディオ音を聴取者の前方の仮想スピーカSPVFの位置に定位させているがこれに限られない。オーディオ音は定位処理を行わずに頭内定位させてもよい。
 次に、図5Aは、第4の実施形態に係るヘッドフォン100Dの概略図である。図5Bは、第4の実施形態に係る信号処理ユニット1Dの構成を示すブロック図である。ヘッドフォン100Dは、密閉型である。
 図5Aおよび図5Bに示す構成のうち、図4Aおよび図4Bと同じ構成は、同じ符号を付し、説明を省略する。
 この例におけるヘッドフォン100Dは、5つのマイク、すなわちマイク11FL、マイク11FR、マイク11SL、マイク11SR、及びマイク11Cを備えている。5つのマイク11FL~11Cは、指向性マイクからなる。マイク11FL~11Cはそれぞれ、異なる方向から到来する音を取得する。
 マイク11FLは、周囲の音のうち、主に聴取者の前方左側から到来する音を取得する。マイク11FRは、周囲の音のうち、主に聴取者の前方右側から到来する音を取得する。マイク11SLは、周囲の音のうち、主に聴取者の後方左側から到来する音を取得する。マイク11SRは、周囲の音のうち、主に聴取者の後方右側から到来する音を取得する。マイク11Cは、周囲の音のうち、主に聴取者の正面前方から到来する音を取得する。
 信号処理ユニット1Dは、各マイクの収音信号を増幅するマイクアンプ12FL、マイクアンプ12FR、マイクアンプ12SL、マイクアンプ12SR、及びマイクアンプ12Cを備えている。マイクアンプ12FL~12C各々は、増幅された収音信号を定位処理部13Dに入力する。
 図6は、定位処理部13Dの構成を示すブロック図である。定位処理部13Dは、図4Bに示した定位処理部13Cの構成に加えて、フィルタ152L、フィルタ152R、フィルタ161、レベル調整器162、加算器163L、および加算器163Rを備えている。
 フィルタ152Lは、聴取者の前方左側の仮想スピーカFLから左耳に至る直接経路に対応するHRTF(FL)を収音信号に付与する。フィルタ152Lは、HRTF(FL)が付与された収音信号を加算器132Lに入力する。また、フィルタ152Lは、仮想スピーカFLから右耳に至る間接経路に対応するHRTF(FL)を収音信号に付与する。フィルタ152Lは、HRTF(FL)が付与された収音信号を加算器132Rに入力する。
 同様に、フィルタ152Rは、聴取者の前方右側の仮想スピーカFRから右耳に至る直接経路に対応するHRTF(FR)を収音信号に付与する。フィルタ152Rは、HRTF(FR)が付与された収音信号を加算器132Rに入力する。また、フィルタ152Rは、仮想スピーカFRから左耳に至る間接経路に対応するHRTF(FR)を収音信号に付与する。フィルタ152Rは、HRTF(FR)が付与された収音信号を加算器132Lに入力する。
 フィルタ161は、聴取者の正面前方の仮想スピーカCから左耳(および右耳)に至る経路に対応するHRTF(C)を収音信号に付与する。フィルタ161は、HRTF(C)が付与された収音信号をレベル調整器162に入力する。仮想スピーカCと聴取者との距離は、仮想スピーカSPVFと聴取者との距離よりも遠方に設定される。このため、聴取者は、仮想スピーカCからの音と仮想スピーカSPVFからの音とがそれぞれ異なる位置から発されたと知覚できる。
 レベル調整器162は、入力された収音信号のレベルを0.5倍に調整し、レベル調整器162は、レベルが調整された収音信号を加算器163Lおよび加算器163Rに入力する。このような調整により、同相成分(聴取者の正面前方から左右の耳に均等に到来する音)がその他の音よりも増幅されることを防ぐ。
 加算器132Lは、HRTF(F)が付与されたオーディオ信号Lchと、HRTF(FL)が付与されたマイク11FLの収音信号と、HRTF(SL)が付与されたマイク11SLの収音信号と、HRTF(FR)が付与されたマイク11FRの収音信号と、HRTF(SR)が付与されたマイク11SRの収音信号と、をミックスする。同様に、加算器132Rは、HRTF(F)が付与されたオーディオ信号Rchと、HRTF(FR)が付与されたマイク11FRの収音信号と、HRTF(SR)が付与されたマイク11SRの収音信号と、HRTF(FL)が付与されたマイク11FLの収音信号と、HRTF(SL)が付与されたマイク11SLの収音信号と、をミックスする。
 加算器163Lは、加算器132Lの出力する信号と、レベル調整器162の出力信号とをミックスして加算信号を生成し、加算信号をレベル調整器14Lに入力する。同様に、加算器163Rは、加算器132Rの出力する信号と、レベル調整器162の出力信号とをミックスして加算信号を生成し、加算信号をレベル調整器14Rに入力する。
 これにより、定位処理部13Dは、前方左側周囲の音を聴取者の左前方の仮想スピーカFLに定位させることができる。また、定位処理部13Dは、後方左側周囲の音を聴取者の左後方の仮想スピーカSLに定位させることができる。また、定位処理部13Dは、前方右側周囲の音を聴取者の右前方の仮想スピーカFRに定位させることができる。また、定位処理部13Dは、後方右側周囲の音を聴取者の右後方の仮想スピーカSRに定位させることができる。また、定位処理部13Dは、前方正面周囲の音を聴取者の前方正面の仮想スピーカCに定位させることができる。
 この例でも、オーディオ音を聴取者の前方の仮想スピーカSPVFの位置に定位させているが、これに限られない。オーディオ音は定位処理を行わずに頭内定位させてもよい。
 この場合、聴取者は、周囲の音が自身を中心としてどの方向で発生しているかについて、左右の方向感だけでなく、前後を含めた方向感まで得ることができる。
 上記においては、ヘッドフォン100~100Dが密閉型である場合について説明したがこれに限られない。ヘッドフォン100~100Dは、カナル型やインナーイヤー型などの耳に差し込む形式であってもよい。ヘッドフォン100~100Dは、頭部に装着する形式であってもよい。ヘッドフォン100~100Dが頭部に装着する形式の場合、ヘッドバンドにマイクを取り付け、聴取者の前方正面から到来する音を取得することも可能である。
 本発明は、信号処理装置、ヘッドフォンおよび信号処理方法に適用し得る。
1…信号処理ユニット
2L,2R…ヘッドフォンユニット
11…マイク
12…マイクアンプ
13…定位処理部
131L,131R…フィルタ
14L,14R…レベル調整器
15…入力部
16…スイッチ
17L,17R…ヘッドフォンアンプ
18…出力部

Claims (7)

  1.  音源の信号の入力を受け付ける入力部と、
     周囲の音を取得して収音信号を生成する収音部と、
     前記音源の信号に基づく音像が定位する第1位置と、前記収音信号の信号に基づく音像が定位する第2位置とが相違するように、前記音源の信号および前記収音信号の少なくとも一方を処理し、少なくとも一方が処理された前記音源の信号と前記収音信号とをミックスして、加算信号を生成する定位処理部と、
     前記加算信号を出力する出力部と
     を備える信号処理装置。
  2.  前記定位処理部は、前記第1位置と前記第2位置とが相違するように、前記音源の信号と前記収音信号との少なくとも一方に頭部伝達関数を付与する請求項1に記載の信号処理装置。
  3.  前記収音部は、第1および第2のマイクを含む複数のマイクを含み、
     前記第1のマイクは、第1の方向から到来する音を取得して第1の収音信号を生成し、
     前記第2のマイクは、前記第1の方向とは異なる第2の方向から到来する音を取得して第2の収音信号を生成し、
     前記定位処理部は、前記第1の収音信号に基づく音像が前記第1のマイクから前記第1の方向に離間した位置に定位しかつ前記第2の収音信号に基づく音像が前記第2のマイクから前記第2の方向に離間した位置に定位するように、前記第1および第2の収音信号を処理する請求項1または請求項2に記載の信号処理装置。
  4.  前記複数のマイクは、それぞれ指向性マイクである請求項3に記載の信号処理装置。
  5.  前記出力部は、前記加算信号をヘッドフォンに出力する請求項1に記載の信号処理装置。
  6.  請求項1乃至請求項5のいずれか1項に記載の信号処理装置と、
     前記加算信号に基づいて放音するヘッドフォンユニットと
     を備えるヘッドフォン。
  7.  音源の信号の入力を受け付け、
     周囲の音を取得して収音信号を生成し、
     前記音源の信号に基づく音像が定位する第1位置と、前記収音信号の信号に基づく音像が定位する第2位置とが相違するように、前記音源の信号および前記収音信号の少なくとも一方を処理し、
     少なくとも一方が処理された前記音源の信号と前記収音信号とをミックスして、加算信号を生成し、
     前記加算信号を出力する
     ことを含む信号処理方法。
PCT/JP2014/050781 2013-03-12 2014-01-17 信号処理装置、ヘッドフォンおよび信号処理方法 WO2014141735A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US14/772,614 US20160012816A1 (en) 2013-03-12 2014-01-17 Signal processing device, headphone, and signal processing method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013-048890 2013-03-12
JP2013048890A JP6330251B2 (ja) 2013-03-12 2013-03-12 密閉型ヘッドフォン用信号処理装置および密閉型ヘッドフォン

Publications (1)

Publication Number Publication Date
WO2014141735A1 true WO2014141735A1 (ja) 2014-09-18

Family

ID=51536412

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/050781 WO2014141735A1 (ja) 2013-03-12 2014-01-17 信号処理装置、ヘッドフォンおよび信号処理方法

Country Status (3)

Country Link
US (1) US20160012816A1 (ja)
JP (1) JP6330251B2 (ja)
WO (1) WO2014141735A1 (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107996028A (zh) 2015-03-10 2018-05-04 Ossic公司 校准听音装置
US20170254507A1 (en) * 2016-03-02 2017-09-07 Sergio Lara Pereira Monteiro Method and means for reflecting light to produce soft indirect illumination while avoiding scattering enclosures
US10319395B2 (en) * 2016-03-11 2019-06-11 Limbic Media Corporation System and method for predictive generation of visual sequences
US9955279B2 (en) 2016-05-11 2018-04-24 Ossic Corporation Systems and methods of calibrating earphones
WO2018079850A1 (ja) * 2016-10-31 2018-05-03 ヤマハ株式会社 信号処理装置、信号処理方法およびプログラム
CN109036446B (zh) * 2017-06-08 2022-03-04 腾讯科技(深圳)有限公司 一种音频数据处理方法以及相关设备
CN114205730A (zh) 2018-08-20 2022-03-18 华为技术有限公司 音频处理方法和装置
CN110856094A (zh) 2018-08-20 2020-02-28 华为技术有限公司 音频处理方法和装置
EP3668123A1 (en) * 2018-12-13 2020-06-17 GN Audio A/S Hearing device providing virtual sound
US20220095039A1 (en) * 2019-01-10 2022-03-24 Sony Group Corporation Headphone, acoustic signal processing method, and program
JP7052814B2 (ja) * 2020-02-27 2022-04-12 ヤマハ株式会社 信号処理装置
WO2021261385A1 (ja) * 2020-06-22 2021-12-30 公立大学法人秋田県立大学 音響再生装置、ノイズキャンセリングヘッドフォン装置、音響再生方法、音響処理プログラム
WO2021261165A1 (ja) * 2020-06-24 2021-12-30 ソニーグループ株式会社 音響信号処理装置、音響信号処理方法およびプログラム
CN115376528A (zh) * 2021-05-17 2022-11-22 华为技术有限公司 三维音频信号编码方法、装置和编码器
CN118056412A (zh) * 2021-10-06 2024-05-17 麦克赛尔株式会社 声音增强现实对象再现装置以及声音增强现实对象再现方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007036608A (ja) * 2005-07-26 2007-02-08 Yamaha Corp ヘッドホン装置
JP2011097268A (ja) * 2009-10-28 2011-05-12 Sony Corp 再生装置、ヘッドホン及び再生方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10200999A (ja) * 1997-01-08 1998-07-31 Matsushita Electric Ind Co Ltd カラオケ装置
EP1274279B1 (en) * 2001-02-14 2014-06-18 Sony Corporation Sound image localization signal processor
JP2004201195A (ja) * 2002-12-20 2004-07-15 Pioneer Electronic Corp ヘッドホン装置
JP2006164212A (ja) * 2004-11-10 2006-06-22 Sony Corp 情報処理装置および方法、記録媒体、並びにプログラム
JP2009147410A (ja) * 2007-12-11 2009-07-02 Sony Corp 再生装置、再生方法及び再生システム
JP2009188450A (ja) * 2008-02-01 2009-08-20 Yamaha Corp ヘッドホンモニタ装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007036608A (ja) * 2005-07-26 2007-02-08 Yamaha Corp ヘッドホン装置
JP2011097268A (ja) * 2009-10-28 2011-05-12 Sony Corp 再生装置、ヘッドホン及び再生方法

Also Published As

Publication number Publication date
US20160012816A1 (en) 2016-01-14
JP6330251B2 (ja) 2018-05-30
JP2014174430A (ja) 2014-09-22

Similar Documents

Publication Publication Date Title
WO2014141735A1 (ja) 信号処理装置、ヘッドフォンおよび信号処理方法
US9681246B2 (en) Bionic hearing headset
US6937737B2 (en) Multi-channel audio surround sound from front located loudspeakers
US9578440B2 (en) Method for controlling a speaker array to provide spatialized, localized, and binaural virtual surround sound
EP3061268B1 (en) Method and mobile device for processing an audio signal
JP4924119B2 (ja) アレイスピーカ装置
US20150237446A1 (en) Speaker Device and Audio Signal Processing Method
US20050265558A1 (en) Method and circuit for enhancement of stereo audio reproduction
US20080187148A1 (en) Headphone device, sound reproduction system, and sound reproduction method
US20150055807A1 (en) Apparatus and method for driving loudspeakers of a sound system in a vehicle
JP2008131089A (ja) 音響システム、音響装置及び最適音場生成方法
EP2190221A1 (en) Audio system
JP2005223713A (ja) 音響再生装置、音響再生方法
JP5776597B2 (ja) 音信号処理装置
US10003893B2 (en) Method for operating a binaural hearing system and binaural hearing system
JP2006279863A (ja) 頭部伝達関数の補正方法
EP2807832B1 (en) Method and apparatus for conversion of a multi-channel audio signal into a two-channel audio signal
EP2806661A1 (en) A hearing aid with spatial signal enhancement
JP2006352732A (ja) オーディオシステム
JPH06233388A (ja) 補聴装置
KR20060048520A (ko) 음상정위장치
WO2010004473A1 (en) Audio enhancement
JP2006352728A (ja) オーディオ装置
JPH02261300A (ja) 立体音再生装置
US20180295447A1 (en) Speaker system

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14765557

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 14772614

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14765557

Country of ref document: EP

Kind code of ref document: A1