WO2019065382A1 - 信号処理装置、信号処理方法、及びプログラム - Google Patents

信号処理装置、信号処理方法、及びプログラム Download PDF

Info

Publication number
WO2019065382A1
WO2019065382A1 PCT/JP2018/034548 JP2018034548W WO2019065382A1 WO 2019065382 A1 WO2019065382 A1 WO 2019065382A1 JP 2018034548 W JP2018034548 W JP 2018034548W WO 2019065382 A1 WO2019065382 A1 WO 2019065382A1
Authority
WO
WIPO (PCT)
Prior art keywords
signal
characteristic
unit
microphone
measurement
Prior art date
Application number
PCT/JP2018/034548
Other languages
English (en)
French (fr)
Inventor
優美 藤井
敬洋 下条
村田 寿子
正也 小西
邦明 高地
Original Assignee
株式会社Jvcケンウッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Jvcケンウッド filed Critical 株式会社Jvcケンウッド
Publication of WO2019065382A1 publication Critical patent/WO2019065382A1/ja
Priority to US16/816,765 priority Critical patent/US11115743B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/10Earpieces; Attachments therefor ; Earphones; Monophonic headphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/04Circuit arrangements, e.g. for selective connection of amplifier inputs/outputs to loudspeakers, for loudspeaker detection, or for adaptation of settings to personal preferences or hearing impairments
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03GCONTROL OF AMPLIFICATION
    • H03G3/00Gain control in amplifiers or frequency changers
    • H03G3/20Automatic control
    • H03G3/30Automatic control in amplifiers having semiconductor devices
    • H03G3/3005Automatic control in amplifiers having semiconductor devices in amplifiers suitable for low-frequencies, e.g. audio amplifiers
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03GCONTROL OF AMPLIFICATION
    • H03G5/00Tone control or bandwidth control in amplifiers
    • H03G5/16Automatic control
    • H03G5/165Equalizers; Volume or gain control in limited frequency bands
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/02Circuits for transducers, loudspeakers or microphones for preventing acoustic reaction, i.e. acoustic oscillatory feedback
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/04Circuits for transducers, loudspeakers or microphones for correcting frequency response
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/033Headphones for stereophonic communication
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S1/00Two-channel systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2430/00Signal processing covered by H04R, not provided for in its groups
    • H04R2430/03Synergistic effects of band splitting and sub-band processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/01Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]

Definitions

  • the present invention relates to a signal processing device, a signal processing method, and a program.
  • Patent Document 1 discloses an ear canal resonance correction device having an inverse filter generation unit that generates an inverse filter of an ear canal model.
  • an earphone or a headphone outputs a sound source signal, and a microphone disposed in the ear canal picks up an audio signal. Then, according to the resonance frequency obtained from the frequency characteristic of the audio signal, the delay time of the delay is determined. An ear canal model is created based on the delay time of the delay device.
  • This embodiment is made in view of the above-mentioned point, and aims at providing a signal processing device, a signal processing method, and a program that can appropriately measure a signal from headphones or earphones worn by a user. .
  • the signal processing apparatus generates a first measurement signal, and outputs a measurement signal to a headphone or an earphone, and a first sound collection signal obtained by collecting the first measurement signal by a microphone.
  • the headphone or the signal analysis unit for calculating the frequency characteristic of the first collected sound signal, and comparing the characteristic value of the frequency characteristic in a predetermined band with a reference value; It comprises: an attached state determination unit that determines an attached state of the earphone; and an output unit that outputs the result of the determination in steps according to the ratio of the characteristic to the reference value.
  • the signal processing method includes the steps of generating a first measurement signal and outputting the first measurement signal to a headphone or an earphone, and acquiring a first collected signal obtained by collecting the first measurement signal by the microphone. Determining the wearing state of the headphone or the earphone by comparing the characteristic value of the frequency characteristic in a predetermined band with a reference value, calculating the frequency characteristic of the first collected sound signal, and And outputting the result of the step-wise determination in accordance with the ratio of the characteristic value to the reference value.
  • the program according to the present embodiment generates a first measurement signal in a computer and outputs the first measurement signal to a headphone or an earphone, and a first sound collection signal obtained by collecting the first measurement signal by the microphone.
  • the wearing state of the headphone or the earphone is determined by comparing the characteristic value of the frequency characteristic in a predetermined band with a reference value, the step of acquiring, the step of calculating the frequency characteristic of the first collected sound signal, and A step of outputting the result of the step-wise determination in accordance with the ratio of the characteristic value to the reference value may be performed.
  • FIG. 1 is a block diagram showing an out-of-head localization processing apparatus according to the present embodiment. It is a figure which shows the structure of the measuring apparatus which measures an ear canal transmission characteristic. It is a control block diagram showing composition of a signal processing device. It is a flowchart which shows the signal processing method in a signal processing apparatus. It is a flowchart which shows the process of initialization. It is a figure which shows one example of the display screen in initialization. It is a flowchart which shows the determination processing of a mounting state. It is a figure which shows the calibration screen in the case of a mounting state being favorable. It is a figure which shows the calibration screen in case an installation state is defect. It is a figure which shows the display screen which shows a mounting state.
  • the out-of-head localization processing according to the present embodiment performs the out-of-head localization processing using the space acoustic transfer characteristic and the ear canal transfer characteristic.
  • the space acoustic transfer characteristic is a transfer characteristic from a sound source such as a speaker to the ear canal.
  • the ear canal transmission characteristic is a transmission characteristic from the entrance of the ear canal to the tympanic membrane. In the present embodiment, the ear canal transmission characteristics in a state of wearing headphones or earphones are measured, and the measurement data is used to realize the out-of-head localization processing.
  • the out-of-head localization process is executed by a user terminal such as a personal computer, a smart phone, or a tablet PC.
  • the user terminal is an information processing apparatus having processing means such as a processor, storage means such as a memory or a hard disk, display means such as a liquid crystal monitor, and input means such as a touch panel, a button, a keyboard, and a mouse.
  • the user terminal has a communication function of transmitting and receiving data.
  • output means (output unit) having headphones or earphones is connected to the user terminal.
  • FIG. 1 is a block diagram of the out-of-head localization processing apparatus 100.
  • the out-of-head localization processing apparatus 100 reproduces the sound field for the user U wearing the headphones 43. Therefore, the out-of-head localization processing apparatus 100 performs sound image localization processing on the Lch and Rch stereo input signals XL and XR.
  • the Lch and Rch stereo input signals XL and XR are analog audio reproduction signals output from a CD (Compact Disc) player or the like, or digital audio data such as mp3 (MPEG Audio Layer-3).
  • out-of-head localization processing apparatus 100 is not limited to a physically single apparatus, and some of the processes may be performed by different apparatuses. For example, part of the processing may be performed by a personal computer or the like, and the remaining processing may be performed by a DSP (Digital Signal Processor) incorporated in the headphone 43 or the like.
  • DSP Digital Signal Processor
  • the out-of-head localization processing apparatus 100 includes an out-of-head localization processing unit 10, a filter unit 41, a filter unit 42, and a headphone 43.
  • the out-of-head localization processing unit 10, the filter unit 41, and the filter unit 42 can be realized by a processor or the like.
  • the out-of-head localization processing unit 10 includes convolution operation units 11 to 12 and 21 to 22 and adders 24 and 25.
  • the convolution operation units 11 to 12 and 21 to 22 perform convolution processing using space acoustic transfer characteristics.
  • the stereo input signals XL and XR from a CD player or the like are input to the out-of-head localization processing unit 10.
  • space acoustic transfer characteristics are set.
  • the out-of-head localization processing unit 10 convolutes a filter with space acoustic transfer characteristics (hereinafter also referred to as a space acoustic filter) for the stereo input signals XL and XR of each channel.
  • the spatial acoustic transfer characteristic may be a head-related transfer function HRTF measured at the head or pinnae of the subject, or may be a head transfer function of a dummy head or a third party.
  • a set of four space acoustic transfer characteristics Hls, Hlo, Hro, and Hrs as one set is a space acoustic transfer function.
  • the data used for convolution in the convolution units 11, 12, 21 and 22 is a spatial acoustic filter.
  • a spatial acoustic filter is generated by cutting out spatial acoustic transfer characteristics Hls, Hlo, Hro, and Hrs with a predetermined filter length.
  • the spatial acoustic transfer characteristics Hls, Hlo, Hro, and Hrs are obtained in advance by, for example, impulse response measurement.
  • the user U wears a microphone on each of the left and right ears.
  • the left and right speakers disposed in front of the user U respectively output impulse sound for performing impulse response measurement.
  • the microphone collects a measurement signal such as an impulse sound output from the speaker.
  • Space acoustic transfer characteristics Hls, Hlo, Hro, Hrs are obtained based on the sound collection signal from the microphone. Space sound transfer characteristic Hls between left speaker and left microphone, space sound transfer characteristic Hlo between left speaker and right microphone, space sound transfer characteristic Hro between right speaker and left microphone, right speaker and right microphone And the space acoustic transfer characteristic Hrs between them.
  • the convolution operation unit 11 convolutes the spatial acoustic filter according to the spatial acoustic transfer characteristic Hls to the Lch stereo input signal XL.
  • the convolution unit 11 outputs the convolution data to the adder 24.
  • the convolution operation unit 21 convolutes a spatial acoustic filter according to the spatial acoustic transfer characteristic Hro with respect to the Rch stereo input signal XR.
  • the convolution operation unit 21 outputs the convolution operation data to the adder 24.
  • the adder 24 adds two convolution calculation data and outputs the sum to the filter unit 41.
  • the convolution operation unit 12 convolutes a spatial acoustic filter according to the spatial acoustic transfer characteristic Hlo to the Lch stereo input signal XL.
  • the convolution unit 12 outputs the convolution data to the adder 25.
  • the convolution operation unit 22 convolutes a space acoustic filter according to the space acoustic transfer characteristic Hrs with respect to the Rch stereo input signal XR.
  • the convolution unit 22 outputs the convolution data to the adder 25.
  • the adder 25 adds the two convolution operation data and outputs the result to the filter unit 42.
  • an inverse filter for canceling the headphone characteristic (the characteristic between the reproduction unit of the headphone and the microphone) is set. Then, the inverse filter is convoluted with the reproduction signal (convolution operation signal) subjected to the processing in the out-of-head localization processing unit 10.
  • the filter unit 41 convolutes the Lch signal from the adder 24 with the inverse filter of the headphone characteristic on the Lch side.
  • the filter unit 42 convolutes the Rch signal from the adder 25 with the inverse filter of the headphone characteristic on the Rch side.
  • the reverse filter cancels the characteristics from the headphone unit to the microphone when the headphone 43 is attached.
  • the microphone may be placed anywhere from the entrance of the ear canal to the tympanic membrane. It is preferable to arrange the microphone at the same position as the mounting position when the space acoustic transfer characteristic is measured.
  • the inverse filter is calculated from the measurement result of the characteristic of the user U, as described later.
  • the filter unit 41 outputs the corrected Lch signal to the left unit 43L of the headphone 43.
  • the filter unit 42 outputs the corrected Rch signal to the right unit 43R of the headphone 43.
  • the user U wears a headphone 43.
  • the headphone 43 outputs the Lch signal and the Rch signal to the user U. Thereby, the sound image localized outside the head of the user U can be reproduced.
  • the out-of-head localization processing apparatus 100 performs out-of-head localization processing using the space acoustic filter according to the space acoustic transfer characteristics Hls, Hlo, Hro, and Hrs and the inverse filter of the headphone characteristics.
  • spatial acoustic filters according to the spatial acoustic transfer characteristics Hls, Hlo, Hro, and Hrs, and an inverse filter of headphone characteristics are collectively referred to as an out-of-head localization processing filter.
  • the out-of-head localization filter is composed of four space acoustic filters and two inverse filters. Then, the out-of-head localization processing apparatus 100 performs the out-of-head localization processing by performing a convolution operation process on the stereo reproduction signal using a total of 6 out-of-head localization filters.
  • FIG. 2 shows a configuration for measuring the transfer characteristic for the user U.
  • the measuring device 200 includes the microphone unit 2, the headphones 43, and the signal processing device 201.
  • the microphone unit 2 and the headphones 43 are connected to the signal processing device 201.
  • the microphone unit 2 may be incorporated in the headphone 43.
  • the microphone unit 2 includes a left microphone 2L and a right microphone 2R.
  • the left microphone 2L is attached to the left ear 9L of the user U.
  • the right microphone 2R is attached to the right ear 9R of the user U.
  • the signal processing device 201 may be the same processing device as the out-of-head localization processing device 100 or may be a different processing device.
  • the headphones 43 have a headphone band 43B, a left unit 43L, and a right unit 43R.
  • the headphone band 43B connects the left unit 43L and the right unit 43R.
  • the left unit 43L outputs a sound toward the left ear 9L of the user U.
  • the right unit 43R outputs a sound toward the right ear 9R of the user U.
  • the headphones 43 may be of any type such as a closed type, an open type, a semi-open type, or a semi-closed type.
  • the user U wears the headphones 43 in a state where the microphone unit 2 is worn by the user U.
  • the left unit 43L and the right unit 43R of the headphone 43 are respectively attached to the left ear 9L and the right ear 9R to which the left microphone 2L and the right microphone 2R are attached.
  • the headphone band 43B generates a biasing force that presses the left unit 43L and the right unit 43R against the left ear 9L and the right ear 9R, respectively.
  • the left microphone 2L picks up the sound output from the left unit 43L of the headphone 43.
  • the right microphone 2R picks up the sound output from the right unit 43R of the headphone 43.
  • the microphones of the left microphone 2L and the right microphone 2R are disposed at the sound collecting positions near the external ear canal.
  • the left microphone 2L and the right microphone 2R are configured not to interfere with the headphones 43. That is, the user U can wear the headphones 43 in a state where the left microphone 2L and the right microphone 2R are disposed at appropriate positions of the left ear 9L and the right ear 9R.
  • the signal processing device 201 outputs a measurement signal to the headphone 43.
  • the headphones 43 generate impulse sound and the like.
  • the impulse sound output from the left unit 43L is measured by the left microphone 2L.
  • the impulse sound output from the right unit 43R is measured by the right microphone 2R.
  • the microphones 2L and 2R acquire the collected sound signal, whereby the impulse response measurement is performed.
  • the signal processing device 201 stores the collected sound signal based on the impulse response measurement in a memory or the like. Thereby, the transfer characteristic between the left unit 43L and the left microphone 2L (that is, the ear canal transfer characteristic of the left ear) and the transfer characteristic between the right unit 43R and the right microphone 2R (that is, the ear canal transfer characteristic of the right ear ) Is acquired.
  • the left ear external ear canal transmission characteristic acquired by the left microphone 2L is Lch (left ch) external ear canal transmission characteristic
  • the right ear external ear transmission characteristic acquired by the right microphone 2R is Rch (right ch) external ear canal transmission characteristic .
  • the signal processing apparatus 201 cuts out the measurement data of the transfer characteristic with a predetermined filter length to obtain the filter coefficient.
  • the signal processing device 201 has a memory or the like for storing measurement data of transfer characteristics.
  • the signal processing device 201 generates an impulse signal, a TSP (Time Stretched Pulse) signal, and the like as a measurement signal for measuring the ear canal transfer characteristic.
  • the measurement signal includes a measurement sound such as an impulse sound.
  • the signal processing device 201 determines whether the wearing state of the headphones 43 is good. Then, when the wearing state of the headphones 43 is not good, the signal processing device 201 performs a display prompting the adjustment of the headphones 43. This makes it possible to measure the signal in an appropriate state. For example, it is possible to prevent the measurement from being performed in a state where the sealing property of the headphones 43 is low. Alternatively, measurement can be prevented from being performed in a state in which the left and right balance is poor. Therefore, it is possible to stably measure the ear canal transmission characteristics with higher accuracy.
  • FIG. 3 is a control block diagram showing the configuration of the signal processing device 201.
  • the signal processing device 201 includes a memory 211, a central processing unit (CPU) 212, a measurement unit 220, and a graphical user interface (GUI) 230.
  • CPU central processing unit
  • GUI graphical user interface
  • the measurement unit 220 includes a measurement signal generation unit 221, a sound collection signal acquisition unit 222, a signal analysis unit 223, a mounting state determination unit 224, a reference value setting unit 225, and a left / right comparison unit 226.
  • the GUI 230 is an input / output interface for the user U, and includes a display unit 231 and an input operation unit 232.
  • the signal processing device 201 is an information processing device such as a personal computer or a smart phone, and includes a memory 211 and a CPU 212.
  • the memory 211 stores processing programs, various parameters, and the like.
  • the CPU 212 executes a processing program stored in the memory 211. Thereby, each process in the measurement unit 220 and the GUI 230 is performed.
  • each block of the measurement unit 220 is realized by the CPU 212 executing a computer program. That is, the memory 211 executes a program, whereby the measurement signal generation unit 221, the sound collection signal acquisition unit 222, the signal analysis unit 223, the mounting state determination unit 224, the reference value setting unit 225, and the left and right comparison unit 226 are predetermined. Execute the process
  • the measurement signal generation unit 221 generates a measurement signal.
  • the measurement signal generated by the measurement signal generation unit 221 is amplified by the amplifiers 45L and 45R and output to the headphone 43.
  • the amplifiers 45L and 45R may be incorporated in the signal processing device 201 or the headphones 43.
  • the left unit 43L and the right unit 43R respectively output measurement signals for measuring the transfer characteristics.
  • the measurement of Lch and Rch is similarly performed using the same measurement signal.
  • the left microphone 2 ⁇ / b> L and the right microphone 2 ⁇ / b> R pick up measurement signals, respectively, and output the picked-up signals to the signal processing device 201.
  • the collected signal acquisition unit 222 acquires the collected signals from the left microphone 2L and the right microphone 2R.
  • the sound collection signal acquisition unit 222 includes an A / D converter, an amplifier, and the like, and the sound collection signals from the left microphone 2L and the right microphone 2R may be A / D converted, amplified, and the like.
  • the collected signal acquisition unit 222 may synchronously add the signals obtained by the plurality of measurements.
  • the signal analysis unit 223 analyzes the collected sound signal acquired by the measurement signal generation unit 221. For example, the signal analysis unit 223 calculates a spectrum in the frequency domain from the collected sound signal in the time domain by FFT (Fast Fourier Transform). Thereby, the amplitude characteristic (amplitude spectrum) and the phase characteristic (phase spectrum) of the collected signal are generated. Note that a power spectrum may be generated instead of the amplitude spectrum.
  • the signal analysis unit 223 can convert the collected sound signal into data in the frequency domain by discrete Fourier transform or discrete cosine transform.
  • the signal analysis unit 223 extracts one or more characteristic values from the amplitude characteristic.
  • the signal analysis unit 223 obtains a characteristic value from the amplitude value in a predetermined frequency band. For example, the signal analysis unit 223 calculates the characteristic value based on the amplitude characteristic in the band of 90 Hz to 1 kHz.
  • the signal analysis unit 223 sets a plurality of characteristic values
  • the amplitude values of different frequency bands are set as characteristic values. For example, in the present embodiment, three characteristic values are set. The first characteristic value is set based on the amplitude value in the first band, and the second characteristic value is set based on the amplitude value in the second band different from the first band.
  • the third characteristic value is set based on the amplitude value in the third band different from the first and second bands. By using a plurality of characteristic values, the mounting state can be determined more appropriately.
  • the characteristic value may be an average value of amplitude values in a predetermined band or the like, or may be an amplitude value at one specific frequency.
  • the reference value setting unit 225 sets the amplitude characteristic obtained by the initial setting as a reference characteristic.
  • the initial setting step described later is processing for obtaining the reference characteristic.
  • standard characteristic be a reference value.
  • the reference value setting unit 225 stores the reference characteristic or the reference value in the memory 211 or the like. The process of initialization will be described later.
  • the wearing state determination unit 224 determines the wearing state of the headphones 43 of the user U. Specifically, the mounting state determination unit 224 compares the characteristic value of the amplitude characteristic obtained by the user measurement with the reference value. Then, the wearing state determination unit 224 determines whether the wearing state is good or bad based on the comparison result of the characteristic value and the reference value. Specifically, when the characteristic value exceeds the reference value, the mounting state determination unit 224 determines that the mounting state is good. On the other hand, when the characteristic value is equal to or less than the reference value, the mounting state determination unit 224 determines that the mounting state is defective. If it is determined that the wearing state is good, the signal processing device 201 carries out an ECTF measurement to obtain the ear characteristic and the Tsu characteristics.
  • the left / right comparison unit 226 compares the measurement data of the Lch external auditory canal transmission characteristic with the measurement data of the Rch external auditory canal transmission characteristic. Then, the left / right comparison unit 226 determines whether the microphone mounting position is appropriate (error determination) based on the comparison result of the left and right ch. The left and right comparison unit 226 determines that there is an error in the microphone attachment position when there is a certain difference between the left and right transmission characteristics. If an error is determined, the microphone position is adjusted and remeasurement is performed.
  • the display unit 231 is an output unit having a display or the like.
  • the display unit 231 displays the determination result of the mounting state determination unit 224 and the error determination result of the left and right comparison unit 226.
  • the display unit 231 outputs the result of stepwise determination according to the ratio of the characteristic value to the reference value.
  • the display unit 231 performs display so as to prompt the user to wear the headphone 43 again. By doing this, it is possible to measure the ear canal transmission characteristics in an appropriate wearing state.
  • the display unit 231 performs display so as to prompt the position adjustment of the left microphone 2L and the right microphone 2R. By doing this, it is possible to create an inverse filter with a good balance between left and right.
  • the determination result may be output by sound or vibration. That is, the output unit that outputs the determination result may have a headphone 43 that outputs an alarm sound or the like, an earphone, a speaker, or the like, and may have an actuator that performs an output by vibration.
  • the input operation unit 232 includes input means such as a touch panel, a keyboard, and a mouse, and receives an operation input from the user U.
  • FIG. 4 is a flowchart showing the measurement method.
  • the measuring apparatus 200 performs initial setting (S11).
  • the reference characteristic or reference value is set in the reference value setting unit 225.
  • FIG. 5 is a flowchart showing the initial setting process.
  • an example will be described in which the amplitude characteristic at the time of wearing the headphone is measured five times to obtain the reference characteristic.
  • the measurement signal generation unit 221 outputs a measurement signal to the headphone 43, and the signal analysis unit 223 acquires the amplitude characteristic ECTF_0 in a state where the user U is not wearing the headphone 43 (S101). That is, while the user U is not wearing the headphone 43, the measurement signal generation unit 221 generates a measurement signal (also referred to as a third measurement signal).
  • the measurement signal for initialization which is the third measurement signal, can be an impulse signal or a TSP signal, as in the first and second measurement signals. That is, the measurement signal generation unit 221 generates a third measurement signal that causes the headphone 43 to output the same sound for a predetermined time.
  • the left microphone 2L and the right microphone 2R respectively pick up the third measurement signal output from the headphone 43.
  • a sound collection signal acquisition unit 222 acquires a collection signal (also referred to as a third collection signal) collected by the left microphone 2L and the right microphone 2R when the third measurement signal is output.
  • the signal analysis unit 223 performs FFT on the third collected sound signal to calculate a frequency amplitude characteristic. Thereby, the amplitude characteristic ECTF_0 when the headphones are not attached is acquired.
  • the user U wears the headphones 43 (S103). For example, when it is displayed on the display unit 231 that the acquisition of the amplitude characteristic ECTF_0 when the headphones are not attached is completed, the user U wears the headphones 43.
  • the measurement signal generation unit 221 outputs the measurement signal to the headphone 43, and the signal analysis unit 223 acquires the amplitude characteristic ECTF_i (n) in a state where the user U wears the headphone 43 (S104). With the user U wearing the headphone 43, the measurement signal generation unit 221 generates a measurement signal.
  • the measurement signal here is a third measurement signal, and can be an impulse signal or a TSP signal, as with the first and second measurement signals.
  • the left microphone 2L and the right microphone 2R respectively pick up the third measurement signal output from the headphone 43.
  • a sound collection signal acquisition unit 222 acquires a collection signal (also referred to as a third collection signal) collected by the left microphone 2L and the right microphone 2R when the third measurement signal is output.
  • the signal analysis unit 223 performs FFT on the third collected signal to calculate frequency characteristics. Thereby, the amplitude characteristic ECTF_i (n) at the time of wearing the headphone is acquired.
  • the signal analysis unit 223 calculates the amplitude characteristic ECTF_i (n) for each frame.
  • the signal analysis unit 223 determines whether the amplitude characteristic ECTF_i (n) has not changed (S105). If it is determined that the amplitude characteristic ECTF_i (n) has not changed for a predetermined time (for example, 3 seconds) or more, it is detected that the user U wears the headphone 43.
  • the signal analysis unit 223 compares the amplitude characteristics ECTF_i (n) of a plurality of frames corresponding to a predetermined time to obtain a change in the amplitude characteristic ECTF_i (n) within the predetermined time.
  • the signal analysis unit 223 determines that the amplitude characteristics ECTF_i (n) have not changed for a predetermined time.
  • the process returns to S104. That is, the amplitude characteristic ECTF_i (n) is acquired until the amplitude characteristic ECTF_i (n) does not change.
  • FIG. 6 shows an example of a display screen 300 indicating that the first amplitude characteristic ECTF_i (0) has been completed.
  • the display screen 300 includes a display field 301 of the amplitude characteristic ECTF_i (0), a display field 302 of the “characteristic set”, and a display field 303 of the number of times of measurement.
  • the amplitude characteristic ECTF_i (0) displayed in the display field 301 may change for each frame. If it is determined in S105 that the amplitude characteristic ECTF_i (n) has not changed for a predetermined time or more, a “characteristic set” indicating that the acquisition of the amplitude characteristic ECTF_i (0) is completed is displayed in the display column 302 Be done. Thereby, the user U can recognize that the first measurement has been completed. If it is determined in S105 that the amplitude characteristic ECTF_i (n) is changing, the display field 302 is blank. The display field 302 allows the user U to quickly recognize that the n-th measurement has been completed. Since it is the first measurement of the five measurements, the display column 303 displays the 1 / 5th measurement.
  • the signal processing device 201 detects that the headphone 43 has been removed (S108). For example, when the amplitude characteristic is attenuated to the sound pressure level of the amplitude characteristic ECTF_0 when not attached, it can be considered that the headphone 43 is removed.
  • the signal analysis unit 223 increments n (S109).
  • the signal analysis unit 223 determines whether n is equal to or more than a specified number (here, 5) (S110). If n is less than the specified number (NO in S110), the processing from S103 is repeated. That is, the headphone 43 is reapplied and the same measurement is performed. Thereby, the amplitude characteristics ECTF_i (1) to ECTF_i (4) are sequentially measured.
  • the reference value setting unit 225 sets the reference characteristic ETCF_d (S111). For example, the averaged amplitude characteristic ECTF_iave of the amplitude characteristics ECTF_i (0) to ECTF_i (4) held in the memory 211 is set in the reference value setting unit 225 as the reference characteristic ETCF_d.
  • the user U repeatedly detaches the headphones 43. Before and after the user U puts on the headphones again, the collected signal acquisition unit 222 acquires a third collected signal. By doing this, a plurality of amplitude characteristics ECTF_i (0) to ECTF_i (n) are obtained. That is, when the amplitude characteristic ECTF_i (0) is acquired, the headphone 43 is switched again to acquire the amplitude characteristic ECTF_i (1) again. Each time the headphone 43 is replaced, the sound collection signal acquisition unit 222 acquires a sound collection signal, whereby a plurality of amplitude characteristics ECTF_i (0) to ECTF_i (n) are acquired.
  • a reference characteristic ETCF_d is set based on a plurality of amplitude characteristics ECTF_i (0) to ECTF_i (n). Further, in the reference value setting unit 225, a reference value based on the reference characteristic ETCF_d is set.
  • the reference value which is the characteristic value of the reference characteristic ETCF_d is set, for example, based on the amplitude value of the reference characteristic ETCF_d at 90 Hz to 1 kHz.
  • the reference characteristic ETCF_d is obtained by the measurement for initial setting performed for the user U, but the reference characteristic ETCF_d is an initial value performed for a listener other than the user U and a dummy head. It may be acquired by setting measurement.
  • the wearing state determination unit 224 determines the wearing state of the headphones 43 (S12). A detailed flow of the determination process of the wearing state of the headphones 43 will be described with reference to FIG. In addition, the process for determining a mounting state is also called calibration process.
  • the user U wears the headphone 43 (S201).
  • the user U operates the input operation unit 232 to press the measurement button (S202).
  • the measurement signal generation unit 221 outputs the measurement signal, and the signal analysis unit 223 acquires the amplitude characteristic ECTF_c (S203).
  • the measurement signal generation unit 221 With the user U wearing the headphone 43, the measurement signal generation unit 221 generates a measurement signal.
  • the measurement signal for the mounting state determination is a first measurement signal. Further, the first measurement signal for the mounting state determination can be the same signal as the third measurement signal.
  • the first microphone 2 ⁇ / b> L and the right microphone 2 ⁇ / b> R pick up the first measurement signal output from the headphone 43.
  • a sound collection signal acquisition unit 222 acquires a collection signal (also referred to as a first collection signal) acquired by the left microphone 2L and the right microphone 2R when the first measurement signal is output.
  • the signal analysis unit 223 performs FFT on the first collected sound signal to calculate frequency characteristics. Thereby, the amplitude characteristic ECTF_c for calibration processing is acquired.
  • the signal analysis unit 223 calculates the amplitude characteristic ECTF_c for each frame.
  • the display unit 231 displays the characteristic value of the amplitude characteristic ECTF_c and the reference value (S204). The display of the calibration screen by the display unit 231 will be described later.
  • the wearing state determination unit 224 compares the characteristic value of the amplitude characteristic ECTF_c with the reference value to determine whether the wearing state is good or bad (S205). For example, when the characteristic value of the amplitude characteristic ECTF_c exceeds the reference value of the reference characteristic ETCF_d for a predetermined time (for example, 3 seconds) or more, the wearing state determination unit 224 determines that the wearing state is good. That is, in the case where the characteristic value exceeds the reference value in a plurality of frames continuous for a predetermined time, it is determined that the mounting state is good. If the time during which the characteristic value of the amplitude characteristic ECTF_c exceeds the reference value of the reference characteristic ETCF_d does not continue for a predetermined time or more, the mounting state determination unit 224 determines that the mounting state is defective.
  • a predetermined time for example, 3 seconds
  • the display unit 231 displays a defect (S206). That is, the display unit 231 displays a calibration screen indicating that the mounting state is defective. Then, the process from S201 is repeated. That is, the user U reattaches the headphones 43 and calibration processing is performed.
  • the display unit 231 performs a good display (S207), that is, the display unit 231 displays a calibration screen indicating that the mounting state is good. It is preferable that the user U puts on the headphones 43 again and continues the calibration operation until it is determined that the wearing state is good.
  • FIG. 8 and 9 show display examples of the calibration screen. 8 and 9 show a calibration screen.
  • FIG. 8 shows a calibration screen 400 during determination of the mounting state (during calibration) and a calibration screen 401 when the mounting state is determined to be good.
  • FIG. 9 shows a calibration screen 400 during determination of the mounting state (during calibration) and a calibration screen 402 when the mounting state is determined to be defective.
  • the calibration screen 400 is the display screen in S205.
  • the calibration screen 401 is a display screen in S207.
  • the calibration screen 402 is a display screen in S206.
  • indicators 411 and 412 indicating characteristic values are shown.
  • the indicator 411 indicates the Lch characteristic value
  • the indicator 412 indicates the Rch characteristic value.
  • the indicators 411 and 412 each display three indicator bars.
  • the indicator bar changes in length depending on the characteristic value.
  • the three indicator bars correspond to amplitude values in different bands. If the characteristic value is updated on a frame-by-frame basis, the indicators 411, 412 may update the display of the characteristic value on a frame-by-frame basis.
  • the first characteristic value based on the amplitude value of the first band is displayed on the first indicator bar.
  • the second characteristic value based on the amplitude value of the second band is displayed on the second indicator bar
  • the third characteristic value based on the amplitude value of the third band is the third indicator Displayed on the bar.
  • reference values are indicated by alternate long and short dashed lines. Similar to the characteristic values, three reference values are set for each ch. Indicators 411 and 412 indicate the ratio of the characteristic value to the reference value with a bar. Here, 80% of the amplitude value in each band of the reference characteristic acquired in the initial setting is used as the reference value. Of course, the reference value is not limited to 80% of the amplitude value in each band of the reference characteristic, and can be an arbitrary ratio or an arbitrary value. Moreover, in FIG. 8 and FIG. 9, the display part 231 is displaying the calibration screen 400 so that the indicator 411,412 may become the maximum, when a characteristic value corresponds with a reference value in each zone
  • the display unit 231 may display the calibration screen 400 such that the maximum of the indicators 411 and 412 is the reference value. In this case, when the reference value is exceeded, the indicators 411 and 412 become the maximum display.
  • the amplitude values of the first to third bands of the reference characteristic ETCF_d are set as first to third reference values, respectively.
  • reference values are displayed at the same position.
  • the status display field 413 indicates that calibration is in progress.
  • the status display column 413 of the calibration screen 401 displays installation OK. Thereby, the user U can recognize that the mounting state is good.
  • a message prompting adjustment of the headphones 43 is displayed in the message display field 415.
  • the display of the message display field 415 prompts the user U to wear the headphone 43 again. Thereby, the user U can recognize that the mounting state is defective.
  • the mounting state determination unit 224 determines that the mounting state is defective. . That is, when the time in which all the six characteristic values exceed the reference value is equal to or longer than a predetermined time, the wearing state determination unit 224 determines that the wearing state is good.
  • a more appropriate determination can be performed by determining the mounting state based on the plurality of characteristic values as described above. For example, one of the left unit 43L and the right unit 43R can be appropriately determined to be defective even when the degree of sealing is low.
  • the measurement device 200 performs ECTF measurement (measurement of the ear canal transmission characteristic) in a good wearing state.
  • the signal processing device 201 acquires measurement data of the ear canal transfer characteristic of the user U.
  • the user operates the input operation unit 232 to press the measurement button of the ear canal transmission characteristic.
  • the measurement signal generation unit 221 generates a measurement signal.
  • the measurement signal for ECTF measurement is a second measurement signal and can be an impulse signal or a TSP signal.
  • the second microphone 2L and the right microphone 2R respectively pick up the second measurement signal output from the headphone 43.
  • the sound collection signal acquisition unit 222 acquires a collection signal (also referred to as a second collection signal) acquired by the left microphone 2L and the right microphone 2R when the second measurement signal is output. Note that the collected signal acquisition unit 222 may output the second measurement signal over a plurality of frames to perform synchronous addition. As a result, sudden noise can be removed, and measurement with a high S / N ratio becomes possible.
  • the signal analysis unit 223 acquires measurement data of the left and right ear canal transmission characteristics. The signal analysis unit 223 extracts the measurement data of the left and right ch from the same time with a predetermined filter length, and obtains the filter coefficient. The signal analysis unit 223 calculates an inverse filter that cancels the headphone characteristic from the filter coefficient.
  • an inverse filter can be generated based on measurement data measured in a state in which the headphones 43 are properly worn. If the headphones 43 are not properly worn, the degree of sealing may be reduced, and the low frequency sound may be missed. If measurement is performed without being properly mounted, measurement data may vary. In addition, it is difficult for the user U to objectively determine the wearing state. According to the present embodiment, it is possible to prevent in advance the influence that the low band attenuates due to the wearing state of the headphones. It is possible to reduce the variation in characteristics due to the wearing of headphones.
  • the out-of-head localization processing apparatus 100 can perform out-of-head localization processing with high balance between left and right ch.
  • the left / right comparison unit 226 compares the measurement data of Lch and Rch to make an error determination (S14). If the difference between the measurement data of the left and right chs is small, it is determined that the left and right comparison result is good (OK in S14), and the process is ended.
  • the memory 211 stores an inverse filter that cancels the headphone characteristic, and the process ends.
  • the measuring apparatus 200 repeats the process from S11.
  • the determination can be performed using the phase characteristic and the power ratio.
  • a comparison method using phase characteristics will be described.
  • the left / right comparison unit 226 obtains the phase difference between left and right ch based on the measurement data of the ear canal transmission characteristic. For example, the left / right comparison unit 226 obtains the phase difference based on the arrival time difference between the direct sound directly arriving from the left unit 43L to the left microphone 2L and the direct sound directly arriving from the right unit 43R to the right microphone 2R.
  • the direct sound is a sound that reaches the left microphone 2L and the right microphone 2R without being reflected from the left unit 43L and the left unit 43R in the ear canal.
  • the left and right comparison unit 226 obtains the direct sound arrival time from the rising position of the measurement data in the time domain.
  • the left and right comparison unit 226 can obtain the phase difference between the left and right chs from the direct sound arrival time difference between the left and right. If the input S / N is known in advance by any method, the detection accuracy will be high.
  • the frequency band of the ear canal transfer characteristic may be extracted with a band pass filter in a band which is less affected by the individual characteristic, and the phase difference may be calculated by correlation calculation of the extracted band.
  • the left and right comparison unit 226 calculates segmental power of the ear canal transmission characteristic. Assuming that the amplitude spectra of the ear canal transmission characteristics are hpL and hpR, respectively, the segmental powers segP_L and segP_R of the left and right ch can be obtained by the following equations (1) and (2).
  • N 0 ⁇ file_size. If the ratio of the segmental power of left and right chs is twice or more, the left and right comparison unit 226 determines as an error. If the ratio of the segmental power of left and right ch is less than twice, the left and right comparison unit 226 determines that there is no error.
  • segP_Rate segP_L / segP_R
  • segP_Rate 0.5 to 2
  • segP_Rate 0.5 or less, or 2 or more
  • the left and right comparison unit 226 determines the error in the microphone position by comparing the ear canal transmission characteristics of the left and right ch.
  • the difference between the ear canal transmission characteristics of left and right ch is large, it is determined as an error, and the display unit 231 performs display prompting adjustment of the microphone position. Therefore, an inverse filter can be generated based on the measurement data of the ear canal transfer characteristic measured at an appropriate microphone position.
  • the error determination may be performed based on both the phase characteristics and the power ratio, or only one of them may be performed.
  • the band for obtaining the characteristic value in the signal analysis unit 223 will be described.
  • a band in which influence by an individual characteristic is small in frequency characteristics of the ear canal transmission characteristic it was found that such a band is 2 kHz to 3 kHz. That is, even if the user U applies the same headphone 43 again, the change in amplitude value is small at 2 kHz to 3 kHz. In addition, even when different headphones 43 are used, the change in amplitude value is small at 2 kHz to 3 kHz. On the other hand, at 90 Hz to 1 kHz lower than 2 kHz to 3 kHz, the fluctuation of the amplitude value due to the mounting state is large.
  • the 90 Hz to 1 kHz is divided into three bands of first to third bands.
  • the band of 90 Hz to 1 kHz is divided into three will be described.
  • division example 1 (Division example 1 of characteristic value)
  • the points of FFT resolution at 90 Hz to 1 kHz are divided into three.
  • An example in which the sampling frequency Fs of the collected signal is 48000 kHz and the sample length (sample_length) is 1024 samples will be described.
  • the frequency Freq can be obtained by the following equation (3).
  • Freq [Hz] (FS [Hz] / sample_length [sample] * 2) * sample ... (3)
  • the third band is 30 to 43 samples. That is, the third band is 703.125 Hz to 1007.8125 Hz. An average value or the like of the amplitude values included in each band can be used as the characteristic value and the reference value.
  • a band corresponding to 90 Hz to 1 kHz is extracted and divided into three from the frequency bands (referred to as critical bands) of 24 band pass filters constituting the auditory filter.
  • critical bands the frequency bands
  • Bark scale of the critical band it is possible to divide the frequency band so as to feel that the way of feeling the volume is different due to the difference in frequency, in the same way as the auditory sense.
  • the bark scale corresponding to 90 Hz to 1 kHz is in the following range. 100, 200, 300, 400, 510, 630, 770, 920, 1080
  • middle and low resolutions have a width, they are divided as follows. 100, 200, 300, 400/510, 630, 770/920, 1080
  • the method of dividing the band for obtaining the three characteristic values is not limited to the above example.
  • the number of characteristic values is not limited to three.
  • the characteristic value may be one or two, or four or more.
  • the band may be divided according to the number of characteristic values to be obtained.
  • the band for obtaining the characteristic value is not limited to 90 Hz to 1 kHz.
  • FIG. 10 shows an example of changing the display according to the characteristic value.
  • the display changes in stages according to the ratio of the characteristic value to the reference value (also referred to as a progress ratio).
  • a display example 1 in which the display density is changed a display example 2 in which the gradation is changed, and a display example 3 in which the outline is deformed are respectively shown.
  • FIG. 10 schematically displays the figure of the headphone as a GUI. As the progress rate increases, the characteristic value increases, and when the progress rate reaches 100%, the characteristic value and the reference value match.
  • Display Example 2 As the progress rate increases, the transition of gradation on the illustration changes from the bottom to the top.
  • Display Example 3 when the progress rate is low, the resolution of the outline (dotted line) of the illustration is coarsely displayed. As the rate of progress increases, the resolution of the outline increases, and an illustration of the headphones appears. When the progress rate reaches 100%, the outline becomes a solid line.
  • the user U can visually recognize the progress rate by changing the display. Therefore, the user U can wear the headphones 43 appropriately and promptly.
  • the display examples showing the progress ratio are not limited to the display examples 1 to 3 shown in FIG. 10, but one or more of color, size, shape, thickness, gradation, etc. are changed to indicate the arrival ratio. May be
  • Non-transitory computer readable media include tangible storage media of various types. Examples of non-transitory computer readable media are magnetic recording media (eg flexible disk, magnetic tape, hard disk drive), magneto-optical recording media (eg magneto-optical disk), CD-ROM (Read Only Memory), CD-R, CD-R / W, semiconductor memory (for example, mask ROM, PROM (Programmable ROM), EPROM (Erasable PROM), flash ROM, RAM (Random Access Memory)) are included. Also, the programs may be supplied to the computer by various types of transitory computer readable media. Examples of temporary computer readable media include electrical signals, light signals, and electromagnetic waves. The temporary computer readable medium can provide the program to the computer via a wired communication path such as electric wire and optical fiber, or a wireless communication path.
  • a wired communication path such as electric wire and optical fiber, or a wireless communication path.
  • the present invention is not limited to the above-mentioned embodiment, and can be variously changed in the range which does not deviate from the gist. Needless to say.
  • the present disclosure is applicable to out-of-head localization processing techniques.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Otolaryngology (AREA)
  • Stereophonic System (AREA)
  • Stereophonic Arrangements (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Headphones And Earphones (AREA)

Abstract

本実施の形態にかかる信号処理装置(201)は、第1の測定信号を生成して、ヘッドホン(43)に出力する測定信号生成部(221)と、マイク(2)が第1の測定信号を収音した第1の収音信号を取得する収音信号取得部(222)と、第1の収音信号の周波数特性を算出する信号解析部(223)と、所定の帯域における周波数特性の特性値を基準値と比較することによって、ヘッドホン(43)の装着状態を判定する装着状態判定部(224)と、基準値に対する特性値の割合に応じた段階的な判定の結果を出力する表示部(231)と、を備えたものである。

Description

信号処理装置、信号処理方法、及びプログラム
 本発明は、信号処理装置、信号処理方法、及びプログラムに関する。
 特許文献1には、外耳道モデルの逆フィルタを作成する逆フィルタ生成手段を有する外耳道共鳴補正装置が開示されている。特許文献1に開示された装置では、イヤホン又はヘッドホンが音源信号を出力し、外耳道内に配置されたマイクが音声信号を収音している。そして、音声信号の周波数特性から得られた共鳴周波数に応じて、遅延器の遅延時間が求められている。遅延器の遅延時間に基づいて、外耳道モデルが作成されている。
特開2009-194769号公報
 特許文献1のように、ユーザがヘッドホン、又はイヤホンを装着して音声信号を測定する場合、ユーザが、適切にヘッドホン、又はイヤホンを装着していることが重要となる。すなわち、ユーザが、ヘッドホン、又はイヤホンを適切に装着していない状態で測定を行うと、正確な測定ができないため、逆フィルタの作成に適した収音信号を取得できない。
 特に、近年、スマートホンなどによる記憶装置の大容量化、小型化、高速化により、ユーザ自身に対する測定が自宅でも可能となっている。ユーザ自身が測定を行う場合、ヘッドホンやイヤホンを適切に装着しているか否かを客観的に判定することができない。このため、適切に装着しない状態で信号を測定してしまうおそれがある。したがって、ヘッドホン、又はイヤホンを装着した状態で、適切に信号を測定することが望まれる。
 本実施形態は上記の点に鑑みなされたもので、ユーザが装着したヘッドホン又はイヤホンからの信号を適切に測定することができる信号処理装置、信号処理方法、及びプログラムを提供することを目的とする。
 本実施形態にかかる信号処理装置は、第1の測定信号を生成して、ヘッドホン又はイヤホンに出力する測定信号生成部と、マイクが前記第1の測定信号を収音した第1の収音信号を取得する収音信号取得部と、前記第1の収音信号の周波数特性を算出する信号解析部と、所定の帯域における前記周波数特性の特性値を基準値と比較することによって、前記ヘッドホン又はイヤホンの装着状態を判定する装着状態判定部と、前記基準値に対する前記特性の割合に応じた段階的な前記判定の結果を出力する出力する出力部と、を備えたものである。
 本実施形態にかかる信号処理方法は、第1の測定信号を生成して、ヘッドホン又はイヤホンに出力するステップと、前記マイクが前記第1の測定信号を収音した第1の収音信号を取得するステップと、前記第1の収音信号の周波数特性を算出するステップと、所定の帯域における前記周波数特性の特性値を基準値と比較することによって、前記ヘッドホン又はイヤホンの装着状態を判定するステップと、前記基準値に対する前記特性値の割合に応じた段階的な前記判定の結果を出力するステップと、を含むものである。
 本実施形態にかかるプログラムは、コンピュータに、第1の測定信号を生成して、ヘッドホン又はイヤホンに出力するステップと、前記マイクが前記第1の測定信号を収音した第1の収音信号を取得するステップと、前記第1の収音信号の周波数特性を算出するステップと、所定の帯域における前記周波数特性の特性値を基準値と比較することによって、前記ヘッドホン又はイヤホンの装着状態を判定するステップと、前記基準値に対する前記特性値の割合に応じた段階的な前記判定の結果を出力するステップと、を実行させることを特徴とするものである。
 本実施形態によれば、ユーザが装着したヘッドホン又はイヤホンからの信号を適切に測定することができる信号処理装置、信号処理方法、及びプログラムを提供することができる。
本実施の形態に係る頭外定位処理装置を示すブロック図である。 外耳道伝達特性を測定する測定装置の構成を示す図である。 信号処理装置の構成を示す制御ブロック図である。 信号処理装置における信号処理方法を示すフローチャートである。 初期設定の処理を示すフローチャートである。 初期設定における表示画面の1例を示す図である。 装着状態の判定処理を示すフローチャートである。 装着状態が良好の場合のキャリブレーション画面を示す図である。 装着状態が不良の場合のキャリブレーション画面を示す図である。 装着状態を示す表示画面を示す図である。
 本実施の形態にかかる信号処理装置で生成したフィルタを用いた音像定位処理の概要について説明する。本実施形態にかかる頭外定位処理は、空間音響伝達特性と外耳道伝達特性を用いて頭外定位処理を行うものである。空間音響伝達特性は、スピーカなどの音源から外耳道までの伝達特性である。外耳道伝達特性は、外耳道入口から鼓膜までの伝達特性である。本実施形態では、ヘッドホン又はイヤホンを装着した状態での外耳道伝達特性を測定し、その測定データを用いて頭外定位処理を実現している。
 本実施の形態にかかる頭外定位処理は、パーソナルコンピュータ、スマートホン、タブレットPCなどのユーザ端末で実行される。ユーザ端末は、プロセッサ等の処理手段、メモリやハードディスクなどの記憶手段、液晶モニタ等の表示手段、タッチパネル、ボタン、キーボード、マウスなどの入力手段を有する情報処理装置である。ユーザ端末は、データを送受信する通信機能を有している。さらに、ユーザ端末には、ヘッドホン又はイヤホンを有する出力手段(出力ユニット)が接続される。
(頭外定位処理装置)
 本実施の形態にかかる音場再生装置の一例である頭外定位処理装置100を図1に示す。図1は、頭外定位処理装置100のブロック図である。頭外定位処理装置100は、ヘッドホン43を装着するユーザUに対して音場を再生する。そのため、頭外定位処理装置100は、LchとRchのステレオ入力信号XL、XRについて、音像定位処理を行う。LchとRchのステレオ入力信号XL、XRは、CD(Compact Disc)プレイヤーなどから出力されるアナログのオーディオ再生信号、又は、mp3(MPEG Audio Layer-3)等のデジタルオーディオデータである。なお、頭外定位処理装置100は、物理的に単一な装置に限られるものではなく、一部の処理が異なる装置で行われてもよい。例えば、一部の処理がパソコンなどにより行われ、残りの処理がヘッドホン43に内蔵されたDSP(Digital Signal Processor)などにより行われてもよい。
 頭外定位処理装置100は、頭外定位処理部10、フィルタ部41、フィルタ部42、及びヘッドホン43を備えている。頭外定位処理部10、フィルタ部41、及びフィルタ部42は、具体的にはプロセッサ等により実現可能である。
 頭外定位処理部10は、畳み込み演算部11~12、21~22、及び加算器24、25を備えている。畳み込み演算部11~12、21~22は、空間音響伝達特性を用いた畳み込み処理を行う。頭外定位処理部10には、CDプレイヤーなどからのステレオ入力信号XL、XRが入力される。頭外定位処理部10には、空間音響伝達特性が設定されている。頭外定位処理部10は、各chのステレオ入力信号XL、XRに対し、空間音響伝達特性のフィルタ(以下、空間音響フィルタとも称する)を畳み込む。空間音響伝達特性は被測定者の頭部や耳介で測定した頭部伝達関数HRTFでもよいし、ダミーヘッドまたは第三者の頭部伝達関数であってもよい。
 4つの空間音響伝達特性Hls、Hlo、Hro、Hrsを1セットとしたものを空間音響伝達関数とする。畳み込み演算部11、12、21、22で畳み込みに用いられるデータが空間音響フィルタとなる。空間音響伝達特性Hls、Hlo、Hro、Hrsを所定のフィルタ長で切り出すことで、空間音響フィルタが生成される。
 空間音響伝達特性Hls、Hlo、Hro、Hrsのそれぞれは、インパルス応答測定などにより、事前に取得されている。例えば、ユーザUが左右の耳にマイクをそれぞれ装着する。ユーザUの前方に配置された左右のスピーカが、インパルス応答測定を行うための、インパルス音をそれぞれ出力する。そして、スピーカから出力されたインパルス音等の測定信号をマイクで収音する。マイクでの収音信号に基づいて、空間音響伝達特性Hls、Hlo、Hro、Hrsが取得される。左スピーカと左マイクとの間の空間音響伝達特性Hls、左スピーカと右マイクとの間の空間音響伝達特性Hlo、右スピーカと左マイクとの間の空間音響伝達特性Hro、右スピーカと右マイクとの間の空間音響伝達特性Hrsが測定される。
 そして、畳み込み演算部11は、Lchのステレオ入力信号XLに対して空間音響伝達特性Hlsに応じた空間音響フィルタを畳み込む。畳み込み演算部11は、畳み込み演算データを加算器24に出力する。畳み込み演算部21は、Rchのステレオ入力信号XRに対して空間音響伝達特性Hroに応じた空間音響フィルタを畳み込む。畳み込み演算部21は、畳み込み演算データを加算器24に出力する。加算器24は2つの畳み込み演算データを加算して、フィルタ部41に出力する。
 畳み込み演算部12は、Lchのステレオ入力信号XLに対して空間音響伝達特性Hloに応じた空間音響フィルタを畳み込む。畳み込み演算部12は、畳み込み演算データを、加算器25に出力する。畳み込み演算部22は、Rchのステレオ入力信号XRに対して空間音響伝達特性Hrsに応じた空間音響フィルタを畳み込む。畳み込み演算部22は、畳み込み演算データを、加算器25に出力する。加算器25は2つの畳み込み演算データを加算して、フィルタ部42に出力する。
 フィルタ部41、42にはヘッドホン特性(ヘッドホンの再生ユニットとマイク間の特性)をキャンセルする逆フィルタが設定されている。そして、頭外定位処理部10での処理が施された再生信号(畳み込み演算信号)に逆フィルタを畳み込む。フィルタ部41で加算器24からのLch信号に対して、Lch側のヘッドホン特性の逆フィルタを畳み込む。同様に、フィルタ部42は加算器25からのRch信号に対して、Rch側のヘッドホン特性の逆フィルタを畳み込む。逆フィルタは、ヘッドホン43を装着した場合に、ヘッドホンユニットからマイクまでの特性をキャンセルする。マイクは、外耳道入口から鼓膜までの間ならばどこに配置してもよい。空間音響伝達特性を測定した時の装着位置と同じ位置にマイクを配置することが好ましい。逆フィルタは、後述するように、ユーザU本人の特性の測定結果から算出されている。
 フィルタ部41は、補正されたLch信号をヘッドホン43の左ユニット43Lに出力する。フィルタ部42は、補正されたRch信号をヘッドホン43の右ユニット43Rに出力する。ユーザUは、ヘッドホン43を装着している。ヘッドホン43は、Lch信号とRch信号をユーザUに向けて出力する。これにより、ユーザUの頭外に定位された音像を再生することができる。
 このように、頭外定位処理装置100は、空間音響伝達特性Hls、Hlo、Hro、Hrsに応じた空間音響フィルタと、ヘッドホン特性の逆フィルタを用いて、頭外定位処理を行っている。以下の説明において、空間音響伝達特性Hls、Hlo、Hro、Hrsに応じた空間音響フィルタと、ヘッドホン特性の逆フィルタとをまとめて頭外定位処理フィルタとする。2chのステレオ再生信号の場合、頭外定位フィルタは、4つの空間音響フィルタと、2つの逆フィルタとから構成されている。そして、頭外定位処理装置100は、ステレオ再生信号に対して合計6個の頭外定位フィルタを用いて畳み込み演算処理を行うことで、頭外定位処理を実行する。
(外耳道伝達特性の測定装置)
 次に、逆フィルタを生成するために、外耳道伝達特性を測定する測定装置200について、図2を用いて説明する。図2は、ユーザUに対して伝達特性を測定するための構成を示している。測定装置200は、マイクユニット2と、ヘッドホン43と、信号処理装置201と、を備えている。
 信号処理装置201には、マイクユニット2と、ヘッドホン43と、が接続されている。なお、マイクユニット2は、ヘッドホン43に内蔵されていてもよい。マイクユニット2は、左マイク2Lと、右マイク2Rとを備えている。左マイク2Lは、ユーザUの左耳9Lに装着される。右マイク2Rは、ユーザUの右耳9Rに装着される。信号処理装置201は、頭外定位処理装置100と同じ処理装置であってもよく、異なる処理装置であってよい。また、ヘッドホン43の代わりにイヤホンを用いることも可能である。
 ヘッドホン43は、ヘッドホンバンド43Bと、左ユニット43Lと、右ユニット43Rとを、有している。ヘッドホンバンド43Bは、左ユニット43Lと右ユニット43Rとを連結する。左ユニット43LはユーザUの左耳9Lに向かって音を出力する。右ユニット43RはユーザUの右耳9Rに向かって音を出力する。ヘッドホン43は密閉型、開放型、半開放型、または半密閉型等である、ヘッドホンの種類を問わない。マイクユニット2がユーザUに装着された状態で、ユーザUがヘッドホン43を装着する。すなわち、左マイク2L、右マイク2Rが装着された左耳9L、右耳9Rにヘッドホン43の左ユニット43L、右ユニット43Rがそれぞれ装着される。ヘッドホンバンド43Bは、左ユニット43Lと右ユニット43Rとをそれぞれ左耳9L、右耳9Rに押し付ける付勢力を発生する。
 左マイク2Lは、ヘッドホン43の左ユニット43Lから出力された音を収音する。右マイク2Rは、ヘッドホン43の右ユニット43Rから出力された音を収音する。左マイク2L、及び右マイク2Rのマイク部は、外耳孔近傍の収音位置に配置される。左マイク2L、及び右マイク2Rは、ヘッドホン43に干渉しないように構成されている。すなわち、左マイク2L、及び右マイク2Rは左耳9L、右耳9Rの適切な位置に配置された状態で、ユーザUがヘッドホン43を装着することができる。
 信号処理装置201は、ヘッドホン43に対して測定信号を出力する。これにより、ヘッドホン43はインパルス音などを発生する。具体的には、左ユニット43Lから出力されたインパルス音を左マイク2Lで測定する。右ユニット43Rから出力されたインパルス音を右マイク2Rで測定する。測定信号の出力時に、マイク2L、2Rが収音信号を取得することで、インパルス応答測定が実施される。
 信号処理装置201は、インパルス応答測定に基づく収音信号をメモリなどに記憶する。これにより、左ユニット43Lと左マイク2Lとの間の伝達特性(すなわち、左耳の外耳道伝達特性)と、右ユニット43Rと右マイク2Rとの間の伝達特性(すなわち、右耳の外耳道伝達特性)が取得される。左マイク2Lで取得された左耳の外耳道伝達特性をLch(左ch)の外耳道伝達特性とし、右マイク2Rで取得された右耳の外耳道伝達特性をRch(右ch)の外耳道伝達特性とする。信号処理装置201が伝達特性の測定データを所定のフィルタ長で切り出すことで、フィルタ係数が求められる。
 信号処理装置201は、伝達特性の測定データをそれぞれ記憶するメモリなどを有している。なお、信号処理装置201は、外耳道伝達特性を測定するための測定信号として、インパルス信号やTSP(Time Stretched Pulse)信号等を発生する。測定信号はインパルス音等の測定音を含んでいる。
 さらに、信号処理装置201は、ヘッドホン43の装着状態が良好であるか否を判定している。そして、ヘッドホン43の装着状態が良好でない場合、信号処理装置201は、ヘッドホン43の調整を促すような表示を行う。これにより、適切な状態での信号を測定することができる。例えば、ヘッドホン43の密閉性が低い状態で測定が行われるのを防ぐことができる。あるいは、左右のバランスが悪い状態での測定が行われるのを防ぐことができる。よって、より精度の高い外耳道伝達特性を安定して測定することが可能になる。
 次に、信号処理装置201における処理の詳細について、図3を用いて説明する。図3は、信号処理装置201の構成を示す制御ブロック図である。信号処理装置201は、メモリ211と、CPU(Central Processing Unit)212と、測定部220と、GUI(Graphical User Interface)230と、を備えている。
 測定部220は、測定信号生成部221と、収音信号取得部222と、信号解析部223と、装着状態判定部224と、基準値設定部225と、左右比較部226と、を備えている。GUI230は、ユーザUに対する入出力インターフェースであり、表示部231と、入力操作部232とを備えている。
 信号処理装置201は、パソコンやスマートホンなどの情報処理装置であり、メモリ211、及びCPU212を備えている。メモリ211は、処理プログラムや各種パラメータなどを記憶している。CPU212は、メモリ211に格納された処理プログラムを実行する。これにより、測定部220、及びGUI230における各処理が実施される。
 測定部220の各ブロックにおける機能は、CPU212がコンピュータプログラムを実行することにより、実現される。すなわち、メモリ211はプログラムを実行することで、測定信号生成部221、収音信号取得部222、信号解析部223、装着状態判定部224、基準値設定部225、及び左右比較部226が所定の処理を実行する。
 測定信号生成部221は、測定信号を生成する。測定信号生成部221で生成された測定信号は、アンプ45L、45Rで増幅されて、ヘッドホン43に出力される。なお、アンプ45L、45Rは、信号処理装置201又はヘッドホン43に内蔵されていてもよい。左ユニット43Lと右ユニット43Rがそれぞれ伝達特性を測定するための測定信号を出力する。なお、LchとRchの測定は同じ測定信号を用いて、同様に行われる。
 左マイク2L、右マイク2Rがそれぞれ測定信号を収音し、収音信号を信号処理装置201に出力する。収音信号取得部222は、左マイク2L、右マイク2Rからの収音信号を取得する。なお、収音信号取得部222は、A/D変換器、及びアンプなどを有しており、左マイク2L、右マイク2Rからの収音信号をA/D変換、増幅などしてもよい。また、収音信号取得部222は、複数回の測定により得られた信号を同期加算してもよい。
 信号解析部223は、測定信号生成部221によって取得された収音信号を解析する。例えば、信号解析部223は、FFT(高速フーリエ変換)により時間領域の収音信号から周波数領域のスペクトルを算出する。これにより、収音信号の振幅特性(振幅スペクトル)と、位相特性(位相スペクトル)が生成される。なお、振幅スペクトルの代わりにパワースペクトルを生成してもよい。なお、信号解析部223は、離散フーリエ変換や離散コサイン変換により、収音信号を周波数領域のデータに変換することができる。
 また、信号解析部223は、振幅特性から1又は2以上の特性値を抽出する。信号解析部223は、所定の周波数帯域における振幅値から特性値を求める。例えば、信号解析部223は、90Hz~1kHzの帯域における振幅特性に基づいて、特性値を算出している。また、信号解析部223が、複数の特性値を設定する場合、それぞれ異なる周波数帯の振幅値が特性値を設定される。例えば、本実施の形態においては、3つの特性値が設定されている。第1の帯域における振幅値に基づいて、第1の特性値が設定され、第1の帯域と異なる第2の帯域における振幅値に基づいて、第2の特性値が設定される。第1,及び第2の帯域と異なる第3の帯域における振幅値に基づいて、第3の特性値が設定される。複数の特性値を用いることで、装着状態をより適切に判定することができる。また、特性値は所定の帯域における振幅値の平均値などであってもよく、特定の1周波数における振幅値であってもよい。
 基準値設定部225は、初期設定で得られた振幅特性を基準特性として設定する。換言すると、後述する初期設定のステップは、基準特性を求めるための処理である。なお、基準特性から抽出された特性値を基準値とする。基準値設定部225は、基準特性、又は基準値をメモリ211等に記憶している。初期設定の処理については後述する。
 装着状態判定部224は、ユーザUのヘッドホン43の装着状態を判定する。具体的には、装着状態判定部224は、ユーザ測定により得られた振幅特性の特性値と、基準値とを比較する。そして、装着状態判定部224は特性値と基準値との比較結果に基づいて、装着状態が良好となっているか、不良となっているかを判定する。具体的には、特性値が基準値を超えている場合、装着状態判定部224は、装着状態が良好であると判定する。一方、特性値が基準値以下の場合、装着状態判定部224は、装着状態が不良であると判定する。装着状態が良好であると判定されると、信号処理装置201は、外耳道伝他と津特性を求めるためのECTF測定を実施する。
 左右比較部226は、Lchの外耳道伝達特性の測定データとRchの外耳道伝達特性の測定データを比較する。そして、左右比較部226は、左右chの比較結果に基づいて、マイク装着位置が適切か否かの判定(エラー判定)を行う。左右比較部226は、左右の伝達特性に一定の相違がある場合、マイク装着位置のエラーと判定する。エラーと判定された場合、マイク位置を調整して、再測定が実施される。
 表示部231は、ディスプレイ等を有する出力部となる。表示部231は、装着状態判定部224での判定結果、及び左右比較部226でのエラー判定結果を表示する。表示部231は、基準値に対する特性値の割合に応じた段階的な判定の結果を出力する。さらに、装着状態が不良である場合、表示部231は、ヘッドホン43の再装着を促すように、表示を行う。このようにすることで、適切な装着状態で外耳道伝達特性を測定することができる。また、左右比較部226によるエラー判定がなされた場合、表示部231は、左マイク2L、右マイク2Rの位置調整を促すように、表示を行う。このようにすることで、左右のバランスがよい逆フィルタを作成することができる。
 なお、判定結果等は、音や振動により出力されてもよい。すなわち、判定結果を出力する出力部は、アラーム音等による出力を行うヘッドホン43、イヤホン,スピーカなどを有していてもよく、振動による出力を行うアクチュエータを有していてもよい。
 入力操作部232は、タッチパネル、キーボード、マウスなどの入力手段を備えており、ユーザUからの操作入力を受け付ける。
 測定装置200による測定方法について、図4を用いて説明する。図4は、測定方法を示すフローチャートである。ユーザUが入力操作部232を操作して、測定を実施すると、測定装置200は初期設定を実施する(S11)。これにより、基準値設定部225に基準特性又は基準値が設定される。
 基準特性を設定するための初期設定の詳細フローについて、図5を用いて、説明する。図5は、初期設定処理を示すフローチャートである。なお、以下の説明では、ヘッドホン装着時の振幅特性を5回測定して、基準特性を求める例について説明する。
 まず、測定信号生成部221が測定信号をヘッドホン43に出力して、ユーザUがヘッドホン43を装着していない状態の振幅特性ECTF_0を信号解析部223が取得する(S101)。すなわち、ユーザUがヘッドホン43を装着していない状態で、測定信号生成部221が測定信号(第3の測定信号ともいう)を生成する。第3の測定信号となる初期設定用の測定信号は、第1及び第2の測定信号と同様にインパルス信号やTSP信号とすることができる。すなわち、ヘッドホン43からは一定時間同じ音が出力されるような第3の測定信号を測定信号生成部221が生成する。
 ヘッドホン43から出力される第3の測定信号を左マイク2L、右マイク2Rがそれぞれ収音する。第3の測定信号の出力時に左マイク2L、右マイク2Rがそれぞれ収音した収音信号(第3の収音信号ともいう)を、収音信号取得部222が取得する。信号解析部223は、第3の収音信号に対して、FFTを行って、周波数振幅特性を算出する。これにより、ヘッドホン未装着時の振幅特性ECTF_0が取得される。
 そして、ヘッドホンの装着時の測定回数を示す値(0以上の整数)であるnを、n=0と初期化する(S102)。次に、ユーザUがヘッドホン43を装着する(S103)。例えば、ヘッドホン未装着時の振幅特性ECTF_0の取得が完了したことが表示部231に表示されると、ユーザUは、ヘッドホン43を装着する。
 測定信号生成部221が測定信号をヘッドホン43に出力して、ユーザUがヘッドホン43を装着した状態の振幅特性ECTF_i(n)を信号解析部223が取得する(S104)。ユーザUがヘッドホン43を装着した状態で、測定信号生成部221が測定信号を生成する。ここでの測定信号は、第3の測定信号であり、第1及び第2の測定信号と同様に、インパルス信号やTSP信号とすることができる。
 ヘッドホン43から出力される第3の測定信号を左マイク2L、右マイク2Rがそれぞれ収音する。第3の測定信号の出力時に左マイク2L、右マイク2Rがそれぞれ収音した収音信号(第3の収音信号ともいう)を、収音信号取得部222が取得する。信号解析部223は、第3の収音信号に対して、FFTを行って、周波数特性を算出する。これにより、ヘッドホン装着時の振幅特性ECTF_i(n)が取得される。ここでは、信号解析部223が、1フレーム毎に、振幅特性ECTF_i(n)を算出している。
 次に、ユーザUがヘッドホン43を装着したことを検出するために、振幅特性ECTF_i(n)が変化していないかを信号解析部223が判定する(S105)。所定時間(例えば、3秒)以上、振幅特性ECTF_i(n)が変化していないと判定された場合、ユーザUがヘッドホン43を装着したことが検出される。信号解析部223が、所定時間におけるに対応する複数のフレームの振幅特性ECTF_i(n)を比較して、所定時間内における振幅特性ECTF_i(n)の変化を求める。複数のフレームの振幅特性ECTF_i(n)の差が一定値以下となれば、信号解析部223は、所定時間、振幅特性ECTF_i(n)が変化していないと判定する。
 振幅特性ECTF_i(n)が変化していると判定された場合(S105のNO)、S104に戻る。すなわち、振幅特性ECTF_i(n)が変化しなくなるまで、振幅特性ECTF_i(n)を取得する。
 所定時間以上、振幅特性ECTF_i(n)が変化していないと判定された場合(S105のYES)、n回目の測定が完了したことを表示する(S106)。そして、メモリ211が、振幅特性ECTF_i(n)を保持する。図6に、1回目の振幅特性ECTF_i(0)が完了したことを示す表示画面300の1例を示す。表示画面300には、振幅特性ECTF_i(0)の表示欄301と、「特性セット」の表示欄302と、測定回数の表示欄303とが含まれている。
 表示欄301に表示される振幅特性ECTF_i(0)は、フレーム毎に変化してもよい。S105において、所定時間以上、振幅特性ECTF_i(n)が変化していないと判定された場合、表示欄302には、振幅特性ECTF_i(0)の取得が完了したことを示す「特性セット」が表示される。これにより、ユーザUは1回目の測定が完了したことを認識することができる。S105において、振幅特性ECTF_i(n)が変化していると判定された場合、表示欄302は、空欄となる。表示欄302によって、ユーザUは、n回目の測定が完了したことを速やかに認識することができる。5回の測定のうちの1回目の測定であるため、表示欄303には、1/5回目と表示されている。
 ユーザUは、n回目の測定が完了したことを認識したら、ヘッドホン43を外す(S107)。そして、信号処理装置201は、ヘッドホン43が外されたことを検出する(S108)。例えば、振幅特性が未装着時の振幅特性ECTF_0の音圧レベルまで減衰したら、ヘッドホン43が外されたと見なすことができる。信号解析部223は、nをインクリメントする(S109)。
 信号解析部223は、nが規定回数(ここでは5回)以上であるか否かを判定する(S110)。nが規定回数未満の場合(S110のNO)、S103からの処理を繰り返す。すなわち、ヘッドホン43をかけ直して、同様の測定を行う。これにより、振幅特性ECTF_i(1)~ECTF_i(4)が順次測定される。
 nが規定回数以上となると(S110のYES)、基準値設定部225が基準特性ETCF_dを設定する(S111)。例えば、メモリ211に保持された振幅特性ECTF_i(0)~ECTF_i(4)の平均化した振幅特性ECTF_iaveが基準特性ETCF_dとして基準値設定部225に設定される。
 このように、ユーザUがヘッドホン43の脱着を繰り返し行う。ユーザUがヘッドホンをかけ直す前後で、収音信号取得部222が第3の収音信号を取得する。このようにすることで、複数の振幅特性ECTF_i(0)~ECTF_i(n)が取得される。すなわち、振幅特性ECTF_i(0)が取得されたら、ヘッドホン43をかけ直して、再度、振幅特性ECTF_i(1)を取得する。ヘッドホン43をかけ直す毎に、収音信号取得部222が収音信号を取得することで、複数の振幅特性ECTF_i(0)~ECTF_i(n)が取得される。
 基準値設定部225には、複数の振幅特性ECTF_i(0)~ECTF_i(n)に基づいて、基準特性ETCF_dが設定されている。また、基準値設定部225には、基準特性ETCF_dに基づいた基準値が設定されている。基準特性ETCF_dの特性値である基準値は、例えば、90Hz~1kHzにおける基準特性ETCF_dの振幅値に基づいて設定されている。
 なお、上記の説明ではユーザUに対して実施された初期設定用測定によって、基準特性ETCF_dが取得されているが、基準特性ETCF_dはユーザU以外の受聴者やダミーヘッドに対して行われた初期設定用測定によって、取得されていてもよい。
 図4の説明に戻る。初期設定(S11)の実施後、装着状態判定部224は、ヘッドホン43の装着状態を判定する(S12)。ヘッドホン43の装着状態の判定処理の詳細フローについて、図7を用いて説明する。なお、装着状態を判定するための処理をキャリブレーション処理とも称する。
 まず、ユーザUがヘッドホン43を装着する(S201)。ユーザUは、入力操作部232を操作することで、測定ボタンを押下する(S202)。
 次に、測定信号生成部221が測定信号を出力して、信号解析部223が振幅特性ECTF_cを取得する(S203)。ユーザUがヘッドホン43を装着した状態で、測定信号生成部221が測定信号を生成する。装着状態判定用の測定信号は、第1の測定信号である。また、装着状態判定用の第1の測定信号は、第3の測定信号と同じ信号とすることができる。
 ヘッドホン43から出力される第1の測定信号を左マイク2L、右マイク2Rがそれぞれ収音する。第1の測定信号の出力時に左マイク2L、右マイク2Rがそれぞれ取得した収音信号(第1の収音信号ともいう)を、収音信号取得部222が取得する。信号解析部223は、第1の収音信号に対して、FFTを行って、周波数特性を算出する。これにより、キャリブレーション処理用の振幅特性ECTF_cが取得される。ここでは、信号解析部223が、1フレーム毎に、振幅特性ECTF_cを算出している。
 表示部231が振幅特性ECTF_cの特性値と、基準値とを表示する(S204)。表示部231によるキャリブレーション画面の表示については後述する。
 装着状態判定部224が振幅特性ECTF_cの特性値と、基準値とを比較して、装着状態の良否判定を行う(S205)。例えば、所定時間(例えば、3秒)以上、振幅特性ECTF_cの特性値が基準特性ETCF_dの基準値を超えている場合、装着状態判定部224は、装着状態が良好であると判定する。すなわち、所定時間に渡って連続する複数フレームにおいて、特性値が基準値を超えている場合、装着状態が良好であると判定される。振幅特性ECTF_cの特性値が基準特性ETCF_dの基準値を超えている時間が所定時間以上連続しない場合、装着状態判定部224は、装着状態が不良であると判定する。
 装着状態が不良であると判定された場合(S205の不良)、表示部231が不良表示を行う(S206)。すなわち、装着状態が不良であることを示すキャリブレーション画面を表示部231が表示する。そして、S201からの処理を繰り返す。すなわち、ユーザUがヘッドホン43を再装着して、キャリブレーション処理が行われる。
 装着状態が良好であると判定された場合(S205の良好)、表示部231が良好表示を行う(S207)すなわち、装着状態が良好であることを示すキャリブレーション画面を表示部231が表示する。ユーザUは、装着状態が良好と判定されるまで、ヘッドホン43をかけ直し、キャリブレーション操作を継続することが好ましい。
 図8、及び図9に、キャリブレーション画面の表示例を示す。図8、及び図9は、キャリブレーション画面を示す図である。図8は、装着状態を判定中(キャリブレーション中)のキャリブレーション画面400と、装着状態が良好と判定された場合のキャリブレーション画面401を示している。図9は、装着状態を判定中(キャリブレーション中)のキャリブレーション画面400と、装着状態が不良と判定された場合のキャリブレーション画面402を示している。キャリブレーション画面400は、S205での表示画面である。キャリブレーション画面401は、S207における表示画面である。キャリブレーション画面402は、S206における表示画面である。
 キャリブレーション画面400には、特性値を示すインジケータ411、412が示されている。インジケータ411は、Lchの特性値を示し、インジケータ412は、Rchの特性値を示している。ここでは、各chに3つの特性値が設定されているため、インジケータ411、412はそれぞれ、3つのインジケータバーが表示されている。インジケータバーは、特性値に応じて長さが変化する。3つのインジケータバーは、それぞれ異なる帯域における振幅値に対応している。特性値がフレーム毎に更新される場合、インジケータ411、412が、フレーム毎に特性値の表示を更新してもよい。
 例えば、第1の帯域の振幅値に基づく第1の特性値が、1つ目のインジケータバーに表示される。同様に、第2の帯域の振幅値に基づく第2の特性値が、2つ目のインジケータバーに表示され、第3の帯域の振幅値に基づく第3の特性値が、3つ目のインジケータバーに表示される。
 また、インジケータ411、412には、基準値が一点鎖線で示されている。特性値と同様に、それぞれのchに対して、3つの基準値が設定されている。インジケータ411、412は、基準値に対する特性値の割合をバーで表示している。ここでは、初期設定で取得した基準特性の各帯域における振幅値の80%を基準値としている。もちろん、基準値は、基準特性の各帯域における振幅値の80%に限らず、任意の割合や任意の値とすることが可能である。また、図8、及び図9では、各帯域において、特性値が基準値と一致する場合に、インジケータ411,412が最大となるように、表示部231がキャリブレーション画面400を表示している。なお、インジケータ411、412の最大が基準値となるように、表示部231がキャリブレーション画面400を表示してもよい。この場合、基準値を超えると、インジケータ411、412が最大の表示となる。各chにおいて、基準特性ETCF_dの第1~第3の帯域の振幅値が、それぞれ第1~第3の基準値として設定されている。ここでは、3つのインジケータバーにおいて、基準値が同じ位置に表示されている。また、キャリブレーション画面400には、ステータス表示欄413に、キャリブレーション中であることが表示されている。
 特性値が基準値を越える時間が所定時間(例えば、3秒)以上継続した場合、図8に示すように、キャリブレーション画面401のステータス表示欄413には、装着OKと表示される。これにより、装着状態が良好であることをユーザUが認識することができる。
 所定の測定時間(例えば、10秒)中に、特性値が基準値を越える時間が所定時間以上継続しない場合、図9に示すように、キャリブレーション画面402のステータス表示欄413には、装着NGと表示される。さらに、ヘッドホン43の調整を促すメッセージが、メッセージ表示欄415に表示される。メッセージ表示欄415の表示により、ユーザUがヘッドホン43の再装着を促される。これにより、装着状態が不良であることをユーザUが認識することができる。
 なお、Lchの3つの特性値、及びRchの3つの特性値の1つでも、基準値を越える状態が所定時間以上継続できない場合、装着状態判定部224は、装着状態が不良であると判定する。すなわち、6つの特性値の全てが基準値を超える時間が所定時間以上となった場合に、装着状態判定部224は、装着状態が良好であると判定する。このように複数の特性値に基づいて、装着状態を判定することで、より適切な判定を行うことができる。例えば、左ユニット43Lと右ユニット43Rの一方では密閉度が低い場合でも適切に不良と判定することができる。
 図4の説明に戻る。良好な装着状態において、測定装置200がECTF測定(外耳道伝達特性の測定)を実施する。信号処理装置201は、ユーザUの外耳道伝達特性の測定データを取得する。ユーザUがヘッドホン43を良好に装着した状態で、入力操作部232を操作して、外耳道伝達特性の測定ボタンを押下する。測定信号生成部221が測定信号を生成する。ECTF測定用の測定信号は、第2の測定信号であり、インパルス信号やTSP信号とすることができる。
 ヘッドホン43から出力される第2の測定信号を左マイク2L、右マイク2Rがそれぞれ収音する。第2の測定信号の出力時に左マイク2L、右マイク2Rがそれぞれ取得した収音信号(第2の収音信号ともいう)を、収音信号取得部222が取得する。なお、収音信号取得部222は、第2の測定信号を複数フレームに渡って出力して同期加算を行うようにしてもよい。これにより、突発的なノイズを除去することができるため、高いS/N比での測定が可能となる。そして、信号解析部223は、左右の外耳道伝達特性の測定データを取得する。信号解析部223は、左右chの測定データを同じ時刻から所定のフィルタ長で切り出して、フィルタ係数を求める。信号解析部223は、フィルタ係数から、ヘッドホン特性を打ち消すような逆フィルタを算出する。
 本実施の形態で、ヘッドホン43が良好に装着された状態で測定された測定データに基づいて、逆フィルタを生成することができる。ヘッドホン43が適切に装着されていない場合、密閉度が低下して、低域の音が抜けてしまうことがある。適切に装着されていない状態で測定を行うと、測定データにばらつきが生じてしまう。また、ユーザU自身が装着状態を客観的に判定することは困難である。本実施形態によれば、ヘッドホンの装着状態によって、低域が減衰してしまう影響を未然に防ぐことができる。ヘッドホンの装着による特性のばらつきを軽減することができる。頭外定位処理装置100が左右chのバランスの高い頭外定位処理を行うことができる。
 そして、左右比較部226が、LchとRchの測定データを比較して、エラー判定を行う(S14)。左右chの測定データの差が小さい場合、左右の比較結果が良好と判定され(S14のOK)、処理を終了する。メモリ211がヘッドホン特性をキャンセルする逆フィルタを記憶して、処理を終了する。
 左右chの測定データの差が大きい場合(S14のNG)、エラー判定となり、ユーザUが左マイク2L、右マイク2Rを調整する(S15)。すなわち、適切に測定データを取得することができない可能性が高いため、ユーザUがマイクユニット2の位置を調整する。マイク位置を調整したら、測定装置200がS11からの処理を繰り返す。
 なお、左右chの測定データの比較では、位相特性やパワー比を用いて、判定を行うことができる。まず、位相特性を用いた比較方法について、説明する。
 左右比較部226は、外耳道伝達特性の測定データに基づいて、左右chの位相差を求める。例えば、左右比較部226は、左ユニット43Lから左マイク2Lに直接到達する直接音と、右ユニット43Rから右マイク2Rに直接到達する直接音との到達時間差に基づいて位相差を求める。なお、直接音は、左ユニット43L、左ユニット43Rから外耳道内で反射せずに、左マイク2L、右マイク2Rに到達する音である。左右比較部226は、時間領域の測定データの立ち上がり位置から、直接音到達時間を求める。左右比較部226は、左右の直接音到達時間差から、左右chの位相差を求めることができる。何からの方法で事前に入力S/Nが分かっている場合、検出精度が高くなる。
 あるいは、外耳道伝達特性の周波数特性で個人特性の影響の少ない帯域をバンドパスフィルタで抽出して、抽出された帯域の相関計算により位相差を算出してもよい。なお、位相差は以下の通りとなる。
 位相差=音速*(左右の時間差サンプル数)/(サンプリング周波数)
 位相差が5cm以上ある場合は、左右比較部226は、エラーとして判定する。したがって、マイク位置を調整して再測定を実施する。
 次に、パワー比を用いた比較方法について、説明する。左右比較部226は、外耳道伝達特性のセグメンタルパワーをそれぞれ算出する。外耳道伝達特性の振幅スペクトルをそれぞれhpL、hpRとすると、左右chのセグメンタルパワーsegP_L、segP_Rは以下の式(1)、(2)により求めることができる。
Figure JPOXMLDOC01-appb-M000001
 n=0<file_sizeである。左右chのセグメンタルパワーの比率が2倍以上の場合、左右比較部226は、エラーとして判定する。左右chのセグメンタルパワーの比率が2倍未満の場合、左右比較部226は、エラー無しと判定する。
 segP_Rate=segP_L/segP_Rとすると、segP_Rateが0.5~2の場合、エラー無しと判定される。一方、segP_Rateが0.5以下、又は2以上の場合、エラーと判定される。エラーと判定された場合、マイク位置を調整して、再測定を行う。
 このように、左右比較部226は、左右chの外耳道伝達特性を比較することで、マイク位置のエラー判定を行う。左右chの外耳道伝達特性の差が大きい場合、エラーと判定して、表示部231がマイク位置の調整を促す表示を行う。したがって、適切なマイク位置で測定した外耳道伝達特性の測定データに基づいて、逆フィルタを生成することができる。
 マイク位置により極端に精度の悪い伝達特性や、左右のバランスが悪い伝達特性を取得してしまった場合に、マイク位置を調整した上で、再測定を促すことができる。よって、適切な逆フィルタを生成することができるため、頭外定位処理の精度を向上させることができる。なお、位相特性とパワー比との両方によりエラー判定を行ってもよいし、いずれか一方のみを行ってもよい。
 以下、信号解析部223において、特性値を求めるための帯域について説明する。発明者が、外耳道伝達特性の周波数特性で個人特性による影響の少ない帯域を調べた結果、このような帯域は、2kHz~3kHzであることが分かった。すなわち、同じヘッドホン43をユーザUがかけ直しても、2kHz~3kHzでは、振幅値の変化が小さい。また、異なる複数のヘッドホン43を用いた場合でも、2kHz~3kHzでは、振幅値の変化が小さい。一方、2kHz~3kHzよりも低い90Hz~1kHzでは、装着状態による振幅値の変動が大きい。よって、90Hz~1kHzの振幅特性に基づいて、装着状態を判定することが好ましい。90Hz~1kHzを第1~第3の帯域の3つの帯域に分割している。以下、90Hz~1kHzの帯域を3つに分割する例について説明する。
(特性値の分割例1)
 分割例1では、90Hz~1kHzにおけるFFT分解能の点数を3分割する。収音信号のサンプリング周波数Fs=48000kHzとし、サンプル長(sample_length)を1024sampleとする例を説明する。
 周波数Freqは以下の式(3)で求めることができる。
 Freq[Hz] = (FS[Hz]/sample_length[sample] * 2) * sample  ・・・(3)
 式(3)より、90Hzのサンプル数は以下の通りとなる。
 sample = 90 / ( 48000 / 1024*2 ) = 3.84 ≒ 4 (整数型に四捨五入)
 同様に、1kHzのサンプル数は、以下の通りとなる。
 sample = 1000 / ( 48000 / 1024*2 ) = 42.6667  ≒ 43 (整数型に四捨五入)
 よって、90Hz~1kHzまでの周波数分解能のサンプル数は43-4=39となる49を3割すると、1つの帯域あたり13サンプルが含まれる。第1の帯域は、4~16(=4+13-1)sampleとなる。つまり、第1の帯域は、93.75Hz~375Hzとなる。第2の帯域は、17~29(=17+13-1)sampleとなる。つまり、第2の帯域は、398.4375Hz~679.6875Hzとなる。第3の帯域は、30~43sampleとなる。つまり、第3の帯域は、703.125Hz~1007.8125Hzとなる。それぞれの帯域に含まれる振幅値の平均値等を特性値、及び基準値とすることができる。
(分割例2)
 分割例2では、聴覚フィルタを構成する24個の帯域通過フィルタの周波数帯域(臨界帯域という)のうち、90Hz~1kHzに対応する帯域バンドを抽出して3分割している。臨界帯域のバーク尺度を用いることで、周波数の違いによって音量の感じ方が異なるのを、聴感と同じように感じるように周波数帯域を分割することができる。
 90Hz~1kHzに対応するバーク尺度は、次の範囲となる。
100、200、300、400、510、630、770、920、1080
 等しく3分割する場合は、以下のように分割される。
100、200、300 / 400、510、630 / 770、920、1080
 中・低域の分解能に幅を持たせる場合は、以下のように分割される。
100、200、300、400/ 510、630、770 / 920、1080
 なお、3つの特性値を求めるための帯域の分割方法は、上記の例に限られるものではない。さらに、特性値の数は3つに限られるものではない。特性値は1つ又は2つでもよく、4つ以上でもよい。そして、求める特性値の数に応じて,帯域を分割すればよい。さらに、特性値を求めるための帯域は、90Hz~1kHzに限られるものではない。
(表示例)
 次に、特性値に応じて表示を変える例を図10に示す。図10では、3つの表示例が示されており、基準値に対する特性値の割合(進捗割合とも称する)に応じて表示が段階的に変わっていく。具体的には、表示濃度を変える表示例1と、グラデーションを変える表示例2と、輪郭線が変形する表示例3とをそれぞれ示している。図10は、GUIとして、ヘッドホンの図形を模式的に表示している。進捗割合が高くなるほど、特性値が大きくなり、進捗割合が100%となると特性値と基準値が一致する。
 表示例1では、進捗割合が高くなるほど、徐々に濃くなっていく。表示例2では、進捗割合が高くなっていくと、イラスト上のグラデーションの変わり目が下から上方向に変化する。表示例3では、進捗割合が低いとイラストの輪郭(点線)の解像度が粗く表示される。進捗割合が高くなっていくと、輪郭線の解像度が上がり、ヘッドホンのイラストが現れる。進捗割合が100%になると、輪郭線が実線になる。
 このように、表示を変えていくことで、ユーザUが、進捗割合を視覚的に認識することができる。よって、ユーザUがヘッドホン43を適切かつ速やかに装着することができる。もちろん、進捗割合を示す表示例は、図10に示す表示例1~3に限られるものではなく、色、大きさ、形状、太さ、濃淡などの一つ以上を変えて、新着割合を示してもよい。
 また、図10の表示例1~3をリアルタイムで更新することで、ユーザがヘッドホン43の調整が適切であるか否かを認識することができる。すなわち、進捗割合が100%に近づくように、表示が変わっていれば、ユーザUは、ヘッドホン43が適切な方向に調整されていることを認識することができる。例えば、サンプル長が1024サンプルとし、サンプリング周波数FS=48kHzとすると、1フレームが(1024/48000)secとなる。そして、フレーム毎に進捗割合を求めて、表示部231が表示をフレーム毎に更新する。これにより、進捗割合の変化をユーザUが直感的に認識することができる。
 上記処理のうちの一部又は全部は、コンピュータプログラムによって実行されてもよい。上述したプログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD-ROM(Read Only Memory)、CD-R、CD-R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(Random Access Memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
 以上、本発明者によってなされた発明を実施の形態に基づき具体的に説明したが、本発明は上記実施の形態に限られたものではなく、その要旨を逸脱しない範囲で種々変更可能であることは言うまでもない。
 この出願は、2017年9月26日に出願された日本出願特願2017-184622を基礎とする優先権を主張し、その開示の全てをここに取り込む。
 本開示は、頭外定位処理技術に適用可能である。
 U ユーザ
 2 マイクユニット
 2L 左マイク
 2R 右マイク
 9L 左耳
 9R 右耳
 10 頭外定位処理部
 11 畳み込み演算部
 12 畳み込み演算部
 21 畳み込み演算部
 22 畳み込み演算部
 24 加算器
 25 加算器
 41 フィルタ部
 42 フィルタ部
 43 ヘッドホン
 43L 左ユニット
 43R 右ユニット
 200 測定装置
 201 信号処理装置
 211 メモリ
 212 CPU
 220 測定部
 221 測定信号生成部
 222 収音信号取得部
 223 信号解析部
 224 装着状態判定部
 225 基準値設定部
 226 左右比較部
 230 GUI
 231 表示部
 232 入力操作部

Claims (5)

  1.  第1の測定信号を生成して、ヘッドホン又はイヤホンに出力する測定信号生成部と、
     マイクが前記第1の測定信号を収音した第1の収音信号を取得する収音信号取得部と、
     前記第1の収音信号の周波数特性を算出する信号解析部と、
     所定の帯域における前記周波数特性の特性値を基準値と比較することによって、前記ヘッドホン又はイヤホンの装着状態を判定する装着状態判定部と、
     前記基準値に対する前記特性値の割合に応じた段階的な前記判定の結果を出力する出力部と、を備えた信号処理装置。
  2.  前記装着状態判定部において装着状態が良好と判定された場合に、前記測定信号生成部は、第2の測定信号を生成し、
     前記マイクが第2の測定信号を収音した第2の収音信号を前記収音信号取得部が取得し、
     前記第2の収音信号に基づいて、前記ヘッドホン又はイヤホンを用いて頭外定位処理を行うためのフィルタを生成する請求項1に記載の信号処理装置。
  3.  前記測定信号生成部が、第3の測定信号を生成し、
     ヘッドホン又はイヤホンをかけ直す毎に、前記マイクが第3の測定信号を収音した第3の収音信号を前記収音信号取得部が取得することで、複数の前記第3の収音信号が取得され、
     前記複数の第3の収音信号に基づいて前記基準値が設定される請求項1、又は2に記載の信号処理装置。
  4.  第1の測定信号を生成して、ヘッドホン又はイヤホンに出力するステップと、
     マイクが前記第1の測定信号を収音した第1の収音信号を取得するステップと、
     前記第1の収音信号の周波数特性を算出するステップと、
     所定の帯域における前記周波数特性の特性値を基準値と比較することによって、前記ヘッドホン又はイヤホンの装着状態を判定するステップと、
     前記基準値に対する前記特性値の割合に応じた段階的な前記判定の結果を出力するステップと、を含む信号処理方法。
  5.  コンピュータに、
     第1の測定信号を生成して、ヘッドホン又はイヤホンに出力するステップと、
     マイクが前記第1の測定信号を収音した第1の収音信号を取得するステップと、
     前記第1の収音信号の周波数特性を算出するステップと、
     所定の帯域における前記周波数特性の特性値を基準値と比較することによって、前記ヘッドホン又はイヤホンの装着状態を判定するステップと、
     前記基準値に対する前記特性値の割合に応じた段階的な前記判定の結果を出力するステップと、を実行させることを特徴とするプログラム。
PCT/JP2018/034548 2017-09-26 2018-09-19 信号処理装置、信号処理方法、及びプログラム WO2019065382A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/816,765 US11115743B2 (en) 2017-09-26 2020-03-12 Signal processing device, signal processing method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-184622 2017-09-26
JP2017184622A JP6922603B2 (ja) 2017-09-26 2017-09-26 信号処理装置、信号処理方法、及びプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/816,765 Continuation US11115743B2 (en) 2017-09-26 2020-03-12 Signal processing device, signal processing method, and program

Publications (1)

Publication Number Publication Date
WO2019065382A1 true WO2019065382A1 (ja) 2019-04-04

Family

ID=65903760

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/034548 WO2019065382A1 (ja) 2017-09-26 2018-09-19 信号処理装置、信号処理方法、及びプログラム

Country Status (3)

Country Link
US (1) US11115743B2 (ja)
JP (1) JP6922603B2 (ja)
WO (1) WO2019065382A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102643055B1 (ko) * 2019-07-30 2024-03-05 삼성전자주식회사 헤드셋 전자 장치 및 그와 연결되는 전자 장치
JP7439502B2 (ja) * 2019-12-23 2024-02-28 株式会社Jvcケンウッド 処理装置、処理方法、フィルタ生成方法、再生方法、及びプログラム
WO2022004787A1 (ja) * 2020-06-30 2022-01-06 フォスター電機株式会社 ヘッドセット
WO2022010453A1 (en) * 2020-07-06 2022-01-13 Hewlett-Packard Development Company, L.P. Cancellation of spatial processing in headphones
WO2022155391A1 (en) * 2021-01-13 2022-07-21 Barnacka Anna System and method for noninvasive sleep monitoring and reporting
CN113132885B (zh) * 2021-04-16 2022-10-04 深圳木芯科技有限公司 基于双麦克风能量差异判别耳机佩戴状态的方法
WO2024089804A1 (ja) * 2022-10-26 2024-05-02 日本電信電話株式会社 位置推定装置、位置推定方法、およびプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009207053A (ja) * 2008-02-29 2009-09-10 Victor Co Of Japan Ltd ヘッドホン,ヘッドホンシステム,及びヘッドホンが接続された情報再生装置の電源制御方法
JP2009232423A (ja) * 2008-03-25 2009-10-08 Panasonic Corp 音響出力装置、携帯端末装置および耳装着判定方法
JP2014187413A (ja) * 2013-03-21 2014-10-02 Casio Comput Co Ltd 音響機器並びにプログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4469898B2 (ja) 2008-02-15 2010-06-02 株式会社東芝 外耳道共鳴補正装置
US9107011B2 (en) * 2013-07-03 2015-08-11 Sonetics Holdings, Inc. Headset with fit detection system
EP2953383B1 (en) * 2014-06-06 2019-08-07 Nxp B.V. Signal processing circuit

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009207053A (ja) * 2008-02-29 2009-09-10 Victor Co Of Japan Ltd ヘッドホン,ヘッドホンシステム,及びヘッドホンが接続された情報再生装置の電源制御方法
JP2009232423A (ja) * 2008-03-25 2009-10-08 Panasonic Corp 音響出力装置、携帯端末装置および耳装着判定方法
JP2014187413A (ja) * 2013-03-21 2014-10-02 Casio Comput Co Ltd 音響機器並びにプログラム

Also Published As

Publication number Publication date
JP2019062342A (ja) 2019-04-18
JP6922603B2 (ja) 2021-08-18
US11115743B2 (en) 2021-09-07
US20200213702A1 (en) 2020-07-02

Similar Documents

Publication Publication Date Title
US11115743B2 (en) Signal processing device, signal processing method, and program
CN104254049B (zh) 头戴式耳机响应测量和均衡
US10555108B2 (en) Filter generation device, method for generating filter, and program
US10264387B2 (en) Out-of-head localization processing apparatus and out-of-head localization processing method
JP6511999B2 (ja) 頭外定位フィルタ生成装置、頭外定位フィルタ生成方法、頭外定位処理装置、及び頭外定位処理方法
CN110268722B (zh) 滤波器生成装置以及滤波器生成方法
JP6981330B2 (ja) 頭外定位処理装置、頭外定位処理方法、及びプログラム
JP2018137549A (ja) 頭外定位処理装置、頭外定位処理方法、及び頭外定位処理プログラム
JP6805879B2 (ja) フィルタ生成装置、フィルタ生成方法、及びプログラム
JP7115353B2 (ja) 処理装置、処理方法、再生方法、及びプログラム
US11997468B2 (en) Processing device, processing method, reproducing method, and program
JP7439502B2 (ja) 処理装置、処理方法、フィルタ生成方法、再生方法、及びプログラム
US20230114777A1 (en) Filter generation device and filter generation method
JP2023024038A (ja) 処理装置、及び処理方法
JP2023047707A (ja) フィルタ生成装置、及びフィルタ生成方法
JP2023047706A (ja) フィルタ生成装置、及びフィルタ生成方法
JP2023024040A (ja) 処理装置、及び処理方法
JP6295988B2 (ja) 音場再生装置、音場再生方法、音場再生プログラム
JP2023024039A (ja) 処理装置、及び処理方法
JP2024036908A (ja) 頭外定位処理装置、頭外定位処理方法、及びプログラム
JP2020048147A (ja) 処理装置、処理方法、再生方法、及びプログラム
JP2019061108A (ja) 信号処理装置、信号処理方法、及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18861287

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18861287

Country of ref document: EP

Kind code of ref document: A1