WO2020036077A1 - 信号処理装置、信号処理方法、およびプログラム - Google Patents

信号処理装置、信号処理方法、およびプログラム Download PDF

Info

Publication number
WO2020036077A1
WO2020036077A1 PCT/JP2019/030413 JP2019030413W WO2020036077A1 WO 2020036077 A1 WO2020036077 A1 WO 2020036077A1 JP 2019030413 W JP2019030413 W JP 2019030413W WO 2020036077 A1 WO2020036077 A1 WO 2020036077A1
Authority
WO
WIPO (PCT)
Prior art keywords
head
band
transfer function
related transfer
signal processing
Prior art date
Application number
PCT/JP2019/030413
Other languages
English (en)
French (fr)
Inventor
広則 佐藤
亨 中川
哲 曲谷地
越 沖本
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to CN201980052823.XA priority Critical patent/CN112567766B/zh
Priority to US17/250,603 priority patent/US11743671B2/en
Priority to JP2020537414A priority patent/JP7384162B2/ja
Priority to DE112019004139.8T priority patent/DE112019004139T5/de
Publication of WO2020036077A1 publication Critical patent/WO2020036077A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S1/00Two-channel systems
    • H04S1/002Non-adaptive circuits, e.g. manually adjustable or static, for enhancing the sound image or the spatial distribution
    • H04S1/005For headphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • H04S7/303Tracking of listener position or orientation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K15/00Acoustics not otherwise provided for
    • G10K15/08Arrangements for producing a reverberation or echo sound
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/02Spatial or constructional arrangements of loudspeakers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S1/00Two-channel systems
    • H04S1/002Non-adaptive circuits, e.g. manually adjustable or static, for enhancing the sound image or the spatial distribution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S1/00Two-channel systems
    • H04S1/007Two-channel systems in which the audio signals are in digital form
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/01Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]

Definitions

  • the present disclosure relates to a signal processing device, a signal processing method, and a program, and particularly to a signal processing device, a signal processing method, and a program that can easily realize personalization of a head-related transfer function.
  • HRTF head-related transfer function
  • Patent Document 1 discloses a portable terminal that reproduces stereophonic sound using HRTF measured using a dummy head.
  • the HRTF of the listener itself can be measured using, for example, a smartphone as a sound source, personalization of the HRTF can be easily realized without using a large-scale facility.
  • the HRTF with sufficient characteristics could not be measured because the speaker of the smartphone has a narrow reproduction band.
  • the present disclosure has been made in view of such a situation, and is intended to easily realize personalization of a head-related transfer function in all bands.
  • the signal processing device is configured such that a characteristic of a first band extracted from a first head-related transfer function of a user and a second measurement environment different from a first measurement environment in which the first head-related transfer function is measured.
  • a combining unit that combines a characteristic of a second band other than the first band extracted from the second head-related transfer function measured in the measurement environment of the second environment to generate a third head-related transfer function It is a signal processing device provided with.
  • a characteristic of a first band extracted from a first head-related transfer function of a user and a second measurement environment different from a first measurement environment in which the first head-related transfer function is measured is measured.
  • Signal processing for generating a third head-related transfer function by combining a characteristic of a second band other than the first band extracted from the second head-related transfer function measured in the measurement environment of FIG. Is the way.
  • a program provides, to a computer, a characteristic of a first band extracted from a first head related transfer function of a user and a first measurement environment different from a first measurement environment in which the first head related transfer function is measured. Generating a third head related transfer function by combining characteristics of a second band other than the first band extracted from the second head related transfer function measured in the second measurement environment Is a program for executing.
  • the characteristics of the first band extracted from the first head-related transfer function of the user and the second measurement environment different from the first measurement environment in which the first head-related transfer function is measured The third head-related transfer function is generated by combining the characteristics of the second band other than the first band extracted from the second head-related transfer function measured in step (b).
  • FIG. 1 is a block diagram illustrating a configuration example of a mobile terminal to which the technology according to the present disclosure is applied.
  • FIG. 3 is a block diagram illustrating a functional configuration example of a mobile terminal. It is a flowchart explaining the generation process of a head related transfer function.
  • FIG. 2 is a block diagram illustrating a configuration example of a mobile terminal according to the first embodiment. It is a flowchart explaining the generation process of a head related transfer function. It is a figure explaining measurement of a head related transfer function about a plurality of channels. It is a figure explaining band extraction of a head related transfer function. It is a figure explaining addition of a reverberation component.
  • FIG. 7 is a diagram for describing correction of characteristics when using an NC microphone.
  • FIG. 3 is a diagram illustrating a configuration example of an output unit.
  • FIG. 9 is a diagram for explaining a change in frequency characteristics. It is a block diagram showing an example of composition of a personal digital assistant of a 2nd embodiment. It is a flowchart explaining the generation process of a head related transfer function. It is a figure explaining estimation of a head-related transfer function of a horizontal direction.
  • FIG. 7 is a diagram illustrating an example of frequency characteristics of an estimation filter. It is a flowchart explaining the generation process of a head related transfer function. It is a figure explaining measurement of a head-related transfer function of a median plane and a sagittal plane.
  • FIG. 18 is a block diagram illustrating a configuration example of a computer.
  • the mobile terminal 1 shown in FIG. 1 is configured as, for example, a mobile phone such as a so-called smartphone.
  • the mobile terminal 1 includes the control unit 11.
  • the control unit 11 controls the operation of each unit in the mobile terminal 1.
  • the control unit 11 exchanges data with each unit in the mobile terminal 1 via the control line 28.
  • the mobile terminal 1 includes a communication unit 12 that performs wireless communication required as a communication terminal.
  • An antenna 13 is connected to the communication unit 12.
  • the communication unit 12 performs wireless communication with a base station for wireless communication, and performs bidirectional data transmission with the base station.
  • the communication unit 12 transmits data received from the base station side to each unit in the mobile terminal 1 via the data line 29. In addition, data transmitted from each unit in the mobile terminal 1 via the data line 29 is transmitted to the base station side.
  • the memory 14 the display unit 15, the audio processing unit 17, and the stereophonic processing unit 21 are connected to the data line 29.
  • the memory 14 stores programs necessary for operating the mobile terminal 1 and various data stored by the user.
  • the memory 14 also stores audio signals such as music data obtained by downloading or the like.
  • the display unit 15 includes a liquid crystal display, an organic EL display, and the like, and displays various information under the control of the control unit 11.
  • the operation unit 16 includes a touch panel integrally formed with a display constituting the display unit 15, a physical button provided on a housing of the mobile terminal 1, and the like. On the display unit 15 as a touch panel (operation unit 16), buttons representing dial keys such as numbers and symbols and various function keys are displayed. Operation information of each button is supplied to the control unit 11.
  • the audio processing unit 17 is a processing unit that processes an audio signal, and is connected to a speaker 18 and a microphone 19.
  • the speaker 18 and the microphone 19 function as a receiver during a call.
  • the audio data supplied from the communication unit 12 to the audio processing unit 17 is demodulated by the audio processing unit 17 to become an analog audio signal, subjected to analog processing such as amplification, and emitted from the speaker 18. Further, the audio signal of the audio collected by the microphone 19 is modulated into digital audio data by the audio processing unit 17, and the modulated audio data is supplied to the communication unit 12 to perform wireless transmission and the like.
  • audio output as stereophonic sound is supplied to the stereophonic processing unit 21 and processed.
  • the stereophonic processing unit 21 generates a two-channel audio signal for reproducing binaural stereophonic sound.
  • the audio signal processed by the stereophonic processing unit 21 is supplied from the audio processing unit 17, read out from the memory 14 or the like and supplied through the data line 29, or audio data received by the communication unit 12. It may be supplied via the data line 29 or the like.
  • the audio signal generated by the stereophonic processing unit 21 is output from two speakers 22L and 22R for the left and right channels built in the main body of the mobile terminal 1 or output from headphones (not shown) connected to the output terminal 23. Or be done.
  • the speakers 22L and 22R are relatively small speaker units built into the main body of the portable terminal 1 and are of such a size that the listeners around the main body of the portable terminal 1 can hear the reproduced sound. This is a speaker that amplifies and outputs.
  • the headphone When an audio signal is output from a headphone (not shown), the headphone is directly connected to the output terminal 23 by wire, and the audio signal is transmitted to the headphone by wireless communication using a method such as Bluetooth (registered trademark). May be supplied.
  • a method such as Bluetooth (registered trademark). May be supplied.
  • FIG. 2 is a block diagram showing an example of a functional configuration of the portable terminal 1 described above.
  • the mobile terminal 1 in FIG. 2 includes a measurement unit 51, a band extraction unit 52, an HRTF database 53, a band extraction unit 54, a synthesis unit 55, a voice input unit 56, and an output unit 57.
  • the measuring unit 51 measures a head-related transfer function (HRTF) of a user who handles the mobile terminal 1. For example, the measurement unit 51 acquires a head-related transfer function based on a sound source that reproduces a measurement sound wave such as an impulse signal arranged in one or a plurality of directions with respect to the user.
  • HRTF head-related transfer function
  • the sound source for reproducing the measurement sound wave may be a device having at least one speaker, and the speaker need not necessarily have a wide reproduction band.
  • the sound source for reproducing the measurement sound wave can be the speaker 18 of the mobile terminal 1.
  • the user arranges the mobile terminal 1 in a predetermined direction, and causes the microphones (not shown) mounted on the left and right ears of the user to collect the measurement sound waves from the speaker 18.
  • the measurement unit 51 acquires the head-related transfer function Hm of the user based on the audio signal from the microphone supplied by the predetermined unit.
  • the band extracting unit 52 extracts the characteristics of the first band from the head-related transfer function Hm measured by the measuring unit 51.
  • the extracted head-related transfer function Hm of the first band is supplied to the synthesis unit 55.
  • the HRTF database 53 holds the head-related transfer function Hp measured in a measurement environment different from the current measurement environment in which the head-related transfer function Hm is measured.
  • the head-related transfer function Hp is different from, for example, the head-related transfer function Hm actually measured using the speaker 18 of the portable terminal 1 arranged by the user, and is preset data measured in advance.
  • the head-related transfer function Hp is, for example, a head-related transfer function measured in an ideal measurement environment including facilities such as an anechoic chamber and a large speaker for a person or dummy head having an average-shaped head or ears. It is said.
  • the band extracting unit 54 extracts the characteristics of the second band other than the first band from the head related transfer function Hp held in the HRTF database 53.
  • the extracted head-related transfer function Hp of the second band is supplied to the synthesis unit 55.
  • the synthesizing unit 55 synthesizes the head-related transfer function Hm of the first band from the band extracting unit 52 and the head-related transfer function Hp of the second band from the band extracting unit 54 to obtain the head of the entire band.
  • a partial transfer function H is generated. That is, the head-related transfer function H is a head-related transfer function having the frequency characteristic of the head-related transfer function Hm for the first band and the frequency characteristic of the head-related transfer function Hp for the second band.
  • the generated head related transfer function H is supplied to the output unit 57.
  • the audio input unit 56 inputs an audio signal that is a source of stereophonic sound to be reproduced to the output unit 57.
  • the output unit 57 convolves the head-related transfer function H from the synthesizing unit 55 with the audio signal input from the audio input unit 56 and outputs the convolved audio signal as a two-channel audio signal.
  • the audio signal output from the output unit 57 is an audio signal for reproducing binaural stereophonic sound.
  • step S1 the measurement unit 51 measures the head-related transfer function Hm by using the smartphone (mobile terminal 1) as a sound source.
  • the band extracting unit 52 extracts the characteristics of the first band from the measured head related transfer function Hm.
  • the first band may be a band from a predetermined first frequency f1 to a second frequency f2 higher than the frequency f1, or may simply be a band higher than the frequency f1.
  • the first band is a band in which characteristics depending on individuals tend to appear.
  • the band extracting unit 54 extracts the characteristic of the second band from the preset head-related transfer function Hp held in the HRTF database 53.
  • the second band may be a band including a band lower than the frequency f1 and a band higher than the frequency f2, or may simply be a band including a band lower than the frequency f1.
  • the second band is, for example, a band in which characteristics depending on individuals are unlikely to appear and the smartphone cannot reproduce.
  • step S4 the synthesizing unit 55 generates the head-related transfer function H by synthesizing the extracted head-related transfer function Hm of the first band and the head-related transfer function Hp of the second band.
  • the characteristic of the band in which the characteristic depending on the individual is likely to be extracted is extracted, and from the preset head-related transfer function, the characteristic dependent on the individual is unlikely to appear,
  • the characteristics of the band that the smartphone cannot reproduce are extracted. Therefore, even when measuring the user's head-related transfer function using a smartphone having a narrow reproduction band as a sound source, it is possible to obtain a head-related transfer function with sufficient characteristics, and without using a large-scale facility, Personalization of the head related transfer function in the band can be easily realized.
  • FIG. 4 is a diagram illustrating a configuration example of the mobile terminal 1 according to the first embodiment of the present disclosure.
  • the mobile terminal 1 in FIG. 4 includes a bandpass filter 111, a correction unit 112, and an equalizer 113. Further, the mobile terminal 1 includes a reverberation component separation unit 121, a high-pass filter 131, an equalizer 132, a band-pass filter 141, an equalizer 142, a low-pass filter 151, an equalizer 152, a synthesis unit 161, and a reverberation component addition unit 162.
  • the bandpass filter 111 extracts mid-range characteristics from the measured head related transfer function Hm.
  • the middle band is a band from a predetermined first frequency f1 to a second frequency f2 higher than the frequency f1.
  • the extracted head-related transfer function Hm in the middle range is supplied to the correction unit 112.
  • the correction unit 112 corrects the head-related transfer function Hm using the inverse characteristic of the speaker 18 of the portable terminal 1 so as to remove the characteristic of the speaker 18 included in the head-related transfer function Hm.
  • the reverse characteristic of the speaker 18 is preset data measured in advance, and shows different characteristics for each model of the mobile terminal 1.
  • the head-related transfer function Hm in the middle range from which the characteristics of the speaker 18 have been removed is supplied to the equalizer 113.
  • the equalizer 113 adjusts the frequency characteristics of the head-related transfer function Hm in the middle band, and outputs the result to the synthesis unit 161.
  • the reverberation component separation unit 121 separates a direct component from a reverberation component in a head impulse response in which a head-related transfer function Hp, which is preset data, is represented in a time domain.
  • the separated reverberation component is supplied to the reverberation component adding section 162.
  • the head-related transfer function Hp corresponding to the separated direct component is supplied to each of the high-pass filter 131, the band-pass filter 141, and the low-pass filter 151.
  • the high-pass filter 131 extracts high-frequency characteristics from the head-related transfer function Hp.
  • the high band is a band higher than the frequency f2 described above.
  • the extracted high-frequency head-related transfer function Hp is supplied to the equalizer 132.
  • the equalizer 132 adjusts the frequency characteristic of the head-related transfer function Hp in the high frequency range, and outputs the result to the synthesizing unit 161.
  • the bandpass filter 141 extracts mid-range characteristics from the head-related transfer function Hp.
  • the extracted mid-range head-related transfer function Hp is supplied to the equalizer 142.
  • the equalizer 142 adjusts the frequency characteristic of the head-related transfer function Hp in the middle band, and outputs the result to the synthesizing unit 161. At this time, a process of setting the gain to 0 or substantially 0 may be performed on the head-related transfer function Hp in the middle range.
  • the low-pass filter 151 extracts low-frequency characteristics from the head-related transfer function Hp.
  • the low band is a band lower than the frequency f1 described above.
  • the extracted low-frequency head-related transfer function Hm is supplied to the equalizer 152.
  • the equalizer 152 adjusts the frequency characteristics of the low-frequency head-related transfer function Hp, and outputs the result to the synthesizing unit 161.
  • the combining unit 161 combines the mid-range head-related transfer function Hm from the equalizer 113, the high-frequency head-related transfer function Hp from the equalizer 132, and the low-frequency head-related transfer function Hp from the equalizer 152, and Is generated.
  • the generated head related transfer function H is supplied to the reverberation component adding unit 162.
  • the reverberation component adding unit 162 adds the reverberation component from the reverberation component separation unit 121 to the head-related transfer function H from the synthesis unit 161.
  • the head related transfer function H to which the reverberation component is added is used for convolution in the output unit 57.
  • FIG. 5 is a flowchart illustrating a process of generating a head-related transfer function by the mobile terminal 1 in FIG.
  • step S11 the measurement unit 51 (FIG. 2) measures the head-related transfer functions Hm for a plurality of channels by using the smartphone (mobile terminal 1) as a sound source. Thereby, virtual sound sources corresponding to the number of channels for which the head related transfer functions have been measured can be localized.
  • the user U measures the head-related transfer function in a state where the user U holds the smartphone SP in his or her left and right oblique front and extends his arm.
  • the virtual sound sources VS1 and VS2 can be localized to the left and right of the user U, respectively.
  • the head-related transfer function was measured in a state where the user U held the smartphone SP in the front, left and right diagonally forward, and left and right sides and extended his arms, respectively.
  • the virtual sound sources VS1, VS2, VS3, VS4, and VS5 can be localized in front of the user U, diagonally right and left, and right and left.
  • step S12 the band-pass filter 111 extracts a mid-range characteristic from the measured head-related transfer function Hm. After the characteristics of the speaker 18 are removed by the correction unit 112 from the extracted head-related transfer function Hm in the middle range, the frequency characteristics are adjusted by the equalizer 113.
  • step S13 the high-pass filter 131 and the low-pass filter 151 extract low- and high-frequency characteristics from the preset head-related transfer function Hp stored in the HRTF database 53.
  • the frequency characteristics of the extracted low-frequency head-related transfer function Hp are adjusted by the equalizer 152, and the frequency characteristics of the high-frequency head-related transfer function Hp are adjusted by the equalizer 132.
  • the process of step S13 may be performed in advance.
  • the reverberation component is separated by the reverberation component separation unit 121 from the head impulse response corresponding to the preset head related transfer function Hp.
  • the separated reverberation component is supplied to the reverberation component adding section 162.
  • step S14 the synthesizing unit 161 generates the head-related transfer function H by synthesizing the extracted low-frequency head-related transfer function Hm and the low-frequency / high-frequency head-related transfer function Hp.
  • FIGS. 7A and 7B are diagrams illustrating frequency characteristics of an actually measured head-related transfer function Hm and a preset head-related transfer function Hp, respectively.
  • the characteristic of the band surrounded by the broken line frame FM is the characteristic of the middle band extracted from the head-related transfer function Hm by the band-pass filter 111.
  • the middle band is, for example, a band from 1 kHz to 12 kHz.
  • the characteristic of the band surrounded by the broken line frame FL is a low-frequency characteristic extracted from the head-related transfer function Hp by the low-pass filter 151.
  • the low band is, for example, a band lower than 1 kHz.
  • the characteristics of the band surrounded by the broken line frame FH are the high-frequency characteristics extracted from the head-related transfer function Hp by the high-pass filter 131.
  • the high band is, for example, a band higher than 12 kHz.
  • the head-related transfer function Hm in the band from 1 kHz to 12 kHz and the head-related transfer function Hp in the band lower than 1 kHz and the band higher than 12 kHz are combined in this manner, so that the head-related transfer function in the whole band is obtained.
  • a function H is generated.
  • step S15 the reverberation component addition unit 162 adds the reverberation component from the reverberation component separation unit 121 to the head-related transfer function H from the synthesis unit 161.
  • AA and B in FIG. 8 are head impulse responses in which the measured head-related transfer function Hm and the preset head-related transfer function Hp are expressed in the time domain, respectively.
  • the waveform surrounded by the broken line frame FD is the direct component of the head impulse response Im corresponding to the actually measured head related transfer function Hm.
  • the waveform surrounded by the broken line frame FR is the reverberation component of the head impulse response Ip corresponding to the preset head related transfer function Hp.
  • the reverberation component of the measured head impulse response Im has a smaller waveform amplitude than the preset head impulse response Ip.
  • the magnitude relationship between the amplitudes of these waveforms differs depending on the measurement environment using the speaker of the smartphone.
  • the reverberation component of the actually measured head impulse response Im is different from the preset head impulse response Ip in that the waveform amplitude is It can be large.
  • the reverberation component adding unit 162 adds the reverberation component separated from the head impulse response Ip to the head-related transfer function H from the synthesis unit 161.
  • the head related transfer function H to which the reverberation component is added is used for convolution in the output unit 57.
  • the reverberation component of the head impulse response does not depend on the individual, even if a preset head impulse response is added to the actually measured head impulse response, personalization of the head transfer function can be realized.
  • the reverberation characteristic of the pre-set head impulse response may cause a virtual speaker such as a speaker installed several meters away. Control of a sense of distance such as localization of a sound source can be realized.
  • N microphone Noise canceling microphone
  • FIG. 9 shows a head-related transfer function Hd measured using a microphone and a speaker dedicated to measurement in an ideal measurement environment for the same listener, and a head-related transfer function measured using an NC microphone and a speaker of a smartphone. It is a figure which shows the characteristic of Hn.
  • the reason why the gain of the head related transfer function Hn is small in a band lower than 1 kHz is because the gain of the speaker of the smartphone in the band is small.
  • the head-related transfer function Hd and the head-related transfer function Hn And a difference may occur.
  • FIG. 10 is a diagram showing a configuration example of the output unit 57 (FIG. 2).
  • the output unit 57 is provided with FIR (Finite Impulse Response) filters 181L and 181R.
  • FIR Finite Impulse Response
  • the FIR filter 181L convolves the head-related transfer function HL for the left ear of the head-related transfer function H from the synthesizing unit 55 with the audio signal from the audio input unit 56 (FIG. 2), and An audio signal SL is output.
  • the FIR filter 181 ⁇ / b> R convolves the sound signal from the sound input unit 56 with the head transfer function HR for the right ear of the head transfer function H from the synthesis unit 55, thereby obtaining the sound for the right ear.
  • the signal SR is output.
  • the configurations shown in FIG. 10 are provided for the number of virtual sound sources to be localized, and the audio signals SL and SR from each configuration are added, synthesized, and output.
  • the frequency characteristics can be changed while maintaining the phase characteristics. For example, as shown in FIG. 11, by applying FIR filters 181L and 181R to one impulse response 190, the frequency characteristics can be changed to characteristics 191 or 192.
  • FIG. 12 is a diagram illustrating a configuration example of the mobile terminal 1 according to the second embodiment of the technology of the present disclosure.
  • the mobile terminal 1 in FIG. 12 has the same configuration as the mobile terminal 1 in FIG. 4 except that an estimating unit 211 and an equalizer 212 are provided in a stage preceding the bandpass filter 111.
  • the estimation unit 211 estimates a head-related transfer function in another direction from the measured head-related transfer function Hm in a predetermined direction.
  • the measured head-related transfer function and the estimated head-related transfer function are supplied to the equalizer 212.
  • the equalizer 212 adjusts the frequency characteristics of the head-related transfer function from the estimation unit 211 and outputs the result to the bandpass filter 111.
  • FIG. 13 is a flowchart illustrating a process of generating a head-related transfer function by the mobile terminal 1 in FIG.
  • step S21 the measurement unit 51 (FIG. 2) measures the head-related transfer function Hm in the front direction of the user by using the smartphone (the portable terminal 1) as a sound source.
  • the head-related transfer function Hm is measured in a state where the user holds the mobile terminal 1 in front and extends his / her arm.
  • step S22 the estimation unit 211 estimates the head-related transfer function of the user in the left-right direction from the measured head-related transfer function Hm in the front direction.
  • the head-related transfer functions of the left and right ears measured by placing the smartphone SP in the front direction of the user U are defined as CL and CR.
  • LL, LR, RL, RR are estimated by classifying into the sunshine side characteristics and the shade side characteristics according to the distance between the user U and the speaker of the smartphone SP. Specifically, since LL and RR are characteristics on the side closer to the user U (sunny side) when viewed from the speaker, they are classified as sunny side characteristics. Further, since LR and RL are characteristics on the side of the speaker (shade side) viewed from the user U when viewed from the speaker, they are classified as shade side characteristics.
  • the gain from the middle range to the high range is larger than the characteristic obtained by the measurement in the front direction.
  • a binaural time difference occurs due to a difference in the distance from the speaker to the left and right ears.
  • FIG. 15 is a diagram illustrating frequency characteristics of an estimation filter that realizes the correction of the above two items with respect to the characteristics CL and CR in the front direction.
  • ⁇ Circle around (A) ⁇ of FIG. 15 shows a sunshine side estimation filter for estimating the sunshine side characteristic.
  • the gain increases from the middle band to the high band.
  • FIG. 15B shows a shade side estimation filter for estimating the shade side characteristics.
  • the gain is greatly attenuated from the middle band to the high band.
  • the sun-side characteristics LL and RR are estimated as follows.
  • the shade side characteristics RL and LR are estimated as follows.
  • the head-related transfer function in the left-right direction estimated as described above is subjected to frequency characteristic adjustment by the equalizer 212 together with the head-related transfer function in the front direction.
  • preset characteristics prepared in advance may be used.
  • step S23 the bandpass filter 111 extracts mid-range characteristics from the measured / estimated head related transfer functions. After the characteristic of the speaker 18 is removed by the correction unit 112 from the extracted head-related transfer function in the middle range, the frequency characteristic is adjusted by the equalizer 113.
  • step S24 is the same as the processing after step S13 in the flowchart of FIG. 5, and a description thereof will be omitted.
  • the head-related transfer function in the left-right direction is estimated from the head-related transfer function in the front direction of the user, the localization of a plurality of virtual sound sources is performed only by measuring the head-related transfer function once. It is possible to realize personalization of the head-related transfer function to be performed.
  • FIG. 16 is a flowchart illustrating another example of the process of generating the head-related transfer function by the mobile terminal 1 in FIG.
  • step S31 the measurement unit 51 (FIG. 2) measures the head-related transfer function for the median plane of the user by using the smartphone (mobile terminal 1) as a sound source.
  • the user U places the smartphone SP in the median plane 351 to measure the head-related transfer function.
  • the head-related transfer functions in the three directions of the front, obliquely upward, and obliquely downward of the user in the median plane 351 are measured.
  • step S32 the estimating unit 211 estimates the head-related transfer functions of the left and right sagittal planes of the user from the measured head-related transfer functions of the median plane.
  • a head-related transfer function for a sagittal plane 352L parallel to the median plane 351 on the left side of the user U and a median plane 351 on the right side of the user U Is estimated for a sagittal plane 352R parallel to.
  • the estimation of the head-related transfer function here is performed, for example, by using the above-described sunshine-side estimation filter and shade-side for each of the head-related transfer functions in the median plane 351 in the three directions of front, obliquely upward, and obliquely downward. This is realized by performing correction using an estimation filter.
  • the frequency characteristic of the estimated sagittal head-related transfer function is adjusted by the equalizer 212 together with the median plane head-related transfer function.
  • step S33 is the same as the processing after step S23 in the flowchart of FIG. 13, and a description thereof will be omitted.
  • the head-related transfer function in any direction around the user since the head-related transfer function in any direction around the user is estimated, personalization of the head-related transfer function for localizing the virtual sound source in the direction desired by the user can be realized. it can.
  • the sound source for reproducing the measurement sound wave is a smartphone having a speaker, but may be another device.
  • the sound source for reproducing the measurement sound wave may be a television receiver having a speaker and a display.
  • a television receiver can reproduce only up to a band of about 200 Hz at most, and does not have a wide reproduction band like a smartphone.
  • a head-related transfer function of a user is measured using a television receiver having a narrow reproduction band as a sound source, a head-related transfer function with sufficient characteristics can be acquired.
  • the signal processing device to which the technology according to the present disclosure is applied can have a configuration of cloud computing in which one function is shared by a plurality of devices via a network and processed jointly.
  • each step described in the above-described flowchart can be executed by a single device, or can be shared and executed by a plurality of devices.
  • one step includes a plurality of processes
  • the plurality of processes included in the one step can be executed by one device or can be shared and executed by a plurality of devices.
  • the HRTF database 53 of FIG. 2 may be provided in a server or the like (so-called cloud) connected via a network such as the Internet.
  • the mobile terminal 1 of FIG. 2 may be provided in the cloud.
  • the mobile terminal 1 has a configuration in which the audio signal of the collected measurement sound wave is transmitted to the cloud, and the audio signal for reproducing the stereophonic sound from the cloud is only received and reproduced.
  • FIG. 18 is a block diagram illustrating a configuration example of hardware of a computer that executes the series of processes described above by a program.
  • the mobile terminal 1 described above is realized by a computer having the configuration shown in FIG.
  • the CPU 1001, the ROM 1002, and the RAM 1003 are interconnected by a bus 1004.
  • the input / output interface 1005 is further connected to the bus 1004.
  • the input / output interface 1005 is connected to an input unit 1006 including a keyboard and a mouse, and an output unit 1007 including a display and a speaker.
  • a storage unit 1008 such as a hard disk or a non-volatile memory
  • a communication unit 1009 such as a network interface
  • a drive 1010 for driving the removable medium 1011 are connected to the input / output interface 1005.
  • the CPU 1001 loads, for example, a program stored in the storage unit 1008 into the RAM 1003 via the input / output interface 1005 and the bus 1004 and executes the program. Is performed.
  • the program executed by the CPU 1001 is recorded on, for example, the removable medium 1011 or provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital broadcasting, and is installed in the storage unit 1008.
  • the program executed by the computer may be a program in which processing is performed in chronological order in the order described in this specification, or may be performed in parallel or at a necessary timing such as when a call is made. It may be a program that performs processing.
  • the present disclosure may have the following configurations.
  • a signal processing apparatus comprising: a combining unit that combines a characteristic of a second band other than the first band extracted from the second head-related transfer function with a characteristic of a second band to generate a third head-related transfer function.
  • the first band is a band from a first frequency to a second frequency
  • the signal processing device according to (1), wherein the second band includes a band lower than the first frequency and a band higher than the second frequency.
  • the first band is a band higher than a first frequency
  • the first head related transfer function is data measured using a sound source arranged by the user, The signal processing device according to any one of (1) to (3), wherein the second head-related transfer function is preset data measured in advance in an ideal measurement environment.
  • the signal processing device (8) The signal processing device according to (7), wherein the device further includes a display. (9) The signal processing device according to (8), wherein the device is a smartphone. (10) The signal processing device according to (8), wherein the device is a television receiver. (11) A correction unit configured to correct the characteristic of the first band so as to remove the characteristic of the sound source included in the characteristic of the first band extracted from the first head-related transfer function; The signal processing device according to any one of (10) and (10). (12) (1) Any one of (1) to (11), further including an adding unit that adds a reverberation component separated from a head impulse response corresponding to the second head related transfer function to the third head related transfer function. A signal processing device according to claim 1.
  • the signal processing device The characteristic of the first band extracted from the first head-related transfer function of the user and the second band measured in a second measurement environment different from the first measurement environment in which the first head-related transfer function is measured.
  • On the computer The characteristic of the first band extracted from the first head-related transfer function of the user and the second band measured in a second measurement environment different from the first measurement environment in which the first head-related transfer function is measured.
  • ⁇ 1 ⁇ portable terminal ⁇ 51 ⁇ measuring unit, ⁇ 52 ⁇ band extracting unit, ⁇ 53 ⁇ HRTF database, ⁇ 54 ⁇ band extracting unit, ⁇ 55 ⁇ synthesizing unit, ⁇ 56 ⁇ voice input unit, ⁇ 57 ⁇ output unit

Abstract

本開示は、全帯域における頭部伝達関数の個人化を手軽に実現することができるようにする信号処理装置、信号処理方法、およびプログラムに関する。 合成部は、ユーザの第1の頭部伝達関数から抽出された第1の帯域の特性と、第1の頭部伝達関数が測定される第1の測定環境と異なる第2の測定環境で測定された第2の頭部伝達関数から抽出された第1の帯域以外の第2の帯域の特性とを合成することで、第3の頭部伝達関数を生成する。本開示は、例えば、スマートフォンなどの携帯端末に適用することができる。

Description

信号処理装置、信号処理方法、およびプログラム
 本開示は、信号処理装置、信号処理方法、およびプログラムに関し、特に、手軽に頭部伝達関数の個人化を実現することができるようにした信号処理装置、信号処理方法、およびプログラムに関する。
 音源から耳への音の伝わり方を表現する頭部伝達関数(HRTF:Head-Related Transfer Function)を用いて、ヘッドホンで音像を立体的に再現する技術がある。
 例えば、特許文献1には、ダミーヘッドを用いて測定したHRTFを利用して、立体音響を再生する携帯端末が開示されている。
 しかしながら、HRTFには個人性があるため、ダミーヘッドを用いて測定したHRTFでは正確な音像定位ができなかった。これに対して、リスナ自身のHRTFを測定することで、HRTFを個人化し、精度の高い音像定位を実現できることが知られている。
 ところが、リスナ自身のHRTFを測定する場合、無響室や大型スピーカなどの大規模な設備を用いる必要があった。
特開2009-260574号公報
 そこで、例えばスマートフォンを音源として、リスナ自身のHRTFが測定できれば、大規模な設備を用いることなく、手軽にHRTFの個人化を実現することができる。
 しかしながら、スマートフォンのスピーカは、その再生帯域が狭いため、十分な特性のHRTFを測定することができなかった。
 本開示は、このような状況に鑑みてなされたものであり、全帯域における頭部伝達関数の個人化を手軽に実現することができるようにするものである。
 本開示の信号処理装置は、ユーザの第1の頭部伝達関数から抽出された第1の帯域の特性と、前記第1の頭部伝達関数が測定される第1の測定環境と異なる第2の測定環境で測定された第2の頭部伝達関数から抽出された前記第1の帯域以外の第2の帯域の特性とを合成することで、第3の頭部伝達関数を生成する合成部を備える信号処理装置である。
 本開示の信号処理方法は、ユーザの第1の頭部伝達関数から抽出された第1の帯域の特性と、前記第1の頭部伝達関数が測定される第1の測定環境と異なる第2の測定環境で測定された第2の頭部伝達関数から抽出された前記第1の帯域以外の第2の帯域の特性とを合成することで、第3の頭部伝達関数を生成する信号処理方法である。
 本開示のプログラムは、コンピュータに、ユーザの第1の頭部伝達関数から抽出された第1の帯域の特性と、前記第1の頭部伝達関数が測定される第1の測定環境と異なる第2の測定環境で測定された第2の頭部伝達関数から抽出された前記第1の帯域以外の第2の帯域の特性とを合成することで、第3の頭部伝達関数を生成する処理を実行させるためのプログラムである。
 本開示においては、ユーザの第1の頭部伝達関数から抽出された第1の帯域の特性と、前記第1の頭部伝達関数が測定される第1の測定環境と異なる第2の測定環境で測定された第2の頭部伝達関数から抽出された前記第1の帯域以外の第2の帯域の特性とが合成されることで、第3の頭部伝達関数が生成される。
 本開示によれば、手軽に頭部伝達関数の個人化を実現することが可能となる。
 なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本開示に係る技術を適用した携帯端末の構成例を示すブロック図である。 携帯端末の機能構成例を示すブロック図である。 頭部伝達関数の生成処理について説明するフローチャートである。 第1の実施の形態の携帯端末の構成例を示すブロック図である。 頭部伝達関数の生成処理について説明するフローチャートである。 複数チャンネルについての頭部伝達関数の測定について説明する図である。 頭部伝達関数の帯域抽出について説明する図である。 残響成分の付加について説明する図である。 NCマイクロフォン利用時の特性の補正について説明する図である。 出力部の構成例を示す図である。 周波数特性の変更について説明する図である。 第2の実施の形態の携帯端末の構成例を示すブロック図である。 頭部伝達関数の生成処理について説明するフローチャートである。 左右方向の頭部伝達関数の推定について説明する図である。 推定フィルタの周波数特性の例を示す図である。 頭部伝達関数の生成処理について説明するフローチャートである。 正中面および矢状面の頭部伝達関数の測定について説明する図である。 コンピュータの構成例を示すブロック図である。
 以下、本開示を実施するための形態(以下、実施の形態とする)について説明する。なお、説明は以下の順序で行う。
 1.本開示に係る技術を適用した携帯端末の構成と動作
 2.第1の実施の形態(複数チャンネルについての頭部伝達関数の測定)
 3.第2の実施の形態(正面方向についての頭部伝達関数の測定)
 4.第3の実施の形態(正中面についての頭部伝達関数の測定)
 5.その他
<1.本開示に係る技術を適用した携帯端末の構成と動作>
(携帯端末の構成)
 まず、図1を参照して、本開示に係る技術を適用した信号処理装置としての携帯端末の構成例について説明する。
 図1に示される携帯端末1は、例えば、いわゆるスマートフォンなどの携帯電話機として構成される。
 携帯端末1は、制御部11を備える。制御部11は、携帯端末1内の各部の動作を制御する。制御部11は、制御ライン28を介して、携帯端末1内の各部とデータのやり取りを行う。
 また、携帯端末1は、通信端末として必要な無線通信を行う通信部12を備える。通信部12には、アンテナ13が接続される。通信部12は、無線通信用の基地局と無線通信を行い、基地局との間で双方向のデータ伝送を行う。通信部12は、データライン29を介して、基地局側から受信したデータを携帯端末1内の各部に送出する。また、携帯端末1内の各部からデータライン29を介して伝送されたデータを、基地局側に送信する。
 データライン29には、通信部12の他に、メモリ14、表示部15、音声処理部17、および立体音響処理部21が接続される。
 メモリ14は、携帯端末1を動作させるために必要なプログラムや、ユーザが記憶させた各種データなどを記憶する。メモリ14には、ダウンロードなどで得られた音楽データなどの音声信号も記憶される。
 表示部15は、液晶ディスプレイや有機ELディスプレイなどで構成され、制御部11の制御により、各種情報の表示を行う。
 操作部16は、表示部15を構成するディスプレイと一体となって構成されるタッチパネルや、携帯端末1の筐体に設けられる物理的なボタンなどで構成される。タッチパネル(操作部16)としての表示部15には、数字や記号などのダイヤルキー、各種機能キーなどを表すボタンが表示される。各ボタンの操作情報は、制御部11に供給される。
 音声処理部17は、音声信号の処理を行う処理部であり、スピーカ18とマイクロフォン19が接続される。スピーカ18とマイクロフォン19は、通話時に受話器として機能する。
 通信部12から音声処理部17に供給される音声データは、音声処理部17により復調されてアナログ音声信号となり、増幅などのアナログ処理が施されてスピーカ18から放音される。また、マイクロフォン19により収音された音声の音声信号は、音声処理部17によりデジタル音声データに変調され、変調された音声データが通信部12に供給されて、無線送信などが行われる。
 また、音声処理部17に供給される音声データのうち、立体音響として出力される音声は、立体音響処理部21に供給され、処理される。
 立体音響処理部21は、バイノーラル立体音響を再現する2チャンネルの音声信号を生成する。立体音響処理部21が処理する音声信号は、音声処理部17から供給される他、メモリ14などから読み出されてデータライン29を介して供給されたり、通信部12で受信された音声データがデータライン29を介して供給されるなどしてもよい。
 立体音響処理部21で生成された音声信号は、携帯端末1本体に内蔵された左右のチャンネル用の2つのスピーカ22L,22Rから出力されたり、出力端子23に接続された図示せぬヘッドホンから出力されたりする。
 スピーカ22L,22Rは、携帯端末1本体に内蔵される、比較的小型なスピーカユニットを使用したスピーカであり、携帯端末1本体の周囲にいるリスナに対して再生音を聞かせることができる程度に増幅して出力させるスピーカである。
 音声信号を図示せぬヘッドホンから出力させる場合には、出力端子23にヘッドホンを直接、有線接続する他に、例えばBluetooth(登録商標)などの方式でヘッドホンと無線通信することで、ヘッドホンに音声信号を供給する構成としてもよい。
 図2は、上述した携帯端末1の機能構成例を示すブロック図である。
 図2の携帯端末1は、測定部51、帯域抽出部52、HRTFデータベース53、帯域抽出部54、合成部55、音声入力部56、および出力部57を備えている。
 測定部51は、携帯端末1を扱うユーザの頭部伝達関数(HRTF)を測定する。例えば、測定部51は、ユーザに対して1または複数の方向に配置された、例えばインパルス信号などの測定用音波を再生する音源に基づいて、頭部伝達関数を取得する。
 測定用音波を再生する音源は、少なくとも1つのスピーカを有する1のデバイスであればよく、そのスピーカは、必ずしも再生帯域が広いものでなくてもよい。
 例えば、測定用音波を再生する音源を、携帯端末1のスピーカ18とすることができる。この場合、ユーザは、所定の方向に携帯端末1を配置し、ユーザが左右の耳に装着した図示せぬマイクロフォンに、スピーカ18からの測定用音波を収音させる。測定部51は、所定の手段により供給されるマイクロフォンからの音声信号に基づいて、そのユーザの頭部伝達関数Hmを取得する。
 帯域抽出部52は、測定部51により測定された頭部伝達関数Hmから第1の帯域の特性を抽出する。抽出された第1の帯域の頭部伝達関数Hmは、合成部55に供給される。
 HRTFデータベース53は、頭部伝達関数Hmが測定される現在の測定環境とは異なる測定環境で測定された頭部伝達関数Hpを保持している。頭部伝達関数Hpは、例えばユーザが配置した携帯端末1のスピーカ18を用いて実測される頭部伝達関数Hmとは異なり、あらかじめ測定されたプリセットデータとされる。頭部伝達関数Hpは、例えば、平均的な形状の頭部や耳をもつ人やダミーヘッドについて、無響室や大型スピーカなどの設備を備える理想的な測定環境で測定された頭部伝達関数とされる。
 帯域抽出部54は、HRTFデータベース53に保持されている頭部伝達関数Hpから、上述した第1の帯域以外の第2の帯域の特性を抽出する。抽出された第2の帯域の頭部伝達関数Hpは、合成部55に供給される。
 合成部55は、帯域抽出部52からの第1の帯域の頭部伝達関数Hmと、帯域抽出部54からの第2の帯域の頭部伝達関数Hpとを合成することで、全帯域の頭部伝達関数Hを生成する。すなわち、頭部伝達関数Hは、第1の帯域については頭部伝達関数Hmの周波数特性を有し、第2の帯域については頭部伝達関数Hpの周波数特性を有する頭部伝達関数となる。生成された頭部伝達関数Hは、出力部57に供給される。
 音声入力部56は、再生させたい立体音響の元となる音声信号を出力部57に入力する。
 出力部57は、音声入力部56から入力された音声信号に対して、合成部55からの頭部伝達関数Hを畳み込んで2チャンネルの音声信号として出力する。出力部57により出力される音声信号は、バイノーラル立体音響を再現する音声信号となる。
(携帯端末の動作)
 次に、図3のフローチャートを参照して、携帯端末1による頭部伝達関数の生成処理について説明する。
 ステップS1において、測定部51は、スマートフォン(携帯端末1)を音源として用いることで、頭部伝達関数Hmを測定する。
 ステップS2において、帯域抽出部52は、測定された頭部伝達関数Hmから第1の帯域の特性を抽出する。第1の帯域は、あらかじめ決められた第1の周波数f1から、周波数f1より高い第2の周波数f2までの帯域であってよいし、単に、周波数f1より高い帯域であってもよい。第1の帯域は、特に、個人に依存する特性が現れやすい帯域とされる。
 ステップS3において、帯域抽出部54は、HRTFデータベース53に保持されているプリセットの頭部伝達関数Hpから第2の帯域の特性を抽出する。第2の帯域は、周波数f1より低い帯域と周波数f2より高い帯域を含む帯域であってもよいし、単に、周波数f1より低い帯域を含む帯域であってもよい。第2の帯域は、例えば、個人に依存する特性が現れにくく、スマートフォンが再生できない帯域とされる。
 ステップS4において、合成部55は、抽出された第1の帯域の頭部伝達関数Hmと、第2の帯域の頭部伝達関数Hpとを合成することで、頭部伝達関数Hを生成する。
 以上の処理によれば、実測された頭部伝達関数からは、個人に依存する特性が現れやすい帯域の特性が抽出され、プリセットの頭部伝達関数からは、個人に依存する特性が現れにくく、スマートフォンが再生できない帯域の特性が抽出される。したがって、再生帯域が狭いスマートフォンを音源としてユーザの頭部伝達関数を測定する場合であっても、十分な特性の頭部伝達関数を取得することができ、大規模な設備を用いることなく、全帯域における頭部伝達関数の個人化を手軽に実現することが可能となる。
 以下、本開示の技術に係る実施の形態について説明する。
<2.第1の実施の形態>
(携帯端末の構成)
 図4は、本開示の技術に係る第1の実施の形態の携帯端末1の構成例を示す図である。
 図4の携帯端末1は、バンドパスフィルタ111、補正部112、およびイコライザ113を備える。さらに、携帯端末1は、残響成分分離部121、ハイパスフィルタ131、イコライザ132、バンドパスフィルタ141、イコライザ142、ローパスフィルタ151、イコライザ152、合成部161、および残響成分付加部162を備える。
 バンドパスフィルタ111は、実測された頭部伝達関数Hmから、中域の特性を抽出する。中域は、あらかじめ決められた第1の周波数f1から、周波数f1より高い第2の周波数f2までの帯域とされる。抽出された中域の頭部伝達関数Hmは、補正部112に供給される。
 補正部112は、携帯端末1のスピーカ18の逆特性を用いて、頭部伝達関数Hmに含まれるスピーカ18の特性を除去するよう頭部伝達関数Hmを補正する。スピーカ18の逆特性は、あらかじめ測定されたプリセットデータであり、携帯端末1の機種毎に異なる特性を示す。スピーカ18の特性が除去された中域の頭部伝達関数Hmは、イコライザ113に供給される。
 イコライザ113は、中域の頭部伝達関数Hmに対して周波数特性の調整を行い、合成部161に出力する。
 残響成分分離部121は、プリセットデータである頭部伝達関数Hpを時間領域で表現した頭部インパルス応答において、直接成分と残響成分とを分離する。分離された残響成分は、残響成分付加部162に供給される。分離された直接成分に対応する頭部伝達関数Hpは、ハイパスフィルタ131、バンドパスフィルタ141、ローパスフィルタ151それぞれに供給される。
 ハイパスフィルタ131は、頭部伝達関数Hpから、高域の特性を抽出する。高域は、上述した周波数f2より高い帯域とされる。抽出された高域の頭部伝達関数Hpは、イコライザ132に供給される。
 イコライザ132は、高域の頭部伝達関数Hpに対して周波数特性の調整を行い、合成部161に出力する。
 バンドパスフィルタ141は、頭部伝達関数Hpから、中域の特性を抽出する。抽出された中域の頭部伝達関数Hpは、イコライザ142に供給される。
 イコライザ142は、中域の頭部伝達関数Hpに対して周波数特性の調整を行い、合成部161に出力する。このとき、中域の頭部伝達関数Hpには、そのゲインを0または略0にする処理が施されてもよい。
 ローパスフィルタ151は、頭部伝達関数Hpから、低域の特性を抽出する。低域は、上述した周波数f1より低い帯域とされる。抽出された低域の頭部伝達関数Hmは、イコライザ152に供給される。
 イコライザ152は、低域の頭部伝達関数Hpに対して周波数特性の調整を行い、合成部161に出力する。
 合成部161は、イコライザ113からの中域の頭部伝達関数Hm、イコライザ132からの高域の頭部伝達関数Hp、およびイコライザ152からの低域の頭部伝達関数Hpを合成し、全帯域の頭部伝達関数Hを生成する。生成された頭部伝達関数Hは、残響成分付加部162に供給される。
 残響成分付加部162は、合成部161からの頭部伝達関数Hに、残響成分分離部121からの残響成分を付加する。残響成分が付加された頭部伝達関数Hは、出力部57における畳み込みに用いられる。
(頭部伝達関数の生成処理)
 図5は、図4の携帯端末1による頭部伝達関数の生成処理について説明するフローチャートである。
 ステップS11において、測定部51(図2)は、スマートフォン(携帯端末1)を音源として用いることで、複数チャンネルについての頭部伝達関数Hmを測定する。これにより、頭部伝達関数が測定されたチャンネル数分の仮想音源を定位させることができる。
 例えば、図6のAの左図に示されるように、ユーザUがその左右斜め前それぞれにスマートフォンSPを手に持って腕を伸ばした状態で、頭部伝達関数を測定したとする。この場合、図6のAの右図に示されるように、ユーザUの左右斜め前それぞれに、仮想音源VS1,VS2を定位させることができる。
 また、図6のBの左図に示されるように、ユーザUがその正面、左右斜め前、左右横それぞれにスマートフォンSPを手に持って腕を伸ばした状態で、頭部伝達関数を測定したとする。この場合、図6のBの右図に示されるように、ユーザUの正面、左右斜め前、左右横それぞれに、仮想音源VS1,VS2,VS3,VS4,VS5を定位させることができる。
 ステップS12において、バンドパスフィルタ111は、測定された頭部伝達関数Hmから中域の特性を抽出する。抽出された中域の頭部伝達関数Hmは、補正部112によってスピーカ18の特性が除去された後、イコライザ113によって周波数特性の調整が行われる。
 ステップS13において、ハイパスフィルタ131およびローパスフィルタ151は、HRTFデータベース53に保持されているプリセットの頭部伝達関数Hpから低域・高域の特性を抽出する。抽出された低域の頭部伝達関数Hpは、イコライザ152によって周波数特性の調整が行われ、高域の頭部伝達関数Hpは、イコライザ132によって周波数特性の調整が行われる。ステップS13の処理は、あらかじめ行われていてもよい。
 なお、プリセットの頭部伝達関数Hpに対応する頭部インパルス応答からは、残響成分分離部121によって残響成分が分離される。分離された残響成分は、残響成分付加部162に供給される。
 ステップS14において、合成部161は、抽出された低域の頭部伝達関数Hmと、低域・高域の頭部伝達関数Hpとを合成することで、頭部伝達関数Hを生成する。
 図7のA,Bはそれぞれ、実測された頭部伝達関数Hmと、プリセットの頭部伝達関数Hpの周波数特性を示す図である。
 図7のAにおいて、破線枠FMで囲まれる帯域の特性が、バンドパスフィルタ111によって頭部伝達関数Hmから抽出される中域の特性である。中域は、例えば1kHzから12kHzまでの帯域とされる。
 一方、図7のBにおいて、破線枠FLで囲まれる帯域の特性が、ローパスフィルタ151によって頭部伝達関数Hpから抽出される低域の特性である。低域は、例えば1kHzより低い帯域とされる。また、図7のBにおいて、破線枠FHで囲まれる帯域の特性が、ハイパスフィルタ131によって頭部伝達関数Hpから抽出される高域の特性である。高域は、例えば12kHzより高い帯域とされる。
 このようにして抽出された1kHzから12kHzまでの帯域の頭部伝達関数Hmと、1kHzより低い帯域および12kHzより高い帯域の頭部伝達関数Hpとが合成されることで、全帯域の頭部伝達関数Hが生成される。
 スピーカの口径が小さく、再生帯域の狭いスマートフォンでは再生できない1kHzより低い帯域では、頭部伝達関数において個人に依存する特性が現れにくく、プリセットの特性に置き換えても十分な音像定位の精度が得られる。また、12kHzより高い帯域は、音像定位への寄与が小さく、プリセットの特性に置き換えても音像定位の精度に影響がない上に、プリセットの特性による高音質化が期待される。
 ステップS15において、残響成分付加部162は、合成部161からの頭部伝達関数Hに、残響成分分離部121からの残響成分を付加する。
 図8のA,Bはそれぞれ、実測された頭部伝達関数Hmと、プリセットの頭部伝達関数Hpを時間領域で表現した頭部インパルス応答を示す図である。
 図8のAにおいて、破線枠FDで囲まれている波形が、実測された頭部伝達関数Hmに対応する頭部インパルス応答Imの直接成分である。
 一方、図8のBにおいて、破線枠FRで囲まれている波形が、プリセットの頭部伝達関数Hpに対応する頭部インパルス応答Ipの残響成分である。
 図8の例では、実測された頭部インパルス応答Imの残響成分は、プリセットの頭部インパルス応答Ipと比較して、波形の振幅が小さくなっている。これらの波形の振幅の大小関係は、スマートフォンのスピーカを用いた測定環境によって異なり、実測された頭部インパルス応答Imの残響成分が、プリセットの頭部インパルス応答Ipと比較して、波形の振幅が大きくなることもある。
 残響成分付加部162においては、合成部161からの頭部伝達関数Hに、頭部インパルス応答Ipから分離された残響成分が付加される。残響成分が付加された頭部伝達関数Hは、出力部57における畳み込みに用いられる。
 以上の処理によれば、再生帯域が狭いスマートフォンを音源としてユーザの頭部伝達関数を測定する場合であっても、十分な特性の頭部伝達関数を取得することができる。すなわち、大規模な設備を用いることなく、全帯域における頭部伝達関数の個人化を手軽に実現することが可能となる。
 また、頭部インパルス応答の残響成分は、個人に依存しないので、実測された頭部インパルス応答にプリセットの頭部インパルス応答を付加しても、頭部伝達関数の個人化を実現することができる。さらに、ユーザが腕を伸ばした程度の状態での頭部伝達関数の測定であっても、プリセットの頭部インパルス応答の残響特性により、数m離れた場所にスピーカが設置されているような仮想音源を定位させるといった、距離感の制御を実現することができる。
(ノイズキャンセリングマイクロフォンの利用)
 上述した頭部伝達関数の測定においては、ユーザが左右の耳に装着するマイクロフォンとして、市販のノイズキャンセリングマイクロフォン(NCマイクロフォン)を利用することができる。
 図9は、同一のリスナを対象として、理想的な測定環境において測定専用のマイクロフォンとスピーカを用いて測定した頭部伝達関数Hdと、NCマイクロフォンとスマートフォンのスピーカを用いて測定した頭部伝達関数Hnの特性を示す図である。
 図中、1kHzより低い帯域において、頭部伝達関数Hnのゲインが小さいのは、スマートフォンのスピーカの、その帯域におけるゲインが小さいことによるものである。
 また、実測された頭部伝達関数の特性が用いられる中域(破線枠FMで囲まれる帯域)では、図中、白抜き矢印で示されるように、頭部伝達関数Hdと頭部伝達関数Hnとで差分が生じることがある。
 そこで、あらかじめ、NCマイクロフォン毎にこのような差分データを記録しておき、実測された頭部伝達関数の特性の補正量として用いるようにする。差分データによる補正は、例えば補正部112によって行われるようにする。これにより、市販のNCマイクロフォンを利用した場合であっても、実測された頭部伝達関数の特性を、理想的な測定環境で測定された頭部伝達関数の特性に近づけることができる。
(音色の変更)
 本実施の形態においては、仮想音源の音像定位を変えずに、立体音響の音色を変更することが可能である。
 図10は、出力部57(図2)の構成例を示す図である。
 出力部57には、FIR(Finite Impulse Response)フィルタ181L,181Rが設けられる。
 FIRフィルタ181Lは、音声入力部56(図2)からの音声信号に、合成部55からの頭部伝達関数Hのうちの左耳用の頭部伝達関数HLを畳み込むことで、左耳用の音声信号SLを出力する。
 同様に、FIRフィルタ181Rは、音声入力部56からの音声信号に、合成部55からの頭部伝達関数Hのうちの右耳用の頭部伝達関数HRを畳み込むことで、右耳用の音声信号SRを出力する。
 なお、出力部57においては、定位させたい仮想音源の数だけ、図10に示される構成が設けられ、各構成からの音声信号SL,SRが加算・合成されて出力される。
 FIRフィルタ181L,181Rは、直線位相特性を有するので、位相特性を保持した状態で周波数特性を変更することが可能となる。例えば、図11に示されるように、1つのインパルス応答190に対して、FIRフィルタ181L,181Rを適用することで、その周波数特性を、特性191としたり、特性192とすることができる。
 これにより、個人化された音像定位を変えずに、立体音響の音色を、他の音場の音色に変更することが可能となる。
<3.第2の実施の形態>
(携帯端末の構成)
 図12は、本開示の技術に係る第2の実施の形態の携帯端末1の構成例を示す図である。
 図12の携帯端末1は、バンドパスフィルタ111の前段に、推定部211とイコライザ212を備える点以外は、図4の携帯端末1と同様の構成を有する。
 推定部211は、実測された所定の方向についての頭部伝達関数Hmから、他の方向についての頭部伝達関数を推定する。実測された頭部伝達関数と推定された頭部伝達関数は、イコライザ212に供給される。
 イコライザ212は、推定部211からの頭部伝達関数に対して周波数特性の調整を行い、バンドパスフィルタ111に出力する。
(頭部伝達関数の生成処理)
 図13は、図12の携帯端末1による頭部伝達関数の生成処理について説明するフローチャートである。
 ステップS21において、測定部51(図2)は、スマートフォン(携帯端末1)を音源として用いることで、ユーザの正面方向についての頭部伝達関数Hmを測定する。この例では、ユーザが正面に携帯端末1を持って腕を伸ばした状態で、頭部伝達関数Hmが測定される。
 ステップS22において、推定部211は、測定された正面方向の頭部伝達関数Hmから、ユーザの左右方向の頭部伝達関数を推定する。
 ここで、左右方向の頭部伝達関数の推定について詳細に説明する。
 まず、図14のAに示されるように、ユーザUの正面方向にスマートフォンSPを配置することで測定された左右両耳の頭部伝達関数をCL,CRとする。
 次に、図14のBに示されるように、推定対称となる、ユーザUの正面方向から左30°方向についての左右両耳の頭部伝達関数をLL,LRとする。同様に、図14のCに示されるように、推定対称となる、ユーザUの正面方向から右30°方向についての左右両耳の頭部伝達関数をRL,RRとする。
 これら4つの特性LL,LR,RL,RRを、ユーザUとスマートフォンSPのスピーカとの距離によって日向側特性と日陰側特性に分類して推定する。具体的には、LL,RRは、スピーカから見てユーザUに近い側(日向側)の特性であるので、日向側特性に分類される。また、LR,RLは、スピーカから見てユーザUから見てスピーカの陰になる側(日陰側)の特性であるので、日陰側特性に分類される。
 日向側特性は、スピーカからの音が直接耳に伝搬する直接成分が大きいため、正面方向の測定により得られた特性と比べて中域から高域のゲインが大きくなる。
 一方、日陰側特性は、スピーカからの音が頭部を回り込んで伝搬するため、正面方向の測定により得られた特性と比べて高域のゲインが減衰する。
 また、スピーカから左右の耳までの距離の差による両耳時間差が生じる。
 以上の物理的な伝達特性を考慮し、正面方向についての特性CL,CRに対する補正項目を、以下の2項目とする。
 (1)音源が左右方向に移動することに起因する、中域から高域の音の増幅や、頭部の日陰側における音の減衰を再現するゲインの補正
 (2)音源が左右方向に移動することに起因する、音源からの距離の変化に伴う遅延の補正
 図15は、正面方向についての特性CL,CRに対して、上記2項目の補正を実現する推定フィルタの周波数特性を示す図である。
 図15のAには、日向側特性を推定するための日向側推定フィルタが示される。日向側推定フィルタにおいては、中域から高域にかけてゲインが増大している。
 一方、図15のBには、日陰側特性を推定するための日陰側推定フィルタが示される。日陰側推定フィルタにおいては、中域から高域にかけてゲインが大きく減衰している。
 ここで、日向側推定フィルタのインパルス応答をfilti(t)とすると、日向側特性LL,RRは以下のように推定される。
  LL(t)=filti(t)*CL(t)
  RR(t)=filti(t)*CR(t)
   なお、“*”は畳み込みを意味する。
 また、日陰側推定フィルタのインパルス応答をfiltc(t)とすると、日陰側特性RL,LRは以下のように推定される。
  RL(t)=filtc(t)*CL(t)
  LR(t)=filtc(t)*CR(t)
 以上のようにして推定された左右方向の頭部伝達関数は、正面方向の頭部伝達関数とともに、イコライザ212によって周波数特性の調整が行われる。なお、日陰側特性は、個人に依存する特性が現れにくいので、あらかじめ用意されたプリセットの特性が用いられてもよい。
 ステップS23において、バンドパスフィルタ111は、測定/推定された頭部伝達関数から中域の特性を抽出する。抽出された中域の頭部伝達関数は、補正部112によってスピーカ18の特性が除去された後、イコライザ113によって周波数特性の調整が行われる。
 なお、ステップS24以降の処理は、図5のフローチャートのステップS13以降の処理と同様であるので、その説明は省略する。
 以上の処理によれば、再生帯域が狭いスマートフォンを音源としてユーザの頭部伝達関数を測定する場合であっても、十分な特性の頭部伝達関数を取得することができる。すなわち、大規模な設備を用いることなく、全帯域における頭部伝達関数の個人化を手軽に実現することが可能となる。
 特に、本実施の形態においては、ユーザの正面方向の頭部伝達関数から左右方向の頭部伝達関数が推定されるので、1回の頭部伝達関数の測定のみで、複数の仮想音源を定位させる頭部伝達関数の個人化を実現することができる。
<4.第3の実施の形態>
 以下においては、ユーザの正中面についての頭部伝達関数から矢状面についての頭部伝達関数を推定する例について説明する。
 図16は、図12の携帯端末1による頭部伝達関数の生成処理の他の例について説明するフローチャートである。
 ステップS31において、測定部51(図2)は、スマートフォン(携帯端末1)を音源として用いることで、ユーザの正中面についての頭部伝達関数を測定する。
 例えば、図17のAに示されるように、ユーザUが、正中面351内にスマートフォンSPを配置することで、頭部伝達関数が測定される。図17の例では、正中面351内のユーザの正面、斜め上、斜め下の3方向についての頭部伝達関数が測定される。
 ステップS32において、推定部211は、測定された正中面の頭部伝達関数から、ユーザの左右の矢状面の頭部伝達関数を推定する。
 例えば、図17のBに示されるように、ユーザUのいる空間において、ユーザUの左側で正中面351に平行な矢状面352Lについての頭部伝達関数と、ユーザUの右側で正中面351に平行な矢状面352Rについての頭部伝達関数が推定される。
 ここでの頭部伝達関数の推定は、例えば、正中面351内のユーザの正面、斜め上、斜め下の3方向についての頭部伝達関数それぞれに対して、上述した日向側推定フィルタと日陰側推定フィルタを用いた補正を行うことで実現される。
 推定された矢状面の頭部伝達関数は、正中面の頭部伝達関数とともに、イコライザ212によって周波数特性の調整が行われる。
 なお、ステップS33以降の処理は、図13のフローチャートのステップS23以降の処理と同様であるので、その説明は省略する。
 以上の処理によれば、再生帯域が狭いスマートフォンを音源としてユーザの頭部伝達関数を測定する場合であっても、十分な特性の頭部伝達関数を取得することができる。すなわち、大規模な設備を用いることなく、全帯域における頭部伝達関数の個人化を手軽に実現することが可能となる。
 特に、本実施の形態においては、ユーザの周囲の任意の方向の頭部伝達関数が推定されるので、ユーザの所望する方向に仮想音源を定位させる頭部伝達関数の個人化を実現することができる。
<5.その他>
(音源の他の例)
 上述した説明においては、測定用音波を再生する音源を、スピーカを有するスマートフォンとしたが、これ以外のデバイスとしてもよい。例えば、測定用音波を再生する音源を、スピーカとディスプレイを有するテレビジョン受像機とすることもできる。テレビジョン受像機は、高々200Hz程度の帯域までしか再生できず、スマートフォンと同様、再生帯域が広いものではない。
 本開示に係る技術によれば、再生帯域が狭いテレビジョン受像機を音源としてユーザの頭部伝達関数を測定する場合であっても、十分な特性の頭部伝達関数を取得することができる。
(クラウドコンピューティングへの適用)
 本開示に係る技術を適用した信号処理装置は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
 また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
 さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
 例えば、図2のHRTFデータベース53が、インターネットなどのネットワークを介して接続されるサーバなど(いわゆるクラウド)に設けられてもよい。
 また、図2の携帯端末1が備える全ての構成がクラウドに設けられてもよい。この場合、携帯端末1は、収音した測定用音波の音声信号をクラウドに送信し、クラウドからの立体音響を再現する音声信号を受信し再生するのみの構成となる。
(プログラムによる処理の実行)
 上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。
 図18は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。
 上述した携帯端末1は、図18に示す構成を有するコンピュータにより実現される。
 CPU1001、ROM1002、RAM1003は、バス1004により相互に接続されている。
 バス1004には、さらに、入出力インタフェース1005が接続されている。入出力インタフェース1005には、キーボード、マウスなどよりなる入力部1006、ディスプレイ、スピーカなどよりなる出力部1007が接続される。また、入出力インタフェース1005には、ハードディスクや不揮発性のメモリなどよりなる記憶部1008、ネットワークインタフェースなどよりなる通信部1009、リムーバブルメディア1011を駆動するドライブ1010が接続される。
 以上のように構成されるコンピュータでは、CPU1001が、例えば、記憶部1008に記憶されているプログラムを入出力インタフェース1005およびバス1004を介してRAM1003にロードして実行することにより、上述した一連の処理が行われる。
 CPU1001が実行するプログラムは、例えばリムーバブルメディア1011に記録して、あるいは、ローカルエリアネットワーク、インターネット、デジタル放送といった、有線または無線の伝送媒体を介して提供され、記憶部1008にインストールされる。
 なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたときなどの必要なタイミングで処理が行われるプログラムであっても良い。
 なお、本開示の実施の形態は、上述した実施の形態に限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。
 また、本明細書に記載された効果はあくまで例示であって限定されるものではなく、他の効果があってもよい。
 さらに、本開示は以下のような構成をとることができる。
(1)
 ユーザの第1の頭部伝達関数から抽出された第1の帯域の特性と、前記第1の頭部伝達関数が測定される第1の測定環境と異なる第2の測定環境で測定された第2の頭部伝達関数から抽出された前記第1の帯域以外の第2の帯域の特性とを合成することで、第3の頭部伝達関数を生成する合成部
 を備える信号処理装置。
(2)
 前記第1の帯域は、第1の周波数から第2の周波数までの帯域であり、
 前記第2の帯域は、前記第1の周波数より低い帯域と、前記第2の周波数より高い帯域を含む
 (1)に記載の信号処理装置。
(3)
 前記第1の帯域は、第1の周波数より高い帯域であり、
 前記第2の帯域は、前記第1の周波数より低い帯域を含む
 (1)に記載の信号処理装置。
(4)
 前記第1の頭部伝達関数は、前記ユーザが配置した音源を用いて実測されるデータであり、
 前記第2の頭部伝達関数は、あらかじめ理想的な測定環境で測定されたプリセットデータである
 (1)乃至(3)のいずれかに記載の信号処理装置。
(5)
 前記第1の帯域は、個人に依存する特性を含む帯域である
 (4)に記載の信号処理装置。
(6)
 前記第2の帯域は、前記音源が再生できない帯域を含む
 (4)または(5)に記載の信号処理装置。
(7)
 前記音源は、スピーカを有するデバイスである
 (4)乃至(6)のいずれかに記載の信号処理装置。
(8)
 前記デバイスは、ディスプレイをさらに有する
 (7)に記載の信号処理装置。
(9)
 前記デバイスは、スマートフォンである
 (8)に記載の信号処理装置。
(10)
 前記デバイスは、テレビジョン受像機である
 (8)に記載の信号処理装置。
(11)
 前記第1の頭部伝達関数から抽出された前記第1の帯域の特性に含まれる前記音源の特性を除去するよう、前記第1の帯域の特性を補正する補正部をさらに備える
 (4)乃至(10)のいずれかに記載の信号処理装置。
(12)
 前記第2の頭部伝達関数に対応する頭部インパルス応答から分離された残響成分を、前記第3の頭部伝達関数に付加する付加部をさらに備える
 (1)乃至(11)のいずれかに記載の信号処理装置。
(13)
 信号処理装置が、
 ユーザの第1の頭部伝達関数から抽出された第1の帯域の特性と、前記第1の頭部伝達関数が測定される第1の測定環境と異なる第2の測定環境で測定された第2の頭部伝達関数から抽出された前記第1の帯域以外の第2の帯域の特性とを合成することで、第3の頭部伝達関数を生成する
 信号処理方法。
(14)
 コンピュータに、
 ユーザの第1の頭部伝達関数から抽出された第1の帯域の特性と、前記第1の頭部伝達関数が測定される第1の測定環境と異なる第2の測定環境で測定された第2の頭部伝達関数から抽出された前記第1の帯域以外の第2の帯域の特性とを合成することで、第3の頭部伝達関数を生成する
 処理を実行させるためのプログラム。
 1 携帯端末, 51 測定部, 52 帯域抽出部, 53 HRTFデータベース, 54 帯域抽出部, 55 合成部, 56 音声入力部, 57 出力部

Claims (14)

  1.  ユーザの第1の頭部伝達関数から抽出された第1の帯域の特性と、前記第1の頭部伝達関数が測定される第1の測定環境と異なる第2の測定環境で測定された第2の頭部伝達関数から抽出された前記第1の帯域以外の第2の帯域の特性とを合成することで、第3の頭部伝達関数を生成する合成部
     を備える信号処理装置。
  2.  前記第1の帯域は、第1の周波数から第2の周波数までの帯域であり、
     前記第2の帯域は、前記第1の周波数より低い帯域と、前記第2の周波数より高い帯域を含む
     請求項1に記載の信号処理装置。
  3.  前記第1の帯域は、第1の周波数より高い帯域であり、
     前記第2の帯域は、前記第1の周波数より低い帯域を含む
     請求項1に記載の信号処理装置。
  4.  前記第1の頭部伝達関数は、前記ユーザが配置した音源を用いて実測されるデータであり、
     前記第2の頭部伝達関数は、あらかじめ理想的な測定環境で測定されたプリセットデータである
     請求項1に記載の信号処理装置。
  5.  前記第1の帯域は、個人に依存する特性を含む帯域である
     請求項4に記載の信号処理装置。
  6.  前記第2の帯域は、前記音源が再生できない帯域を含む
     請求項4に記載の信号処理装置。
  7.  前記音源は、スピーカを有するデバイスである
     請求項4に記載の信号処理装置。
  8.  前記デバイスは、ディスプレイをさらに有する
     請求項7に記載の信号処理装置。
  9.  前記デバイスは、スマートフォンである
     請求項8に記載の信号処理装置。
  10.  前記デバイスは、テレビジョン受像機である
     請求項8に記載の信号処理装置。
  11.  前記第1の頭部伝達関数から抽出された前記第1の帯域の特性に含まれる前記音源の特性を除去するよう、前記第1の帯域の特性を補正する補正部をさらに備える
     請求項4に記載の信号処理装置。
  12.  前記第2の頭部伝達関数に対応する頭部インパルス応答から分離された残響成分を、前記第3の頭部伝達関数に付加する付加部をさらに備える
     請求項1に記載の信号処理装置。
  13.  信号処理装置が、
     ユーザの第1の頭部伝達関数から抽出された第1の帯域の特性と、前記第1の頭部伝達関数が測定される第1の測定環境と異なる第2の測定環境で測定された第2の頭部伝達関数から抽出された前記第1の帯域以外の第2の帯域の特性とを合成することで、第3の頭部伝達関数を生成する
     信号処理方法。
  14.  コンピュータに、
     ユーザの第1の頭部伝達関数から抽出された第1の帯域の特性と、前記第1の頭部伝達関数が測定される第1の測定環境と異なる第2の測定環境で測定された第2の頭部伝達関数から抽出された前記第1の帯域以外の第2の帯域の特性とを合成することで、第3の頭部伝達関数を生成する
     処理を実行させるためのプログラム。
PCT/JP2019/030413 2018-08-17 2019-08-02 信号処理装置、信号処理方法、およびプログラム WO2020036077A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201980052823.XA CN112567766B (zh) 2018-08-17 2019-08-02 信号处理装置、信号处理方法和介质
US17/250,603 US11743671B2 (en) 2018-08-17 2019-08-02 Signal processing device and signal processing method
JP2020537414A JP7384162B2 (ja) 2018-08-17 2019-08-02 信号処理装置、信号処理方法、およびプログラム
DE112019004139.8T DE112019004139T5 (de) 2018-08-17 2019-08-02 Signalverarbeitungsvorrichtung, signalverarbeitungsverfahren und programm

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018153658 2018-08-17
JP2018-153658 2018-08-17

Publications (1)

Publication Number Publication Date
WO2020036077A1 true WO2020036077A1 (ja) 2020-02-20

Family

ID=69525513

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/030413 WO2020036077A1 (ja) 2018-08-17 2019-08-02 信号処理装置、信号処理方法、およびプログラム

Country Status (5)

Country Link
US (1) US11743671B2 (ja)
JP (1) JP7384162B2 (ja)
CN (1) CN112567766B (ja)
DE (1) DE112019004139T5 (ja)
WO (1) WO2020036077A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2584152B (en) * 2019-05-24 2024-02-21 Sony Interactive Entertainment Inc Method and system for generating an HRTF for a user
JP2021131433A (ja) * 2020-02-19 2021-09-09 ヤマハ株式会社 音信号処理方法および音信号処理装置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017130255A1 (ja) * 2016-01-26 2017-08-03 株式会社Jvcケンウッド 音像定位処理装置、及び音像定位処理方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7116787B2 (en) * 2001-05-04 2006-10-03 Agere Systems Inc. Perceptual synthesis of auditory scenes
US20050147261A1 (en) * 2003-12-30 2005-07-07 Chiang Yeh Head relational transfer function virtualizer
KR100754220B1 (ko) 2006-03-07 2007-09-03 삼성전자주식회사 Mpeg 서라운드를 위한 바이노럴 디코더 및 그 디코딩방법
JP2009260574A (ja) 2008-04-15 2009-11-05 Sony Ericsson Mobilecommunications Japan Inc 音声信号処理装置、音声信号処理方法及び音声信号処理装置を備えた携帯端末
JP2012004668A (ja) * 2010-06-14 2012-01-05 Sony Corp 頭部伝達関数生成装置、頭部伝達関数生成方法及び音声信号処理装置
US9426589B2 (en) * 2013-07-04 2016-08-23 Gn Resound A/S Determination of individual HRTFs
JP2015211418A (ja) * 2014-04-30 2015-11-24 ソニー株式会社 音響信号処理装置、音響信号処理方法、および、プログラム
WO2016089180A1 (ko) 2014-12-04 2016-06-09 가우디오디오랩 주식회사 바이노럴 렌더링을 위한 오디오 신호 처리 장치 및 방법
CN107113524B (zh) * 2014-12-04 2020-01-03 高迪音频实验室公司 反映个人特性的双耳音频信号处理方法和设备
JP6732464B2 (ja) * 2016-02-12 2020-07-29 キヤノン株式会社 情報処理装置および情報処理方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017130255A1 (ja) * 2016-01-26 2017-08-03 株式会社Jvcケンウッド 音像定位処理装置、及び音像定位処理方法

Also Published As

Publication number Publication date
JPWO2020036077A1 (ja) 2021-08-10
JP7384162B2 (ja) 2023-11-21
US20210297802A1 (en) 2021-09-23
US11743671B2 (en) 2023-08-29
DE112019004139T5 (de) 2021-05-06
CN112567766B (zh) 2022-10-28
CN112567766A (zh) 2021-03-26

Similar Documents

Publication Publication Date Title
JP4921470B2 (ja) 頭部伝達関数を表すパラメータを生成及び処理する方法及び装置
JP4780119B2 (ja) 頭部伝達関数測定方法、頭部伝達関数畳み込み方法および頭部伝達関数畳み込み装置
KR100626233B1 (ko) 스테레오 확장 네트워크에서의 출력의 등화
EP3151426B1 (en) Equalization filter coefficient determinator, apparatus, equalization filter coefficient processor, system and methods
CN107852563A (zh) 双耳音频再现
US10555108B2 (en) Filter generation device, method for generating filter, and program
JP6515720B2 (ja) 頭外定位処理装置、頭外定位処理方法、及びプログラム
CN107925835B (zh) 头外定位处理装置以及头外定位处理方法
JP2019083570A (ja) クロストーク処理の方法
CN112956210B (zh) 基于均衡滤波器的音频信号处理方法及装置
JP7384162B2 (ja) 信号処理装置、信号処理方法、およびプログラム
CN105556990A (zh) 音响处理装置、音响处理方法、及音响处理程序
Liski et al. Adaptive equalization of acoustic transparency in an augmented-reality headset
US20200059750A1 (en) Sound spatialization method
CN109923877B (zh) 对立体声音频信号进行加权的装置和方法
JP2017028526A (ja) 頭外定位処理装置、頭外定位処理方法、プログラム
JP7362320B2 (ja) オーディオ信号処理装置、オーディオ信号処理方法及びオーディオ信号処理プログラム
US6999590B2 (en) Stereo sound circuit device for providing three-dimensional surrounding effect
CN108810737B (zh) 信号处理的方法、装置和虚拟环绕声播放设备
JP7010649B2 (ja) オーディオ信号処理装置及びオーディオ信号処理方法
JP5163685B2 (ja) 頭部伝達関数測定方法、頭部伝達関数畳み込み方法および頭部伝達関数畳み込み装置
JP7332745B2 (ja) 音声処理方法及び音声処理装置
US20230209300A1 (en) Method and device for processing spatialized audio signals
JP2018139345A (ja) フィルタ生成装置、フィルタ生成方法、及びプログラム
WO2021212287A1 (zh) 音频信号处理方法、音频处理装置及录音设备

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19850697

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020537414

Country of ref document: JP

Kind code of ref document: A

122 Ep: pct application non-entry in european phase

Ref document number: 19850697

Country of ref document: EP

Kind code of ref document: A1