WO2018207645A1 - 頭外定位フィルタ決定システム、頭外定位フィルタ決定装置、頭外定位決定方法、及びプログラム - Google Patents

頭外定位フィルタ決定システム、頭外定位フィルタ決定装置、頭外定位決定方法、及びプログラム Download PDF

Info

Publication number
WO2018207645A1
WO2018207645A1 PCT/JP2018/017050 JP2018017050W WO2018207645A1 WO 2018207645 A1 WO2018207645 A1 WO 2018207645A1 JP 2018017050 W JP2018017050 W JP 2018017050W WO 2018207645 A1 WO2018207645 A1 WO 2018207645A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
ear
user
preset data
unit
Prior art date
Application number
PCT/JP2018/017050
Other languages
English (en)
French (fr)
Inventor
村田 寿子
正也 小西
敬洋 下条
邦明 高地
優美 藤井
内田 孝之
Original Assignee
株式会社Jvcケンウッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Jvcケンウッド filed Critical 株式会社Jvcケンウッド
Priority to CN201880030388.6A priority Critical patent/CN110612727B/zh
Priority to EP18798980.1A priority patent/EP3637801B1/en
Publication of WO2018207645A1 publication Critical patent/WO2018207645A1/ja
Priority to US16/675,052 priority patent/US10798517B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S1/00Two-channel systems
    • H04S1/002Non-adaptive circuits, e.g. manually adjustable or static, for enhancing the sound image or the spatial distribution
    • H04S1/005For headphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/033Headphones for stereophonic communication
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/027Spatial or constructional arrangements of microphones, e.g. in dummy heads
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/04Circuit arrangements, e.g. for selective connection of amplifier inputs/outputs to loudspeakers, for loudspeaker detection, or for adaptation of settings to personal preferences or hearing impairments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/01Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/305Electronic adaptation of stereophonic audio signals to reverberation of the listening space
    • H04S7/306For headphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/307Frequency adjustment, e.g. tone control

Definitions

  • the present invention relates to an out-of-head localization filter determination system, an out-of-head localization filter determination device, an out-of-head localization determination method, and a program.
  • the sound image localization technology there is an out-of-head localization technology that uses a headphone to localize a sound image outside the listener's head.
  • the sound image is localized out of the head by canceling the characteristics from the headphones to the ears and giving four characteristics from the stereo speakers to the ears.
  • a measurement signal (impulse sound, etc.) emitted from a 2-channel speaker (hereinafter referred to as “ch”) is recorded with a microphone (hereinafter referred to as a microphone) installed in the ear of the listener (user).
  • ch a microphone
  • the processing device creates a filter based on the collected sound signal obtained by the impulse response. By convolving the created filter with a 2-channel audio signal, it is possible to realize out-of-head localization reproduction.
  • Patent Document 1 discloses a binaural hearing device using an out-of-head sound image localization filter.
  • this apparatus a large number of human pre-measured spatial transfer functions are converted into feature parameter vectors corresponding to human auditory characteristics. Then, the apparatus uses data aggregated to a small number by performing clustering. Furthermore, the apparatus clusters the spatial transfer function measured in advance and the real earphone inverse transfer function according to the human physical dimensions. The human data closest to the center of gravity of each cluster is used.
  • Patent Document 2 discloses a three-dimensional sound reproducing apparatus using headphones.
  • the depth of the first part of one ear of the user is measured. Based on the depth, a head-related transfer function personally adapted to the user is read out from the head-related transfer function database.
  • Patent Documents 3 and 4 disclose a method in which a user selects an optimum filter from a plurality of filters based on the result of an auditory test.
  • Patent Document 1 since the apparatus of Patent Document 1 performs clustering based on physical dimensions, it is necessary to measure the physical dimensions of the individual user. In addition, clustering may not be performed properly. In this case, there is a problem that an out-of-head sound image localization filter suitable for the user cannot be used.
  • Patent Document 2 it is necessary to measure the depth of the first part of the ear. Therefore, it is difficult for the user himself to measure the depth of his / her ear. Further, in the methods of Patent Documents 1 and 2, there is a possibility that the measurement dimension data varies depending on the measurer.
  • the present embodiment has been made in view of the above points, and includes an out-of-head localization filter determination system, an out-of-head localization filter determination device, an out-of-head localization filter determination method, and a program that can appropriately determine an out-of-head localization filter.
  • the purpose is to provide.
  • An out-of-head localization filter determination system includes an output unit that is worn by a user and outputs sound toward the user's ear, and a sound that is worn by the user's ear and output from the output unit.
  • a microphone unit that collects sound; a user terminal that outputs a measurement signal to the output unit and acquires a collected sound signal output from the microphone unit; and a server device that can communicate with the user terminal.
  • An out-of-head localization filter determination system wherein the user terminal uses the output unit and the microphone unit to measure measurement data related to the ear canal transfer characteristics of the user's ear, and based on the measurement data
  • a transmission unit configured to transmit user data to the server device, wherein the server device includes a spatial sound from a sound source to a measurement subject's ear; 1 is a data storage unit that stores first preset data related to transmission characteristics and second preset data related to transmission characteristics of the ear canal of the measured person in association with each other, and is acquired for a plurality of measured persons Based on a comparison result in the data storage unit that stores the plurality of first and second preset data, a comparison unit that compares the user data with the plurality of second preset data, and the comparison unit, And an extraction unit for extracting first preset data from the plurality of first preset data.
  • the out-of-head localization filter determination apparatus includes a first acquisition unit that acquires user data based on measurement data related to the external auditory canal transfer characteristic of the user's ear, and a first spatial sound transfer characteristic from the sound source to the ear of the measurement subject.
  • a data storage unit that stores the preset data and the second preset data related to the ear canal transfer characteristic of the subject's ear in association with each other, the plurality of the first data acquired for the plurality of subjects.
  • the first preset data is selected from the plurality of first preset data.
  • an extraction unit for extracting preset data.
  • the out-of-head localization filter determining apparatus includes a step of obtaining user data based on measurement data related to a user's ear external auditory canal transfer characteristic, and a first related to a spatial acoustic transfer characteristic from a sound source to the ear of the person being measured.
  • a plurality of the first and second preset data acquired for a plurality of subjects are stored in association with preset data and second preset data relating to the ear canal transfer characteristics of the ears of the subject. And extracting the first preset data from the plurality of first preset data by comparing the user data and the plurality of second preset data.
  • External localization filter determination method is a step of obtaining user data based on measurement data related to a user's ear external auditory canal transfer characteristic, and a first related to a spatial acoustic transfer characteristic from a sound source to the ear of the person being measured.
  • a plurality of the first and second preset data acquired for a plurality of subjects are stored in association with preset data
  • the program according to the present embodiment includes a step of acquiring, in a computer, user data based on measurement data relating to the external ear canal transfer characteristic of the user's ear, and first preset data relating to the spatial acoustic transfer characteristic from the sound source to the ear of the subject. And storing a plurality of the first and second preset data acquired for a plurality of measurement subjects in association with the second preset data relating to the ear canal transfer characteristics of the ears of the measurement subject. And extracting the first preset data from the plurality of first preset data by comparing the user data and the plurality of second preset data. is there.
  • an out-of-head localization filter determination system an out-of-head localization filter determination device, an out-of-head localization filter determination method, and a program that can appropriately determine an out-of-head localization filter can be provided.
  • 10 is a table showing a data configuration in Modification 1.
  • 10 is a table showing a data configuration in Modification 2.
  • 10 is a table showing a data configuration in Modification 3.
  • the out-of-head localization processing performs out-of-head localization processing using spatial acoustic transmission characteristics and ear canal transmission characteristics.
  • the spatial acoustic transfer characteristic is a transfer characteristic from a sound source such as a speaker to the ear canal.
  • the ear canal transfer characteristic is a transfer characteristic from the ear canal entrance to the eardrum.
  • the external auditory canal transfer characteristic is measured with headphones attached, and the out-of-head localization processing is realized using the measurement data.
  • the out-of-head localization processing is executed by a user terminal such as a personal computer, a smart phone, or a tablet PC.
  • the user terminal is an information processing apparatus having processing means such as a processor, storage means such as a memory and a hard disk, display means such as a liquid crystal monitor, and input means such as a touch panel, buttons, a keyboard, and a mouse.
  • the user terminal has a communication function for transmitting and receiving data. Further, output means (output unit) having headphones or earphones is connected to the user terminal.
  • the spatial acoustic transmission characteristics of the user are performed in a listening room in which acoustic equipment such as speakers and indoor acoustic characteristics are arranged. That is, the user needs to go to the listening room or prepare a listening room at the user's home or the like. For this reason, the user's individual spatial acoustic transfer characteristics may not be appropriately measured.
  • the speaker may be installed asymmetrically or the acoustic environment of the room may not be optimal for listening to music. In such a case, it is very difficult to measure appropriate spatial acoustic transfer characteristics at home.
  • the user's individual ear canal transmission characteristics are measured with the microphone unit and headphones attached. That is, if the user wears a microphone unit and headphones, the ear canal transfer characteristics can be measured. There is no need for the user to go to the listening room or to prepare a large listening room in the user's house.
  • generation of a measurement signal for measuring the external auditory canal transfer characteristic and recording of a collected sound signal can be performed using a user terminal such as a smart phone or a personal computer.
  • the out-of-head localization processing system determines a filter corresponding to the spatial acoustic transfer characteristic based on the measurement result of the external auditory canal transfer characteristic. That is, an out-of-head localization processing filter suitable for the user is determined based on the measurement results of the individual ear canal transfer characteristics.
  • the out-of-head localization processing system includes a user terminal and a server device.
  • the server device stores spatial acoustic transfer characteristics and ear canal transfer characteristics measured in advance for a plurality of measurement subjects other than the user. That is, using a measurement device different from the user terminal, measurement of spatial acoustic transfer characteristics using a speaker as a sound source (hereinafter also referred to as first preliminary measurement) and measurement of external auditory canal transfer characteristics using headphones (second (Also referred to as prior measurement).
  • the first pre-measurement and the second pre-measurement are performed on a person other than the user.
  • the server device stores first preset data corresponding to the result of the first pre-measurement and second preset data corresponding to the result of the second pre-measurement.
  • a plurality of first preset data and a plurality of second preset data are acquired by performing the first and second preliminary measurements on the plurality of subjects.
  • the server device stores the first preset data related to the spatial acoustic transfer characteristics and the second preset data related to the external auditory canal transfer characteristics in association with each person to be measured.
  • the server device stores a plurality of first preset data and a plurality of second preset data in a database.
  • the user measurement is a measurement using headphones as a sound source as in the second preliminary measurement.
  • the user terminal acquires measurement data related to the ear canal transfer characteristics.
  • the user terminal transmits user data based on the measurement data to the server device.
  • the server device compares the user data with a plurality of second preset data.
  • the server device determines second preset data having a high correlation with the user data from among the plurality of second preset data based on the comparison result.
  • the server device reads the first preset data associated with the highly correlated second preset data. That is, the server device extracts the first preset data suitable for the individual user from the plurality of first preset data based on the comparison result. The server device transmits the extracted first preset data to the user terminal. Then, the user terminal performs an out-of-head localization process using a filter based on the first preset data and an inverse filter based on the user measurement.
  • FIG. 1 shows an out-of-head localization processing apparatus 100 which is an example of a sound field reproducing apparatus according to the present embodiment.
  • FIG. 1 is a block diagram of the out-of-head localization processing apparatus 100.
  • the out-of-head localization processing apparatus 100 reproduces a sound field for the user U wearing the headphones 43. Therefore, the out-of-head localization processing apparatus 100 performs sound image localization processing on the Lch and Rch stereo input signals XL and XR.
  • the Lch and Rch stereo input signals XL and XR are analog audio playback signals output from a CD (Compact Disc) player or the like, or digital audio data such as mp3 (MPEG Audio Layer-3).
  • the out-of-head localization processing apparatus 100 is not limited to a physically single apparatus, and some processes may be performed by different apparatuses. For example, a part of the processing may be performed by a personal computer or the like, and the remaining processing may be performed by a DSP (Digital Signal Processor) built in the headphones 43 or the like.
  • DSP Digital Signal Processor
  • the out-of-head localization processing apparatus 100 includes an out-of-head localization processing unit 10, a filter unit 41, a filter unit 42, and headphones 43.
  • the out-of-head localization processing unit 10, the filter unit 41, and the filter unit 42 constitute an arithmetic processing unit 120 described later, and can be specifically realized by a processor.
  • the out-of-head localization processing unit 10 includes convolution operation units 11 to 12 and 21 to 22 and adders 24 and 25.
  • the convolution operation units 11 to 12 and 21 to 22 perform convolution processing using spatial acoustic transfer characteristics.
  • Stereo input signals XL and XR from a CD player or the like are input to the out-of-head localization processing unit 10.
  • Spatial acoustic transfer characteristics are set in the out-of-head localization processing unit 10.
  • the out-of-head localization processing unit 10 convolves a spatial acoustic transfer characteristic filter (hereinafter also referred to as a spatial acoustic filter) with respect to the stereo input signals XL and XR of each channel.
  • the spatial acoustic transfer characteristic may be a head-related transfer function HRTF measured with the head or auricle of the measurement subject, or may be a dummy head or a third-party head-related transfer function.
  • a set of four spatial acoustic transfer characteristics Hls, Hlo, Hro, and Hrs as a spatial acoustic transfer function.
  • Data used for convolution in the convolution operation units 11, 12, 21, and 22 is a spatial acoustic filter.
  • Each of the spatial acoustic transfer characteristics Hls, Hlo, Hro, and Hrs is measured by using a measuring device described later.
  • the convolution operation unit 11 convolves a spatial acoustic filter corresponding to the spatial acoustic transfer characteristic Hls with respect to the Lch stereo input signal XL.
  • the convolution operation unit 11 outputs the convolution operation data to the adder 24.
  • the convolution operation unit 21 convolves a spatial acoustic filter corresponding to the spatial acoustic transfer characteristic Hro with respect to the Rch stereo input signal XR.
  • the convolution operation unit 21 outputs the convolution operation data to the adder 24.
  • the adder 24 adds the two convolution calculation data and outputs the result to the filter unit 41.
  • the convolution operation unit 12 convolves a spatial acoustic filter corresponding to the spatial acoustic transfer characteristic Hlo with respect to the Lch stereo input signal XL.
  • the convolution operation unit 12 outputs the convolution operation data to the adder 25.
  • the convolution operation unit 22 convolves a spatial acoustic filter corresponding to the spatial acoustic transfer characteristic Hrs with respect to the Rch stereo input signal XR.
  • the convolution operation unit 22 outputs the convolution operation data to the adder 25.
  • the adder 25 adds the two convolution calculation data and outputs the result to the filter unit 42.
  • an inverse filter for canceling the headphone characteristic (characteristic between the headphone reproduction unit and the microphone) is set. Then, an inverse filter is convoluted with the reproduction signal (convolution operation signal) that has been processed by the out-of-head localization processing unit 10.
  • the filter unit 41 convolves an inverse filter with the Lch signal from the adder 24.
  • the filter unit 42 convolves an inverse filter with the Rch signal from the adder 25.
  • the reverse filter cancels the characteristics from the headphone unit to the microphone when the headphones 43 are attached.
  • the microphone may be placed anywhere from the ear canal entrance to the eardrum.
  • the inverse filter is calculated from the measurement result of the characteristics of the user U himself.
  • the filter unit 41 outputs the corrected Lch signal to the left unit 43L of the headphones 43.
  • the filter unit 42 outputs the corrected Rch signal to the right unit 43R of the headphones 43.
  • User U is wearing headphones 43.
  • the headphone 43 outputs the Lch signal and the Rch signal toward the user U. Thereby, the sound image localized outside the user U's head can be reproduced.
  • the out-of-head localization processing apparatus 100 performs out-of-head localization processing using a spatial acoustic filter corresponding to the spatial acoustic transfer characteristics Hls, Hlo, Hro, and Hrs and an inverse filter with headphone characteristics.
  • a spatial acoustic filter according to the spatial acoustic transfer characteristics Hls, Hlo, Hro, and Hrs and an inverse filter with headphone characteristics are collectively referred to as an out-of-head localization processing filter.
  • the out-of-head localization filter is composed of four spatial acoustic filters and two inverse filters. Then, the out-of-head localization processing apparatus 100 performs the out-of-head localization processing by performing convolution operation processing on the stereo reproduction signal using a total of six out-of-head localization filters.
  • FIG. 2 is a diagram schematically illustrating a measurement configuration for performing the first preliminary measurement on the person to be measured 1.
  • the measuring apparatus 200 includes a stereo speaker 5 and a microphone unit 2.
  • a stereo speaker 5 is installed in the measurement environment.
  • the measurement environment may be a room at the user U's home, an audio system sales store, a showroom, or the like.
  • the measurement environment is preferably a listening room with speakers and sound.
  • the processing device 201 of the measuring device 200 performs arithmetic processing for appropriately generating a spatial acoustic filter.
  • the processing device 201 includes, for example, a music player such as a CD player.
  • the processing device 201 may be a personal computer (PC), a tablet terminal, a smart phone, or the like. Further, the processing device 201 may be the server device itself.
  • the stereo speaker 5 includes a left speaker 5L and a right speaker 5R.
  • a left speaker 5L and a right speaker 5R are installed in front of the person to be measured 1.
  • the left speaker 5L and the right speaker 5R output an impulse sound or the like for performing impulse response measurement.
  • the number of speakers serving as sound sources is described as two (stereo speakers) in the present embodiment, the number of sound sources used for measurement is not limited to two and may be one or more. That is, the present embodiment can be similarly applied to a so-called multi-channel environment such as 1ch monaural or 5.1ch or 7.1ch.
  • the microphone unit 2 is a stereo microphone having a left microphone 2L and a right microphone 2R.
  • the left microphone 2L is installed in the left ear 9L of the person 1 to be measured
  • the right microphone 2R is installed in the right ear 9R of the person 1 to be measured.
  • the microphones 2L and 2R are preferably installed at positions from the ear canal entrance to the eardrum of the left ear 9L and the right ear 9R.
  • the microphones 2L and 2R collect the measurement signal output from the stereo speaker 5 and acquire the collected sound signal.
  • the microphones 2L and 2R output the collected sound signal to the processing device 201.
  • the person to be measured 1 may be a person or a dummy head. That is, in the present embodiment, the measurement subject 1 is a concept including not only a person but also a dummy head.
  • the impulse response is measured by measuring the impulse sound output from the left and right speakers 5L and 5R with the microphones 2L and 2R.
  • the processing device 201 stores the collected sound signal acquired by the impulse response measurement in a memory or the like.
  • the spatial acoustic transmission characteristic Hls between the left speaker 5L and the left microphone 2L the spatial acoustic transmission characteristic Hlo between the left speaker 5L and the right microphone 2R, and the spatial acoustic between the right speaker 5R and the left microphone 2L.
  • the transfer characteristic Hro and the spatial acoustic transfer characteristic Hrs between the right speaker 5R and the right microphone 2R are measured.
  • the spatial acoustic transfer characteristic Hls is acquired.
  • the right microphone 2R picks up the measurement signal output from the left speaker 5L
  • the spatial acoustic transfer characteristic Hlo is acquired.
  • the left microphone 2L collects the measurement signal output from the right speaker 5R
  • the spatial acoustic transfer characteristic Hro is acquired.
  • the right microphone 2R collects the measurement signal output from the right speaker 5R
  • the spatial acoustic transfer characteristic Hrs is acquired.
  • the measuring apparatus 200 generates a spatial acoustic filter corresponding to the spatial acoustic transfer characteristics Hls, Hlo, Hro, and Hrs from the left and right speakers 5L and 5R to the left and right microphones 2L and 2R based on the collected sound signal. Also good.
  • the processing device 201 cuts out the spatial acoustic transfer characteristics Hls, Hlo, Hro, and Hrs with a predetermined filter length.
  • the processing device 201 may correct the measured spatial acoustic transfer characteristics Hls, Hlo, Hro, and Hrs.
  • the processing device 201 generates a spatial acoustic filter used for the convolution calculation of the out-of-head localization processing device 100.
  • the out-of-head localization processing apparatus 100 includes a spatial acoustic filter corresponding to spatial acoustic transfer characteristics Hls, Hlo, Hro, and Hrs between the left and right speakers 5L and 5R and the left and right microphones 2L and 2R.
  • the out-of-head localization processing is performed by convolving the spatial acoustic filter with the audio reproduction signal.
  • the processing apparatus 201 performs the same processing on the collected sound signals corresponding to the spatial acoustic transfer characteristics Hls, Hlo, Hro, and Hrs. That is, the same processing is performed on each of the four collected sound signals corresponding to the spatial acoustic transfer characteristics Hls, Hlo, Hro, and Hrs. Thereby, the spatial acoustic filters corresponding to the spatial acoustic transfer characteristics Hls, Hlo, Hro, and Hrs can be respectively generated.
  • FIG. 3 shows a configuration for performing the second preliminary measurement on the person to be measured 1.
  • the microphone unit 2 and the headphones 43 are connected to the processing apparatus 201.
  • the microphone unit 2 includes a left microphone 2L and a right microphone 2R.
  • the left microphone 2L is attached to the left ear 9L of the person 1 to be measured.
  • the right microphone 2R is attached to the right ear 9R of the measurement subject 1.
  • the processing device 201 and the microphone unit 2 may be the same as or different from the processing device 201 and the microphone unit 2 of FIG.
  • the headphone 43 has a headphone band 43B, a left unit 43L, and a right unit 43R.
  • the headphone band 43B connects the left unit 43L and the right unit 43R.
  • the left unit 43L outputs a sound toward the left ear 9L of the person 1 to be measured.
  • the right unit 43R outputs sound toward the right ear 9R of the person 1 to be measured.
  • the headphone 43 may be of any type, such as a sealed type, an open type, a semi-open type, or a semi-sealed type.
  • the microphone unit 2 is attached to the subject 1 with the headphone 43 being attached.
  • the left unit 43L and the right unit 43R of the headphones 43 are respectively attached to the left ear 9L and the right ear 9R to which the left microphone 2L and the right microphone 2R are attached.
  • the headphone band 43B generates a biasing force that presses the left unit 43L and the right unit 43R against the left ear 9L and the right ear 9R, respectively.
  • the left microphone 2L collects the sound output from the left unit 43L of the headphones 43.
  • the right microphone 2R collects the sound output from the right unit 43R of the headphones 43.
  • the microphone portions of the left microphone 2L and the right microphone 2R are arranged at a sound collection position near the outer ear hole.
  • the left microphone 2L and the right microphone 2R are configured not to interfere with the headphones 43. That is, the person to be measured 1 can wear the headphones 43 in a state where the left microphone 2L and the right microphone 2R are disposed at appropriate positions of the left ear 9L and the right ear 9R.
  • the processing device 201 outputs measurement signals to the left microphone 2L and the right microphone 2R. Thereby, the left microphone 2L and the right microphone 2R generate an impulse sound and the like. Specifically, the impulse sound output from the left unit 43L is measured by the left microphone 2L. The impulse sound output from the right unit 43R is measured by the right microphone 2R. In this way, impulse response measurement is performed.
  • the processing apparatus 201 stores a collected sound signal based on the impulse response measurement in a memory or the like.
  • the transfer characteristic between the left unit 43L and the left microphone 2L that is, the external ear canal transfer characteristic of the left ear
  • the transfer characteristic between the right unit 43R and the right microphone 2R that is, the external ear canal transfer characteristic of the right ear.
  • the measurement data ECTFL obtained by the left microphone 2L is the measurement data ECTFL
  • the measurement data ECTFR obtained by the right microphone 2R is the measurement data ECTFR.
  • measurement data ECTF of the ear canal transmission characteristics of both ears is defined as measurement data ECTF.
  • the processing device 201 has a memory for storing the measurement data ECTFL and ECTFR, respectively.
  • the processing device 201 generates an impulse signal, a TSP (Time Stretched Pulse) signal, or the like as a measurement signal for measuring the ear canal transfer characteristic or the spatial acoustic transfer characteristic.
  • the measurement signal includes measurement sound such as impulse sound.
  • the external auditory canal transfer characteristics and the spatial acoustic transfer characteristics of a plurality of persons to be measured 1 are measured by the measuring apparatus 200 shown in FIGS.
  • the first prior measurement according to the measurement configuration of FIG.
  • the 2nd prior measurement by the measurement structure of FIG.
  • the ear canal transfer characteristic and the spatial acoustic transfer characteristic are measured for each person to be measured 1.
  • FIG. 4 is a diagram showing an overall configuration of the out-of-head localization filter determination system 500.
  • the out-of-head localization filter determination system 500 includes the microphone unit 2, headphones 43, out-of-head localization processing device 100, and server device 300.
  • the out-of-head localization processing apparatus 100 and the server apparatus 300 are connected via a network 400.
  • the network 400 is, for example, a public network such as the Internet or a mobile phone communication network.
  • the out-of-head localization processing apparatus 100 and the server apparatus 300 can communicate with each other wirelessly or by wire.
  • the out-of-head localization processing apparatus 100 and the server apparatus 300 may be an integrated apparatus.
  • the out-of-head localization processing apparatus 100 is a user terminal that outputs a reproduction signal subjected to out-of-head localization processing to the user U. Furthermore, the out-of-head localization processing apparatus 100 measures the user U's ear canal transfer characteristics. Therefore, the microphone unit 2 and the headphones 43 are connected to the out-of-head localization processing apparatus 100. The out-of-head localization processing apparatus 100 performs impulse response measurement using the microphone unit 2 and the headphones 43, as in the measurement apparatus 200 of FIG. Note that the microphone unit 2 and the headphones 43 may be wirelessly connected by BlueTooth (registered trademark) or the like.
  • the out-of-head localization processing apparatus 100 includes an impulse response measurement unit 111, an ECTF characteristic acquisition unit 112, a transmission unit 113, a reception unit 114, an arithmetic processing unit 120, an inverse filter calculation unit 121, and a filter storage unit 122. , And a switch 124.
  • the apparatus may include an acquisition unit that acquires user data instead of the reception unit 114.
  • Switch 124 switches between user measurement and out-of-head localization playback. That is, in the case of user measurement, the switch 124 connects the headphones 43 and the impulse response measurement unit 111. In the case of out-of-head localization playback, the switch 124 connects the headphones 43 to the arithmetic processing unit 120.
  • the impulse response measurement unit 111 outputs a measurement signal serving as an impulse sound to the headphones 43 in order to perform user measurement.
  • the microphone unit 2 picks up the impulse sound output from the headphones 43.
  • the microphone unit 2 outputs the collected sound signal to the impulse response measuring unit 111.
  • the impulse response measurement is the same as that described with reference to FIG. That is, the out-of-head localization processing apparatus 100 has the same function as the processing apparatus 201 of FIG.
  • the impulse response measurement unit 111 that constitutes a measurement device in which the out-of-head localization processing device 100, the microphone unit 2, and the headphones 43 perform user measurement performs A / D conversion, synchronous addition processing, and the like on the collected sound signal. You may go.
  • the impulse response measurement unit 111 acquires measurement data ECTF related to the ear canal transfer characteristics.
  • the measurement data ECTTF includes measurement data ECTFL related to the external ear canal transfer characteristic of the left ear 9L of the user U and measurement data ECTFR related to the external ear canal transfer characteristic of the right ear 9R.
  • the ECTF characteristic acquisition unit 112 acquires the characteristics of the measurement data ECTFL and ECTFR by performing predetermined processing on the measurement data ECTFL and ECTFR. For example, the ECTF characteristic acquisition unit 112 calculates a frequency amplitude characteristic and a frequency phase characteristic by performing discrete Fourier transform. Further, the ECTF characteristic acquisition unit 112 may calculate the frequency amplitude characteristic and the frequency phase characteristic not only by the discrete Fourier transform but also by cosine transform or the like. Instead of the frequency amplitude characteristic, a frequency power characteristic may be used.
  • the ECTF characteristic acquisition unit 112 acquires the feature amount (feature vector) of the measurement data ECTF based on the frequency amplitude characteristic.
  • the feature quantity of the measurement data ECTFL is set as a feature quantity hpL
  • the feature quantity of the measurement data ECTFR is set as a feature quantity hpR.
  • the feature amount hpL represents a feature in the left ear of the user U
  • the feature amount hpR represents a feature in the right ear of the user U.
  • the feature quantities hpL and hpR are frequency amplitude characteristics of 2 kHz to 20 kHz. That is, the frequency amplitude characteristics in a part of the frequency bands can be set as the feature quantities hpL and hpR, respectively.
  • the feature quantities hpL and hpR are feature vectors having an amplitude value in the frequency domain of the ear canal transfer characteristic as a feature parameter.
  • the feature quantities hpL and hpR are in a multidimensional vector format and have the same number of dimensions. Further, the feature quantities hpL and hpR may be data obtained by smoothing the frequency amplitude characteristic of 2 kHz to 20 kHz.
  • the frequency band to be extracted is not limited to 2 kHz to 24 kHz.
  • a frequency band of 1 kHz to 16 kHz may be used, or a frequency band of 1 kHz to 24 kHz may be used.
  • the characteristic quantities hpL and hpR preferably include frequency amplitude characteristics of 1 kHz or more, and more preferably include frequency amplitude characteristics of 2 kHz or more.
  • data obtained by smoothing the frequency amplitude characteristic may be used as the feature amount.
  • the inverse filter calculation unit 121 calculates an inverse filter based on the characteristics of the measurement data ECTF. For example, the inverse filter calculation unit 121 corrects the frequency amplitude characteristic and the frequency phase characteristic of the measurement data ECTF.
  • the inverse filter calculation unit 121 calculates a time signal using frequency characteristics and phase characteristics by inverse discrete Fourier transform.
  • the inverse filter calculation unit 121 calculates an inverse filter by cutting out the time signal with a predetermined filter length.
  • the inverse filter is a filter that cancels the headphone characteristics (characteristics between the headphone reproduction unit and the microphone).
  • the filter storage unit 122 stores the left and right inverse filters calculated by the inverse filter calculation unit 121.
  • the calculation method of an inverse filter since a well-known method can be used, detailed description is abbreviate
  • the transmission unit 113 transmits the feature amount calculated by the ECTF characteristic acquisition unit 112 to the server apparatus 300 as user data.
  • the transmission unit 113 performs processing (for example, modulation processing) according to the communication standard on user data and transmits the user data.
  • the user data may be data based on user measurement.
  • the feature amounts hpL and hpR of the user U transmitted by the transmission unit 113 are denoted as feature amounts hpL_U and hpR_U.
  • FIG. 5 is a block diagram illustrating a control configuration of the server apparatus 300.
  • the server device 300 includes a reception unit 301, a comparison unit 302, a data storage unit 303, an extraction unit 304, and a transmission unit 305.
  • the server device 300 serves as a filter determination device that determines a spatial acoustic filter based on the feature amount.
  • the apparatus may not include the transmission unit 305.
  • the server device 300 is a computer including a processor and a memory, and performs the following processing according to a program.
  • the server device 300 is not limited to a single device, and may be realized by a combination of two or more devices, or may be a virtual server such as a cloud server.
  • the data storage unit that stores data, the comparison unit 302 that performs data processing, and the extraction unit 304 may be physically different devices.
  • the receiving unit 301 receives the feature amounts hpL_U and hpR_U transmitted from the out-of-head localization processing apparatus 100.
  • the receiving unit 301 performs processing (for example, demodulation processing) according to the communication standard on the received user data.
  • the comparison unit 302 compares the feature quantities hpL_U and hpR_U with preset data stored in the data storage unit 303.
  • the data storage unit 303 is a database that stores, as preset data, data related to a plurality of subjects measured in advance measurement.
  • the data stored in the data storage unit 303 will be described with reference to FIG.
  • FIG. 6 is a table showing data stored in the data storage unit 303.
  • the data storage unit 303 stores preset data for each of the left and right ears of the measurement subject.
  • the data storage unit 303 has a table format in which the measurement subject ID, the right and left of the ear, the feature amount, the spatial acoustic transfer characteristic 1 and the spatial acoustic transfer characteristic 2 are arranged in one line.
  • the data format shown in FIG. 6 is merely an example, and instead of a table format, a data format that associates and holds objects of parameters with tags or the like may be employed.
  • the data storage unit 303 In the data storage unit 303, two data sets are stored for one person A to be measured. That is, the data storage unit 303 stores a data set regarding the left ear of the person A to be measured and a data set regarding the right ear of the person A to be measured.
  • One data set includes a person-to-be-measured ID, right and left ears, feature amount, spatial acoustic transmission characteristic 1, and spatial acoustic transmission characteristic 2.
  • the feature amount is data based on the second prior measurement by the measurement apparatus 200 shown in FIG.
  • the feature amount is the same data as the feature amount acquired by the ECTF characteristic acquisition unit 112.
  • the feature amount is a frequency amplitude characteristic of 2 kHz to 20 kHz of the ear canal transmission characteristic.
  • the feature amount is also data obtained by smoothing the frequency amplitude characteristic.
  • the feature quantity of the subject A's left ear is indicated as a feature quantity hpL_A
  • the feature quantity of the subject A's right ear is indicated as a feature quantity hpR_A
  • the feature quantity of the subject B's left ear is indicated as a feature quantity hpL_B
  • the feature quantity of the subject B's right ear is indicated as a feature quantity hpR_B.
  • the spatial acoustic transfer characteristic 1 and the spatial acoustic transfer characteristic 2 are data based on the first preliminary measurement by the measuring apparatus 200 shown in FIG.
  • the spatial acoustic transfer characteristic 1 is Hls_A
  • the spatial acoustic transfer characteristic 2 is Hro_A
  • the spatial acoustic transfer characteristic 1 is Hrs_A
  • the spatial acoustic transfer characteristic 2 is Hlo_A.
  • Hls_B and Hro_B are paired for the left ear of the person to be measured B, and Hrs_B and Hlo_B are paired for the right ear of the person to be measured B.
  • the spatial acoustic transfer characteristic 1 and the spatial acoustic transfer characteristic 2 may be data after being cut out by the filter length, or may be data before being cut out by the filter length.
  • the feature quantity hpL_A, the spatial acoustic transmission characteristic Hls_A, and the spatial acoustic transmission characteristic Hro_A are associated with each other to form one data set.
  • the feature quantity hpR_A, the spatial acoustic transmission characteristic Hrs_A, and the spatial acoustic transmission characteristic Hlo_A are associated with each other to form one data set.
  • the feature value hpL_B, the spatial acoustic transfer characteristic Hls_B, and the spatial acoustic transfer characteristic Hro_B are associated with each other to form one data set.
  • the feature quantity hpR_B, the spatial acoustic transfer characteristic Hrs_B, and the spatial acoustic transfer characteristic Hlo_B are associated with each other to form one data set.
  • the pair of spatial acoustic transfer characteristics 1 and 2 is the first preset data. That is, the spatial acoustic transfer characteristic 1 and the spatial acoustic transfer characteristic 2 constituting one data set are set as the first preset data.
  • the feature amount is set as second preset data.
  • a feature amount constituting one data set is set as second preset data.
  • One data set includes first preset data and second preset data.
  • the data storage unit 303 stores the first preset data and the second preset data in association with the left and right ears of the measurement subject.
  • the data storage unit 303 stores 2n data sets corresponding to both ears.
  • the feature amounts stored in the data storage unit 303 are indicated as feature amounts hpL_A to hpL_N and hpR_A to hpR_N.
  • the feature quantities hpL_A to hpL_N are feature vectors extracted from the external auditory canal transfer characteristics regarding the left ears of the subjects A to N.
  • the feature values hpR_A to hpR_N are feature vectors extracted from the external auditory canal transfer characteristics regarding the right ears of the subjects A to N.
  • the comparison unit 302 compares the feature quantity hpL_U with each of the feature quantities hpL_A to hpL_N and hpR_A to hpR_N. Then, the comparison unit 302 selects one of the 2n feature quantities hpL_A to hpL_N and hpR_A to hpR_N that is most similar to the feature quantity hpL_U. Here, the correlation between two feature quantities is calculated as a similarity score. The comparison unit 302 selects a feature data set having the highest similarity score. Here, assuming that the left ear of the person to be measured l is selected, the selected feature quantity hpL is defined as a feature quantity hpL_l.
  • the comparison unit 302 compares the feature quantity hpR_U with the feature quantities hpL_A to hpL_N and hpR_A to hpR_N, respectively. Then, the comparison unit 302 selects one of the 2n feature quantities hpL_A to hpL_N and hpR_A to hpR_N that is most similar to the feature quantity hpR_U.
  • the right ear of the measurement subject m is selected, and the selected feature value is a feature value hpR_m.
  • the comparison unit 302 outputs the comparison result to the extraction unit 304. Specifically, the measurement subject ID of the second preset data with the highest similarity score and the left and right ears are output to the extraction unit 304.
  • the extraction unit 304 extracts first preset data based on the comparison result.
  • the extraction unit 304 reads from the data storage unit 303 the spatial acoustic transfer characteristic corresponding to the feature quantity hpL_l from the data storage unit 303.
  • the extraction unit 304 refers to the data storage unit 303 and extracts the spatial acoustic transfer characteristic Hls_l and the spatial acoustic transfer characteristic Hro_l of the left ear of the measurement subject l.
  • the extraction unit 304 reads, from the data storage unit 303, the spatial acoustic transfer characteristic corresponding to the feature quantity hpR_m from the data storage unit 303.
  • the extraction unit 304 refers to the data storage unit 303 and extracts the spatial acoustic transfer characteristic Hrs_m and the spatial acoustic transfer characteristic Hlo_m of the left ear of the measurement subject m.
  • the comparison unit 302 compares the user data with a plurality of second preset data. Then, the extraction unit 304 extracts first preset data suitable for the user based on the comparison result between the second preset data and the user data.
  • the transmitting unit 305 transmits the first preset data extracted by the extracting unit 304 to the out-of-head localization processing apparatus 100.
  • the transmission unit 305 performs processing (for example, modulation processing) according to the communication standard on the first preset data and transmits the first preset data.
  • processing for example, modulation processing
  • the spatial acoustic transfer characteristic Hls_l and the spatial acoustic transfer characteristic Hro_l are extracted as the first preset data
  • the spatial acoustic transfer characteristic Hrs_m and the spatial acoustic transfer characteristic Hlo_m are the first. Is extracted as preset data.
  • the transmission unit 305 transmits the spatial acoustic transmission characteristic Hls_l, the spatial acoustic transmission characteristic Hro_l, the spatial acoustic transmission characteristic Hrs_m, and the spatial acoustic transmission characteristic Hlo_m to the out-of-head localization processing apparatus 100.
  • the receiving unit 114 receives the first preset data transmitted from the transmitting unit 305.
  • the receiving unit performs processing (for example, demodulation processing) according to the communication standard on the received first preset data.
  • the receiving unit 114 receives the spatial acoustic transfer characteristic Hls_l and the spatial acoustic transfer characteristic Hro_l as the first preset data relating to the left ear, and the spatial acoustic transfer characteristic Hrs_m and the spatial acoustic transfer characteristic as the first preset data relating to the right ear. Hlo_m is received.
  • storage part 122 memorize
  • the out-of-head localization processing apparatus 100 stores the first preset data as it is as a spatial acoustic filter.
  • the spatial acoustic transfer characteristic Hls_l becomes the spatial acoustic transfer characteristic Hls of the user U.
  • the out-of-head localization processing apparatus 100 performs a process of cutting out the spatial acoustic transfer characteristic into the filter length.
  • the arithmetic processing unit 120 performs arithmetic processing using a spatial acoustic filter corresponding to the four spatial acoustic transfer characteristics Hls, Hlo, Hro, and Hrs and an inverse filter.
  • the arithmetic processing unit 120 includes the out-of-head localization processing unit 10 shown in FIG. 1, a filter unit 41, and a filter unit 42. Therefore, the arithmetic processing unit 120 performs the above convolution arithmetic processing on the stereo input signal using the four spatial acoustic filters and the two inverse filters.
  • the data storage unit 303 stores the first preset date and the second preset data in association with each person to be measured 1.
  • the first preset data is data relating to the spatial acoustic transfer characteristics of the person to be measured 1.
  • the second preset data is data related to the ear canal transfer characteristics of the person to be measured 1.
  • the comparison unit 302 compares the user data with the second preset data.
  • the user data is data related to the ear canal transfer characteristic obtained by the user measurement.
  • the comparison part 302 determines the to-be-measured person 1 similar to a user's ear canal transmission characteristic, and the right and left of an ear.
  • the extraction unit 304 reads the first preset data corresponding to the determined measurement subject and the left and right sides of the ear. Then, the transmission unit 305 transmits the extracted first preset data to the out-of-head localization processing apparatus 100.
  • the out-of-head localization processing apparatus 100 which is a user terminal, performs out-of-head localization processing using a spatial acoustic filter based on the first preset data and an inverse filter based on the measurement data.
  • an appropriate filter can be determined without the user U measuring the spatial acoustic transfer characteristics. Therefore, it is not necessary for the user to go to a listening room or to install a speaker or the like in the user's house.
  • User measurement is performed with headphones attached. That is, if the user U wears headphones and a microphone, the individual ear canal transfer characteristic can be measured. Therefore, it is possible to realize out-of-head localization with a high localization effect by a simple and simple method.
  • the headphones 43 used for the user measurement and the out-of-head localization listening are of the same type.
  • the ECTF characteristic acquisition unit 112 calculates the frequency amplitude characteristics of the high frequency band in which the characteristic easily appears as the characteristic amounts hpL and hpR. Then, by comparing the feature amounts of the person to be measured and the user, it is possible to select persons to be measured having similar characteristics. Since the extraction unit 304 extracts the first preset data of the selected subject's ear, a high out-of-head localization effect can be expected.
  • the comparison unit 302 does not have to directly compare the received user data with the stored second preset data. That is, the comparison unit 302 may perform comparison after performing arithmetic processing on at least one of the received user data and the stored second preset data. For example, when the user data and the second preset data have frequency amplitude characteristics of 2 kHz to 20 kHz, the comparison unit 302 may perform a smoothing process on each frequency amplitude characteristic. And the comparison part 302 may compare the frequency amplitude characteristic after a smoothing process.
  • the comparison unit 302 determines that the frequency band of 2 kHz to 20 kHz from the user data. The frequency-amplitude characteristics of the above may be extracted. Then, the comparison unit 302 may compare the extracted frequency amplitude characteristics. As described above, the comparison in the comparison unit 302 not only directly compares the user data and the second preset data, but also compares the data obtained from the user data with the data obtained from the second preset data. Including doing. In addition, the amount of data can be reduced by using the feature amount instead of the ear canal transmission characteristic itself as the second preset data. In addition, since it is not necessary to obtain the feature amount every time the comparison is performed, the processing burden on the server device 300 can be reduced.
  • FIG. 7 is a flowchart showing a method for determining an out-of-head localization filter. Note that the measurement apparatus 200 performs first and second preliminary measurements before the flow shown in FIG. 7 is performed. That is, the process of FIG. 7 is performed in a state where the data storage unit 303 stores a plurality of data sets.
  • the impulse response measurement unit 111 performs user measurement (S11). Thereby, the impulse response measurement unit 111 acquires measurement data ECTFL and ECTFR related to the user U's ear canal transfer characteristics. Then, the ECTF characteristic acquisition unit 112 calculates feature quantities hpL_U and hpR_U from the measurement data ECTFL and ECTFR (S12). The ECTF characteristic acquisition unit 112 performs Fourier transform on the measurement data of the ear canal transmission characteristic to calculate the frequency amplitude characteristic. The ECTF characteristic acquisition unit 112 extracts a frequency amplitude characteristic in a predetermined frequency band and smoothes it. Thereby, the feature quantities hpL_U and hpR_U serving as user data are calculated. The transmission unit 113 transmits the feature amounts hpL_U and hpR_U to the server device 300 (S13).
  • the comparison unit 302 calculates a similarity score between the feature quantity hpL_U and all the feature quantities hpL_A to hpL_N and hpR_A to hpR_N in the data storage unit 303. (S14). Then, the comparison unit 302 selects the data set having the highest similarity score (S15). Note that the correlation between two feature quantities can be used as a similarity score.
  • the similarity score is not limited to the correlation value, but may be a distance vector size (Euclidean distance), cosine similarity (cosine distance), Mahalanobis distance, Pearson correlation coefficient, or the like.
  • the comparison unit 302 selects the data set having the highest similarity score.
  • the extraction unit 304 extracts the first preset data of the data set having the highest similarity score (S16). That is, the extraction unit 304 reads one first preset data out of 2n first preset data.
  • the comparison unit 302 calculates a similarity score between the feature value hpR_U of the user U and all the feature values hpL_A to hpL_N and hpR_A to hpR_N stored in the data storage unit 303 (S17). Then, the comparison unit 302 selects the data set having the highest similarity score (S18). The extraction unit 304 extracts the first preset data of the data set having the highest similarity score (S19). That is, the extraction unit 304 reads one first preset data out of 2n first preset data.
  • the transmission unit 305 transmits the two first preset data extracted in S16 and S19 to the out-of-head localization processing apparatus 100 (S20). Thereby, the transmission unit 305 transmits the four spatial acoustic transfer characteristics to the out-of-head localization processing apparatus 100. Note that the order of the comparison processing and the extraction processing for the left and right feature amounts may be reversed, or may be processed in parallel.
  • the reason for extracting the spatial acoustic transfer characteristic from the similarity of the external auditory canal transfer characteristic will be described.
  • the spatial acoustic transmission characteristics of others are similar to the user's own spatial acoustic transmission characteristics.
  • the effect may be small at a high frequency where the influence of individuality is exerted.
  • the high frequency band is mainly affected by the outer ear.
  • the external auditory canal transmission characteristic is a transmission characteristic when headphones are worn, and the influence of the external ear is often included.
  • the comparison unit 302 extracts the spatial acoustic transfer characteristics of the measurement subject having the ear canal transfer characteristics with similar frequency amplitude characteristics in the high frequency band.
  • the feature amount preferably includes a frequency amplitude characteristic in a high frequency band equal to or higher than a predetermined frequency.
  • the predetermined frequency is preferably 1 kHz to 3 kHz.
  • the feature amount is data obtained by smoothing the frequency amplitude characteristic of 2 kHz to 20 kHz of the ear canal transmission characteristic. Then, a correlation value between the feature values of the two ears is calculated. Further, a correlation value between the spatial acoustic transfer characteristics Hls of the left and right ears of the subjects A to E or the spatial acoustic transfer characteristics Hrs is calculated. Here, the correlation value of the frequency amplitude characteristic of 2 kHz to 20 kHz of the two spatial acoustic transfer characteristics is calculated. When the correlation value (similarity score) between the two feature amounts is high, the correlation value of the spatial acoustic transfer characteristic Hls or the spatial acoustic transfer characteristic Hrs is high.
  • Measurement data 1 (measured person B's left ear and measured person B's right ear) Feature value correlation value: 0.940508 Correlation value between spatial acoustic transfer characteristic Hls_B and spatial acoustic transfer characteristic Hrs_B: 0.899687
  • Measurement data 2 (the right ear of the subject C and the left ear of the subject D) Feature value correlation value: 0.9625504 Correlation value between spatial acoustic transfer characteristic Hrs_C and spatial acoustic transfer characteristic Hls_D: 0.711014
  • Measurement data 3 (the right ear of the subject B and the right ear of the subject C) Correlation value of feature amount: 0.898839 Correlation value between spatial acoustic transfer characteristic Hrs_B and spatial acoustic transfer characteristic Hrs_C: 0.859318
  • Measurement data 4 (the subject A's left ear and the subject B's right ear) Feature value correlation value: 0.105869 Correlation value between spatial acoustic transfer characteristic Hls_A and spatial acoustic transfer characteristic Hrs_B: 0.328452
  • Measurement data 5 (the right ear of the subject A and the left ear of the subject D) Feature value correlation value: 0.480002 Correlation value between spatial acoustic transfer characteristic Hrs_A and spatial acoustic transfer characteristic Hls_D: 0.388985
  • the correlation value between feature quantities and the correlation value between spatial acoustic transfer characteristics are highly correlated.
  • the correlation value of the spatial acoustic transfer characteristic is also high.
  • the correlation value of the spatial acoustic transfer characteristic is also low.
  • the frequency amplitude characteristic of 2 kHz or more of the external auditory canal transfer characteristic is used as the feature amount.
  • the comparison unit 302 compares the feature amount with the second preset data in the data storage unit 303. And the comparison part 302 selects a to-be-measured person with a high correlation value based on a comparison result.
  • At least the preset data in the data storage unit 303 is desirably data measured under the same environment and conditions. For example, it is preferable that the microphone unit 2 used in the first preliminary measurement and the second preliminary measurement is the same. Moreover, it is preferable that the headphones 43 used for the second preliminary measurement, the user measurement, and the out-of-head localization listening are of the same type.
  • FIG. 8 and 9 show measurement data of the external auditory canal transfer characteristics and spatial acoustic transfer characteristics of a plurality of subjects.
  • FIG. 8 is a diagram showing the external auditory canal transfer characteristic and the spatial acoustic transfer characteristic Hls of the left ear of twelve measured persons.
  • FIG. 9 is a diagram illustrating the external ear canal transfer characteristic and the spatial acoustic transfer characteristic Hls of the right ear of twelve measured persons. 8 and 9 show frequency amplitude characteristics of 2 kHz to 20 kHz.
  • the waveforms of the external auditory canal transmission characteristic and the spatial acoustic transmission characteristic are greatly different depending on the person to be measured or the ear. Therefore, it is difficult to directly calculate the spatial acoustic transfer characteristic from the external auditory canal transfer characteristic. In the user terminal, it is difficult to calculate the spatial acoustic transfer characteristics. Therefore, in the present embodiment, the feature amounts of the ear canal transfer characteristics are compared, and the spatial acoustic transfer characteristics are extracted based on the comparison result.
  • the same person to be measured has different shape and position of ears on the left and right, so the spatial acoustic transmission characteristics differ between the left and right ears. Therefore, it is preferable to handle the left and right ears separately for the pairing of the spatial acoustic transfer characteristics. That is, the feature quantity hpL, the spatial acoustic transfer characteristic Hls, and the spatial acoustic transfer characteristic Hro are set as one data set for the left ear, and the feature quantity hpR, the spatial acoustic transfer characteristic Hrs, and the spatial acoustic transfer characteristic Hro are set as 1 for the right ear. One data set. Thereby, an out-of-head localization filter can be determined appropriately.
  • the user data transmitted by the transmission unit 113 is not limited to the feature quantity, but may be the measurement data ECTF itself.
  • the measurement data ECTF may be time domain data or frequency domain data.
  • the transmission unit 113 may transmit the frequency amplitude characteristics in all frequency bands to the server device 300 as user data.
  • the second preset data is not limited to the feature amount of the ear canal transmission characteristic.
  • the second preset data may be ear canal transfer characteristics in the entire frequency band.
  • the second preset data may be a time-domain ear canal transfer characteristic.
  • the second preset data may be data regarding the ear canal transfer characteristics of the measurement subject. Then, the comparison unit 302 may process the second preset data and the user data to calculate the feature amount in the same format.
  • the first preset data is not limited to the spatial acoustic transfer characteristics in the time domain.
  • the first preset data may be a spatial acoustic transfer characteristic in the frequency domain.
  • the data storage unit 303 may store a data set for each person to be measured instead of storing a data set for each ear. That is, one data set may include four spatial acoustic transfer characteristics Hls, Hlo, Hro, and Hrs, and feature amounts of measurement data of binaural ear canal transfer characteristics.
  • the frequency amplitude characteristic and the frequency phase characteristic of each data may be a Log scale or a linear scale.
  • the first and second preset data may include other parameters and feature amounts.
  • a specific example of the data format of the preset data will be described with reference to FIGS.
  • FIG. 10 is a table showing the data format of preset data in the first modification.
  • the second parameter is the ear canal transfer characteristic measurement data ECTFL, ECTFR itself.
  • the measurement data ECTFL and ECTFR of the second preliminary measurement may be time domain data or frequency domain data.
  • the user data transmitted by the out-of-head localization processing apparatus 100 may be measurement data ECTFL and ECTFR.
  • the comparison unit 302 calculates a feature amount from the measurement data.
  • the data storage unit 303 stores the measurement data ECTF itself, not the feature value, so that the feature value to be compared can be appropriately changed. That is, the feature amount can be reviewed so that a more suitable out-of-head localization filter can be determined. Further, the measurement data ECTFL and ECTFR may be used as they are as feature quantities.
  • the pairing of the spatial acoustic transfer characteristics in the first preset data is different from that in FIG.
  • a pair of the spatial acoustic transmission characteristic Hls and the spatial acoustic transmission characteristic Hlo is associated with the measurement data ECTFL of the external auditory canal transmission characteristic.
  • the data set for the left ear of the person A to be measured includes measurement data ECTFL_A, a spatial acoustic transfer characteristic Hls_A, and a spatial acoustic transfer characteristic Hlo_A.
  • a pair of the spatial acoustic transmission characteristic Hrs and the spatial acoustic transmission characteristic Hro is associated with the measurement data ECTFR of the ear canal transmission characteristic.
  • the data set for the right ear of the measurement subject B includes measurement data ECTFR_B, a spatial acoustic transfer characteristic Hrs_B, and a spatial acoustic transfer characteristic Hro_B.
  • the spatial acoustic transfer characteristics Hls and Hrs have higher energy than the spatial acoustic transfer characteristics Hlo and Hro. For this reason, as shown in FIG. 10, a pair of spatial acoustic transfer characteristics included in the data set may be set.
  • the spatial acoustic transfer functions Hls and Hrs of the ear close to the speaker pass through the transfer path outside the head. Therefore, it is considered that the spatial acoustic transfer functions Hls and Hrs are strongly influenced by the outer ear.
  • the spatial acoustic transfer function Hls and the spatial acoustic transfer function Hlo are paired, and the spatial acoustic transfer function Hrs and the spatial acoustic transfer function Hro are paired.
  • the ear canal transmission characteristic most similar to the ear canal transmission characteristic of the user U's left ear may be the right ear data of the person to be measured 1.
  • the ear canal transmission characteristic most similar to the ear canal transmission characteristic of the right ear of the user U may be data of the left ear of the person to be measured 1.
  • FIG. 11 is a table showing the data format of preset data in the second modification.
  • the first preset data includes a delay amount (delay) and a level (level) in addition to the spatial acoustic transfer characteristic 1 and the spatial acoustic transfer characteristic 2.
  • the delay amount indicates a difference in arrival time between the spatial acoustic transfer characteristic 1 and the spatial acoustic transfer characteristic 2.
  • the delay amount ITDL_A is the difference between the arrival time of the impulse sound in the spatial acoustic transfer characteristic Hls_A and the arrival time of the impulse sound in the spatial acoustic transfer characteristic Hlo_A.
  • the amount of delay is a value corresponding to the size of the head of the person being measured.
  • the level is the difference between the amplitude level of the spatial acoustic transfer characteristic 1 and the amplitude level of the spatial acoustic transfer characteristic.
  • the level ILDL_A is a difference between the average value of the frequency amplitude characteristic of the spatial acoustic transfer characteristic Hls_A in the entire frequency band and the average value of the frequency amplitude characteristic of the spatial acoustic transfer characteristic Hlo_A in the entire frequency band.
  • the transmission part 305 transmits such a feature-value to the out-of-head localization processing apparatus 100.
  • the out-of-head localization processing apparatus 100 adjusts such a feature amount by an audibility test by the user U or the like.
  • the spatial acoustic filter can be optimized using the adjusted feature amount.
  • the delay amount may be set to 0, and the delay amounts of the spatial acoustic transfer characteristics Hlo and Hro may be appropriately changed.
  • the user U may adjust the amount of delay in order to improve the localization effect even in a low frequency band.
  • the user independently adjusts the delay amount between the spatial acoustic transmission characteristic Hls and the spatial acoustic transmission characteristic Hlo and the delay amount between the spatial acoustic transmission characteristic Hrs and the spatial acoustic transmission characteristic Hro.
  • the spatial acoustic transmission characteristics may be delayed by a delay amount corresponding to the length around the head.
  • the user U may input a measurement value of the length around the head and a hat size.
  • the spatial acoustic transmission characteristics Hlo and Hro can be delayed from the spatial acoustic transmission characteristics Hls and Hrs by a delay amount corresponding to the length of the head circumference.
  • the phase difference (delay amount) in the middle / low range may be calculated by numerically inputting the left and right ear widths and the head circumference of the user U. Then, the amount of delay and the level difference may be reflected in the spatial acoustic transmission characteristics Hls and Hrs on the side of the measurement subject and the spatial acoustic transmission characteristics Hlo and Hro on the crosstalk side. As described above, it is possible to calculate the spatial acoustic filter in consideration of the delay amount and the level.
  • the second preset data includes feature values hpL and hpR and measurement data ECTFL and ECTFR of the ear canal transfer characteristics. Since the second preset data has the feature value, it is not necessary to calculate the feature value from the ear canal transfer characteristic at the time of comparison. Therefore, processing can be simplified. Further, the second preset data includes the measurement data of the ear canal transfer characteristic, so that the feature amount can be reviewed. For example, it is possible to change the frequency band of the frequency amplitude characteristic that becomes the feature amount.
  • FIG. 12 is a table showing a data format of preset data in the third modification.
  • the first preset data has the frequency phase characteristic 1 of the spatial acoustic transfer characteristic, the frequency phase measurement 2, the frequency amplitude characteristic 1, and the frequency amplitude characteristic 2.
  • the second preset data has a feature amount 1 and a feature amount 2.
  • Feature 1 is a frequency amplitude characteristic at 2 kHz to 20 kHz of the ear canal transmission characteristic.
  • the feature amount 2 is a frequency amplitude characteristic in a low frequency band of less than 2 kHz of the ear canal transmission characteristic.
  • the similarity score can be calculated by weighting two types of feature amounts.
  • the data storage unit 303 stores spatial acoustic transfer characteristics in the frequency domain as first preset data.
  • the frequency amplitude characteristic Hls_am_A and the frequency phase characteristic Hls_p_A are calculated by performing Fourier transform on the spatial acoustic transfer characteristic Hls_A in the time domain.
  • the data storage unit 303 stores frequency amplitude characteristics and frequency phase characteristics as first preset data.
  • the transmission unit 305 transmits the frequency amplitude characteristic and the frequency phase characteristic of the extracted data set to the out-of-head localization processing apparatus 100.
  • the out-of-head localization processing apparatus 100 generates a spatial acoustic filter having a spatial acoustic transmission characteristic based on the frequency amplitude characteristic and the frequency phase characteristic.
  • the server apparatus 300 may produce
  • the spatial acoustic filter generated by the server device 300 may be transmitted to the out-of-head localization processing device 100. Further, the server apparatus 300 may perform part of the filter generation processing, and the out-of-head localization processing apparatus 100 may perform the remaining processing.
  • the user terminal that becomes the out-of-head localization processing apparatus 100 is a personal computer, a smart phone, a portable music player, an mp3 player, or a tablet terminal.
  • the user terminal is not limited to a physically single device.
  • the user terminal may have a configuration in which a portable music player and a personal computer are combined.
  • the portable music player connected to the headphones has a function of generating a measurement signal
  • the personal computer connected to the microphone unit has a function of storing measurement data and a communication function of transmitting user data.
  • the user terminal that performs user measurement and the user terminal that performs out-of-head localization processing may be different terminals. By doing so, the user can listen to the reproduction signal subjected to the out-of-head localization process using an arbitrary user terminal. Furthermore, the user can share the same out-of-head localization filter with a plurality of terminals (playback apparatuses). In this case, the same out-of-head localization filter is set for the same headphones 43, and different out-of-head localization filters are set for the different headphones 43.
  • the user data may be measurement data itself obtained by measurement, or a part of measurement data extracted from the measurement data. Furthermore, the user data may be data obtained by performing a process such as smoothing on the measurement data.
  • a plurality of first preset data having a high degree of similarity may be presented and selected by the user U.
  • the comparison unit 302 selects three data sets having a high similarity score.
  • the transmission unit 305 transmits three first preset data for one ear.
  • the user U listens to out-of-head localization using three pieces of first preset data, the user U may select the first preset data that is optimal.
  • the out-of-head localization filter may be corrected according to the sense of hearing.
  • weighting may be performed according to the frequency. Or you may change the frequency band used as a feature-value. Since the influence of the outer ear on the audibility effect is about 2 kHz to about 16 kHz, it is desirable that the feature amount includes the amplitude value of this band.
  • the frequency amplitude characteristic may be a log scale or a linear scale.
  • the data storage unit 303 may store the ear canal transfer characteristic measurement data ECTF itself, and the comparison unit 302 may calculate the feature amount. Therefore, the second preset data stored in the data storage unit 303 may be data regarding the ear canal transmission characteristics of the ear of the measurement subject.
  • the second preset data may be a time domain ear canal transfer characteristic or a frequency domain ear canal transfer characteristic. Further, the second preset data may be data obtained by extracting a part of the ear canal transfer characteristic. Further, the second preset data may be data obtained by performing a process such as a smoothing process on the measurement data of the ear canal transfer function.
  • the first preset data may be data relating to the spatial acoustic transfer characteristics of the left and right ears of the person to be measured 1.
  • the first preset data may be a spatial acoustic transmission characteristic in the time domain or a spatial acoustic transmission characteristic in the frequency domain. Further, the first preset data may be data obtained by extracting a part of the spatial acoustic transfer characteristics.
  • the preset data can be increased sequentially. That is, when a new user (a person to be measured) measures the spatial acoustic transfer characteristic in addition to the measurement of the ear canal transfer characteristic, a new data data set is added based on the measurement data. In this way, since the number of data sets of candidate preset data can be increased sequentially, an out-of-head localization processing filter suitable for the user U can be determined.
  • the server device 300 may collect preset data from a plurality of measurement devices 200.
  • the server apparatus 300 acquires preset data from a plurality of measurement apparatuses 200 via a network such as the Internet. In this way, the number of candidate preset data sets can be increased. Therefore, a filter more suitable for the user U can be determined.
  • the headphones 43 and the microphone unit 2 may input and output signals wirelessly. Further, an earphone or the like can be used instead of the headphone 43 as an output unit for outputting sound to the user's ear.
  • the data in the data storage unit 303 may be grouped in advance for each measurement environment (listening room, studio, etc.) (or may be linked with a tag or the like). Then, the user terminal displays a plurality of listening rooms for the user U. The listening room that the user U wants to listen to is selected.
  • the server device 300 calculates the similarity with the feature amount associated with the designated listening room, and the first preset data set of the measurement subject having a high correlation is calculated as the user terminal.
  • the user U can audition by the out-of-head low-level process using the first preset data, and after the audition, purchase it and pay for it if he likes it. Consideration (for example, several percent) based on the price may be paid to the measurement subject who provided the data.
  • Non-transitory computer readable media include various types of tangible storage media.
  • Examples of non-transitory computer-readable media include magnetic recording media (for example, flexible disks, magnetic tapes, hard disk drives), magneto-optical recording media (for example, magneto-optical disks), CD-ROMs (Read Only Memory), CD-Rs, CD-R / W, semiconductor memory (for example, mask ROM, PROM (Programmable ROM), EPROM (Erasable PROM), flash ROM, RAM (Random Access Memory)).
  • the program may be supplied to a computer by various types of temporary computer readable media.
  • Examples of transitory computer readable media include electrical signals, optical signals, and electromagnetic waves.
  • the temporary computer-readable medium can supply the program to the computer via a wired communication path such as an electric wire and an optical fiber, or a wireless communication path.
  • This disclosure is applicable to out-of-head localization processing technology.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Stereophonic System (AREA)

Abstract

本実施の形態にかかるヘッドホン(43)と、マイクユニット(2)と、頭外定位処理装置(100)と、サーバ装置(300)と、を備えた頭外定位フィルタ決定システムである。頭外定位処理装置(100)は、測定データに基づくユーザデータを前記サーバに送信する。サーバ装置(300)は、複数の被測定者に対して取得された複数の第1及び第2のプリセットデータを記憶するデータ格納部(303)と、ユーザデータを複数の第2のプリセットデータと比較する比較部(302)と、比較結果に基づいて、複数の第1のプリセットデータの中から第1のプリセットデータを抽出する抽出部(304)と、を備えている。

Description

頭外定位フィルタ決定システム、頭外定位フィルタ決定装置、頭外定位決定方法、及びプログラム
 本発明は、頭外定位フィルタ決定システム、頭外定位フィルタ決定装置、頭外定位決定方法、及びプログラムに関する。
 音像定位技術として、ヘッドホンを用いて受聴者の頭部の外側に音像を定位させる頭外定位技術がある。頭外定位技術では、ヘッドホンから耳までの特性をキャンセルし、ステレオスピーカから耳までの4本の特性を与えることにより、音像を頭外に定位させている。
 頭外定位再生においては、2チャンネル(以下、chと記載)のスピーカから発した測定信号(インパルス音等)を聴取者本人(ユーザ)の耳に設置したマイクロフォン(以下、マイクとする)で録音する。そして、インパルス応答で得られた収音信号に基づいて、処理装置がフィルタを作成する。作成したフィルタを2chのオーディオ信号に畳み込むことにより、頭外定位再生を実現することができる。
 特許文献1には、頭外音像定位フィルタを用いた両耳聴装置が開示されている。この装置では、多数の人間のあらかじめ測定された空間伝達関数を人間の聴覚特性に対応する特徴パラメータベクトルに変換している。そして、装置は、クラスタリングを行って少数に集約したデータを用いている。さらに、装置は、予め測定された空間伝達関数と、実耳ヘッドホン逆伝達関数を人間の身体的寸法によりクラスタリングを行っている。そして、各クラスタの重心に最も近い人間のデータを用いている。
 特許文献2では、ヘッドホンを用いた立体音再生装置が開示されている。特許文献2の装置では、ユーザの片耳の第1部位の深さを計測している。そして、その深さに基づいて、頭部伝達関数データベースの中から、ユーザに個人的適応化した頭部伝達関数を読み出している。
 特許文献3,4では、聴感テストの結果から、ユーザが複数のフィルタから最適なフィルタを選択する方法が開示されている。
特開平8-111899号公報 特開2015-211235号公報 特開2017-41766号公報 特開2017-28525号公報
 しかしながら、特許文献1の装置では、身体的寸法によりクラスタリングを行っているため、ユーザ個人の身体的寸法を計測する必要がある。また、クラスタリングを適切に行うことができないおそれがある。この場合、ユーザに適した頭外音像定位フィルタを用いることができないという課題がある。
 特許文献2では、耳の第1部位の深さを計測する必要がある。よって、ユーザ自身が自分の耳の深さを計測することは困難である。また、特許文献1、2の方法では、計測者によって、計測寸法のデータがばらつくおそれがある。
 特許文献3、4の方法では、提示された数パターンのプリセット特性をユーザが全て聴取する必要がある。よって、パターン数が増えると、試聴時間が長くなってしまうという課題がある。
 本実施形態は上記の点に鑑みなされたもので、頭外定位フィルタを適切に決定することができる頭外定位フィルタ決定システム、頭外定位フィルタ決定装置、頭外定位フィルタ決定方法、及びプログラムを提供することを目的とする。
 本実施形態にかかる頭外定位フィルタ決定システムは、ユーザに装着され、前記ユーザの耳に向けて音を出力する出力ユニットと、前記ユーザの耳に装着され、前記出力ユニットから出力された音を収音するマイクユニットと、前記出力ユニットに対して測定信号を出力するとともに、前記マイクユニットから出力された収音信号を取得するユーザ端末と、前記ユーザ端末と通信可能なサーバ装置と、を備えた頭外定位フィルタ決定システムであって、前記ユーザ端末は、前記出力ユニットと前記マイクユニットとを用いて前記ユーザの耳の外耳道伝達特性に関する測定データを測定する測定部と、前記測定データに基づくユーザデータを前記サーバ装置に送信する送信部を備え、前記サーバ装置は、音源から被測定者の耳までの空間音響伝達特性に関する第1のプリセットデータと、前記被測定者の耳の外耳道伝達特性に関する第2のプリセットデータとを対応付けて記憶するデータ格納部であって、複数の被測定者に対して取得された複数の前記第1及び第2のプリセットデータを記憶するデータ格納部と、前記ユーザデータを複数の前記第2のプリセットデータと比較する比較部と、前記比較部での比較結果に基づいて、複数の前記第1のプリセットデータの中から第1のプリセットデータを抽出する抽出部と、を備えたものである。
 本実施形態にかかる頭外定位フィルタ決定装置は、ユーザの耳の外耳道伝達特性に関する測定データに基づくユーザデータを取得する取得部と、音源から被測定者の耳までの空間音響伝達特性に関する第1のプリセットデータと、前記被測定者の耳の外耳道伝達特性に関する第2のプリセットデータとを対応付けて記憶するデータ格納部であって、複数の被測定者に対して取得された複数の前記第1及び第2のプリセットデータを格納するデータ格納部と、前記ユーザデータと、複数の前記第2のプリセットデータと、を比較することで、複数の前記第1のプリセットデータの中から第1のプリセットデータを抽出する抽出部と、を備えたものである。
 本実施形態にかかる頭外定位フィルタ決定装置は、ユーザの耳の外耳道伝達特性に関する測定データに基づくユーザデータを取得するステップと、音源から被測定者の耳までの空間音響伝達特性に関する第1のプリセットデータと、前記被測定者の耳の外耳道伝達特性に関する第2のプリセットデータとを対応付けて、複数の被測定者に対して取得された複数の前記第1及び第2のプリセットデータを記憶するステップと、前記ユーザデータと、複数の前記第2のプリセットデータと、を比較することで、複数の前記第1のプリセットデータの中から第1のプリセットデータを抽出するステップと、を含む頭外定位フィルタ決定方法。
 本実施形態にかかるプログラムは、コンピュータに、ユーザの耳の外耳道伝達特性に関する測定データに基づくユーザデータを取得するステップと、音源から被測定者の耳までの空間音響伝達特性に関する第1のプリセットデータと、前記被測定者の耳の外耳道伝達特性に関する第2のプリセットデータとを対応付けて、複数の被測定者に対して取得された複数の前記第1及び第2のプリセットデータを記憶するステップと、前記ユーザデータと、複数の前記第2のプリセットデータと、を比較することで、複数の前記第1のプリセットデータの中から第1のプリセットデータを抽出するステップと、を実行させるものである。
 本実施形態によれば、頭外定位フィルタを適切に決定することができる頭外定位フィルタ決定システム、頭外定位フィルタ決定装置、頭外定位フィルタ決定方法、及びプログラムを提供することができる。
本実施の形態に係る頭外定位処理装置を示すブロック図である。 空間音響伝達特性を測定する測定装置の構成を示す図である。 外耳道伝達特性を測定する測定装置の構成を示す図である。 本実施の形態にかかる頭外定位フィルタ決定システムの全体構成を示す図である。 頭外定位フィルタ決定システムのサーバ装置の構成を示す図である。 サーバ装置に格納されたプリセットデータのデータ構成を示す表である。 本実施の形態にかかるフィルタ決定方法を示すフローチャートである。 空間音響伝達特性と、外耳道伝達特性の測定データを示す図である。 空間音響伝達特性と、外耳道伝達特性の測定データを示す図である。 変形例1におけるデータ構成を示す表である。 変形例2におけるデータ構成を示す表である。 変形例3におけるデータ構成を示す表である。
(概要)
 まず、音像定位処理の概要について説明する。ここでは、音像定位処理装置の一例である頭外定位処理について説明する。本実施形態にかかる頭外定位処理は、空間音響伝達特性と外耳道伝達特性を用いて頭外定位処理を行うものである。空間音響伝達特性は、スピーカなどの音源から外耳道までの伝達特性である。外耳道伝達特性は、外耳道入口から鼓膜までの伝達特性である。本実施形態では、ヘッドホンを装着した状態での外耳道伝達特性を測定し、その測定データを用いて頭外定位処理を実現している。
 本実施の形態にかかる頭外定位処理は、パーソナルコンピュータ、スマートホン、タブレットPCなどのユーザ端末で実行される。ユーザ端末は、プロセッサ等の処理手段、メモリやハードディスクなどの記憶手段、液晶モニタ等の表示手段、タッチパネル、ボタン、キーボード、マウスなどの入力手段を有する情報処理装置である。ユーザ端末は、データを送受信する通信機能を有している。さらに、ユーザ端末には、ヘッドホン又はイヤホンを有する出力手段(出力ユニット)が接続される。
 高い定位効果を得るには、ユーザ本人の特性を測定して頭外定位フィルタを生成する必要がある。ユーザ個人の空間音響伝達特性は、スピーカ等の音響機材や室内の音響特性が整えられたリスニングルームで行われることが一般的である。すなわち、ユーザがリスニングルームに行くか、ユーザの自宅などにリスニングルームを準備する必要がある。このため、ユーザ個人の空間音響伝達特性を適切に測定することができない場合がある。
 また、ユーザの自宅などにスピーカを設置してリスニングルームを準備した場合でも、左右非対称にスピーカが設置されている場合や、部屋の音響環境が音楽聴取に最適でない場合がある。このような場合、自宅で適切な空間音響伝達特性を測定することは大変困難である。
 一方、ユーザ個人の外耳道伝達特性の測定は、マイクユニット、及びヘッドホンを装着した状態で行われる。すなわち、ユーザがマイクユニット、及びヘッドホンを装着していれば、外耳道伝達特性を測定することができる。ユーザがリスニングルームに行く必要や、ユーザの家に大がかりなリスニングルームを準備する必要がない。また、外耳道伝達特性を測定するための測定信号の発生や、収音信号の記録などはスマートホンやパソコンなどのユーザ端末を用いて、行うことができる。
 このように、ユーザ個人に対して、空間音響伝達特性の測定を実施することが困難である場合がある。そこで、本実施の形態にかかる頭外定位処理システムは、外耳道伝達特性の測定結果に基づいて、空間音響伝達特性に応じたフィルタを決定している。すなわち、ユーザ個人の外耳道伝達特性の測定結果に基づいて、ユーザに適した頭外定位処理フィルタを決定している。
 具体的には、頭外定位処理システムは、ユーザ端末と、サーバ装置とを備えている。ユーザ以外の複数の被測定者に対して事前に測定された空間音響伝達特性及び外耳道伝達特性をサーバ装置が格納しておく。すなわち、ユーザ端末とは異なる測定装置を用いて、音源としてスピーカを用いた空間音響伝達特性の測定(以下、第1の事前測定とも称する)と、ヘッドホンを用いた外耳道伝達特性の測定(第2の事前測定とも称する)を、行う。第1の事前測定及び第2の事前測定は、ユーザ以外の被測定者に対して実施される。
 サーバ装置は、第1の事前測定の結果に応じた第1のプリセットデータと、第2の事前測定の結果に応じた第2のプリセットデータとを格納している。複数の被測定者に対して第1及び第2の事前測定を行うことで、複数の第1のプリセットデータと、複数の第2のプリセットデータとが取得される。空間音響伝達特性に関する第1のプリセットデータと、外耳道伝達特性に関する第2のプリセットデータとを、サーバ装置が、被測定者毎に対応付けて記憶する。サーバ装置は、データベースに、複数の第1のプリセットデータと、複数の第2のプリセットデータとを格納している。
 さらに、頭外定位処理を実行するユーザ個人に対しては、ユーザ端末を用いて、外耳道伝達特性のみを測定する(以下、ユーザ測定とする)。ユーザ測定は、第2の事前測定と同様に、音源としてヘッドホンを用いた測定である。ユーザ端末は、外耳道伝達特性に関する測定データを取得する。そして、ユーザ端末は、測定データに基づくユーザデータをサーバ装置に送信する。サーバ装置は、ユーザデータを複数の第2のプリセットデータとそれぞれ比較する。サーバ装置は、比較結果に基づいて、複数の第2のプリセットデータの中からユーザデータとの相関が高い第2のプリセットデータを決定する。
 そして、サーバ装置は、相関の高い第2のプリセットデータに対応付けられた第1のプリセットデータを読み出す。すなわち、サーバ装置は、比較結果に基づいて、複数の第1のプリセットデータの中から、ユーザ個人に適した第1のプリセットデータを抽出する。サーバ装置は、抽出した第1のプリセットデータをユーザ端末に送信する。そして、ユーザ端末は、第1のプリセットデータに基づくフィルタと、ユーザ測定に基づく逆フィルタとを用いて、頭外定位処理を行う。
(頭外定位処理装置)
 まず、本実施の形態にかかる音場再生装置の一例である頭外定位処理装置100を図1に示す。図1は、頭外定位処理装置100のブロック図である。頭外定位処理装置100は、ヘッドホン43を装着するユーザUに対して音場を再生する。そのため、頭外定位処理装置100は、LchとRchのステレオ入力信号XL、XRについて、音像定位処理を行う。LchとRchのステレオ入力信号XL、XRは、CD(Compact Disc)プレイヤーなどから出力されるアナログのオーディオ再生信号、又は、mp3(MPEG Audio Layer-3)等のデジタルオーディオデータである。なお、頭外定位処理装置100は、物理的に単一な装置に限られるものではなく、一部の処理が異なる装置で行われてもよい。例えば、一部の処理がパソコンなどにより行われ、残りの処理がヘッドホン43に内蔵されたDSP(Digital Signal Processor)などにより行われてもよい。
 頭外定位処理装置100は、頭外定位処理部10、フィルタ部41、フィルタ部42、及びヘッドホン43を備えている。頭外定位処理部10、フィルタ部41、及びフィルタ部42は後述する演算処理部120を構成し、具体的にはプロセッサにより実現可能である。
 頭外定位処理部10は、畳み込み演算部11~12、21~22、及び加算器24、25を備えている。畳み込み演算部11~12、21~22は、空間音響伝達特性を用いた畳み込み処理を行う。頭外定位処理部10には、CDプレイヤーなどからのステレオ入力信号XL、XRが入力される。頭外定位処理部10には、空間音響伝達特性が設定されている。頭外定位処理部10は、各chのステレオ入力信号XL、XRに対し、空間音響伝達特性のフィルタ(以下、空間音響フィルタとも称する)を畳み込む。空間音響伝達特性は被測定者の頭部や耳介で測定した頭部伝達関数HRTFでもよいし、ダミーヘッドまたは第三者の頭部伝達関数であってもよい。
 4つの空間音響伝達特性Hls、Hlo、Hro、Hrsを1セットとしたものを空間音響伝達関数とする。畳み込み演算部11、12、21、22で畳み込みに用いられるデータが空間音響フィルタとなる。空間音響伝達特性Hls、Hlo、Hro、Hrsのそれぞれは、後述する測定装置を用いて測定されている。
 そして、畳み込み演算部11は、Lchのステレオ入力信号XLに対して空間音響伝達特性Hlsに応じた空間音響フィルタを畳み込む。畳み込み演算部11は、畳み込み演算データを加算器24に出力する。畳み込み演算部21は、Rchのステレオ入力信号XRに対して空間音響伝達特性Hroに応じた空間音響フィルタを畳み込む。畳み込み演算部21は、畳み込み演算データを加算器24に出力する。加算器24は2つの畳み込み演算データを加算して、フィルタ部41に出力する。
 畳み込み演算部12は、Lchのステレオ入力信号XLに対して空間音響伝達特性Hloに応じた空間音響フィルタを畳み込む。畳み込み演算部12は、畳み込み演算データを、加算器25に出力する。畳み込み演算部22は、Rchのステレオ入力信号XRに対して空間音響伝達特性Hrsに応じた空間音響フィルタを畳み込む。畳み込み演算部22は、畳み込み演算データを、加算器25に出力する。加算器25は2つの畳み込み演算データを加算して、フィルタ部42に出力する。
 フィルタ部41、42にはヘッドホン特性(ヘッドホンの再生ユニットとマイク間の特性)をキャンセルする逆フィルタが設定されている。そして、頭外定位処理部10での処理が施された再生信号(畳み込み演算信号)に逆フィルタを畳み込む。フィルタ部41で加算器24からのLch信号に対して、逆フィルタを畳み込む。同様に、フィルタ部42は加算器25からのRch信号に対して逆フィルタを畳み込む。逆フィルタは、ヘッドホン43を装着した場合に、ヘッドホンユニットからマイクまでの特性をキャンセルする。マイクは、外耳道入口から鼓膜までの間ならばどこに配置してもよい。逆フィルタは、ユーザU本人の特性の測定結果から算出されている。
 フィルタ部41は、補正されたLch信号をヘッドホン43の左ユニット43Lに出力する。フィルタ部42は、補正されたRch信号をヘッドホン43の右ユニット43Rに出力する。ユーザUは、ヘッドホン43を装着している。ヘッドホン43は、Lch信号とRch信号をユーザUに向けて出力する。これにより、ユーザUの頭外に定位された音像を再生することができる。
 このように、頭外定位処理装置100は、空間音響伝達特性Hls、Hlo、Hro、Hrsに応じた空間音響フィルタと、ヘッドホン特性の逆フィルタを用いて、頭外定位処理を行っている。以下の説明において、空間音響伝達特性Hls、Hlo、Hro、Hrsに応じた空間音響フィルタと、ヘッドホン特性の逆フィルタとをまとめて頭外定位処理フィルタとする。2chのステレオ再生信号の場合、頭外定位フィルタは、4つの空間音響フィルタと、2つの逆フィルタとから構成されている。そして、頭外定位処理装置100は、ステレオ再生信号に対して合計6個の頭外定位フィルタを用いて畳み込み演算処理を行うことで、頭外定位処理を実行する。
(空間音響伝達特性の測定装置)
 図2を用いて、空間音響伝達特性Hls、Hlo、Hro、Hrsを測定する測定装置200について説明する。図2は、被測定者1に対して第1の事前測定を行うための測定構成を模式的に示す図である。
 図2に示すように、測定装置200は、ステレオスピーカ5とマイクユニット2を有している。ステレオスピーカ5が測定環境に設置されている。測定環境は、ユーザUの自宅の部屋やオーディオシステムの販売店舗やショールーム等でもよい。測定環境は、スピーカや音響の整ったリスニングルームであることが好ましい。
 本実施の形態では、測定装置200の処理装置201が、空間音響フィルタを適切に生成するための演算処理を行っている。処理装置201は、例えば、CDプレイヤー等の音楽プレイヤーなどを有している。処理装置201は、パーソナルコンピュータ(PC)、タブレット端末、スマートホン等であってもよい。また、処理装置201は、サーバ装置自体であってもよい。
 ステレオスピーカ5は、左スピーカ5Lと右スピーカ5Rを備えている。例えば、被測定者1の前方に左スピーカ5Lと右スピーカ5Rが設置されている。左スピーカ5Lと右スピーカ5Rは、インパルス応答測定を行うためのインパルス音等を出力する。以下、本実施の形態では、音源となるスピーカの数を2(ステレオスピーカ)として説明するが、測定に用いる音源の数は2に限らず、1以上であればよい。すなわち、1chのモノラル、または、5.1ch、7.1ch等の、いわゆるマルチチャンネル環境においても同様に、本実施の形態を適用することができる。
 マイクユニット2は、左のマイク2Lと右のマイク2Rを有するステレオマイクである。左のマイク2Lは、被測定者1の左耳9Lに設置され、右のマイク2Rは、被測定者1の右耳9Rに設置されている。具体的には、左耳9L、右耳9Rの外耳道入口から鼓膜までの位置にマイク2L、2Rを設置することが好ましい。マイク2L、2Rは、ステレオスピーカ5から出力された測定信号を収音して、収音信号を取得する。マイク2L、2Rは収音信号を処理装置201に出力する。被測定者1は、人でもよく、ダミーヘッドでもよい。すなわち、本実施形態において、被測定者1は人だけでなく、ダミーヘッドを含む概念である。
 上記のように、左右のスピーカ5L、5Rで出力されたインパルス音をマイク2L、2Rで測定することでインパルス応答が測定される。処理装置201は、インパルス応答測定により取得した収音信号をメモリなどに記憶する。これにより、左スピーカ5Lと左マイク2Lとの間の空間音響伝達特性Hls、左スピーカ5Lと右マイク2Rとの間の空間音響伝達特性Hlo、右スピーカ5Rと左マイク2Lとの間の空間音響伝達特性Hro、右スピーカ5Rと右マイク2Rとの間の空間音響伝達特性Hrsが測定される。すなわち、左スピーカ5Lから出力された測定信号を左マイク2Lが収音することで、空間音響伝達特性Hlsが取得される。左スピーカ5Lから出力された測定信号を右マイク2Rが収音することで、空間音響伝達特性Hloが取得される。右スピーカ5Rから出力された測定信号を左マイク2Lが収音することで、空間音響伝達特性Hroが取得される。右スピーカ5Rから出力された測定信号を右マイク2Rが収音することで、空間音響伝達特性Hrsが取得される。
 また、測定装置200は、収音信号に基づいて、左右のスピーカ5L、5Rから左右のマイク2L、2Rまでの空間音響伝達特性Hls、Hlo、Hro、Hrsに応じた空間音響フィルタを生成してもよい。例えば、処理装置201は、空間音響伝達特性Hls、Hlo、Hro、Hrsを所定のフィルタ長で切り出す。処理装置201は、測定した空間音響伝達特性Hls、Hlo、Hro、Hrsを補正してもよい。
 このようにすることで、処理装置201は、頭外定位処理装置100の畳み込み演算に用いられる空間音響フィルタを生成する。図1で示したように、頭外定位処理装置100が、左右のスピーカ5L、5Rと左右のマイク2L、2Rとの間の空間音響伝達特性Hls、Hlo、Hro、Hrsに応じた空間音響フィルタを用いて頭外定位処理を行う。すなわち、空間音響フィルタをオーディオ再生信号に畳み込むことにより、頭外定位処理を行う。
 処理装置201は、空間音響伝達特性Hls、Hlo、Hro、Hrsのそれぞれに対応する収音信号に対して同様の処理を実施している。すなわち、空間音響伝達特性Hls、Hlo、Hro、Hrsに対応する4つの収音信号に対して、それぞれ同様の処理が実施される。これにより、空間音響伝達特性Hls、Hlo、Hro、Hrsに対応する空間音響フィルタをそれぞれ生成することができる。
(外耳道伝達特性の測定)
 次に、外耳道伝達特性を測定するための測定装置200について、図3を用いて説明する。図3は、被測定者1に対して第2の事前測定を行うための構成を示している。
 処理装置201には、マイクユニット2と、ヘッドホン43と、が接続されている。マイクユニット2は、左マイク2Lと、右マイク2Rとを備えている。左マイク2Lは、被測定者1の左耳9Lに装着される。右マイク2Rは、被測定者1の右耳9Rに装着される。処理装置201、及びマイクユニット2は、図2の処理装置201、及びマイクユニット2と同じものでもよく、異なるものでもよい。
 ヘッドホン43は、ヘッドホンバンド43Bと、左ユニット43Lと、右ユニット43Rとを、有している。ヘッドホンバンド43Bは、左ユニット43Lと右ユニット43Rとを連結する。左ユニット43Lは被測定者1の左耳9Lに向かって音を出力する。右ユニット43Rは被測定者1の右耳9Rに向かって音を出力する。ヘッドホン43は密閉型、開放型、半開放型、または半密閉型等、ヘッドホンの種類を問わない。ヘッドホン43は、ヘッドホン43が装着された状態で、マイクユニット2が被測定者1に装着される。すなわち、左マイク2L、右マイク2Rが装着された左耳9L、右耳9Rにヘッドホン43の左ユニット43L、右ユニット43Rがそれぞれ装着される。ヘッドホンバンド43Bは、左ユニット43Lと右ユニット43Rとをそれぞれ左耳9L、右耳9Rに押し付ける付勢力を発生する。
 左マイク2Lは、ヘッドホン43の左ユニット43Lから出力された音を収音する。右マイク2Rは、ヘッドホン43の右ユニット43Rから出力された音を収音する。左マイク2L、及び右マイク2Rのマイク部は、外耳孔近傍の収音位置に配置される。左マイク2L、及び右マイク2Rは、ヘッドホン43に干渉しないように構成されている。すなわち、左マイク2L、及び右マイク2Rは左耳9L、右耳9Rの適切な位置に配置された状態で、被測定者1がヘッドホン43を装着することができる。
 処理装置201は、左マイク2L、及び右マイク2Rに対して測定信号を出力する。これにより、左マイク2L、及び右マイク2Rはインパルス音などを発生する。具体的には、左ユニット43Lから出力されたインパルス音を左マイク2Lで測定する。右ユニット43Rから出力されたインパルス音を右マイク2Rで測定する。このようにすることで、インパルス応答測定が実施される。
 処理装置201は、インパルス応答測定に基づく収音信号をメモリなどに記憶する。これにより、左ユニット43Lと左マイク2Lとの間の伝達特性(すなわち、左耳の外耳道伝達特性)と、右ユニット43Rと右マイク2Rとの間の伝達特性(すなわち、右耳の外耳道伝達特性)が取得される。ここで、左マイク2Lが取得した左耳の外耳道伝達特性の測定データを測定データECTFLとし、右マイク2Rが取得した右耳の外耳道伝達特性の測定データを測定データECTFRとする。また、両耳の外耳道伝達特性の測定データを測定データECTFとする。
 処理装置201は、測定データECTFL、ECTFRをそれぞれ記憶するメモリなどを有している。なお、処理装置201は、外耳道伝達特性又は空間音響伝達特性を測定するための測定信号として、インパルス信号やTSP(Time Streched Pule)信号等を発生する。測定信号はインパルス音等の測定音を含んでいる。
 図2、図3で示した測定装置200によって、複数の被測定者1の外耳道伝達特性、及び空間音響伝達特性を測定する。本実施の形態では、図2の測定構成による第1の事前測定を複数の被測定者1に対して実施する。同様に、図3の測定構成による第2の事前測定を複数の被測定者1に対して実施する。これにより、被測定者1毎に、外耳道伝達特性、及び空間音響伝達特性が測定される。
(頭外定位フィルタ決定システム)
 次に、本実施の形態にかかる頭外定位フィルタ決定システム500について、図4を用いて説明する。図4は、頭外定位フィルタ決定システム500の全体構成を示す図である。頭外定位フィルタ決定システム500は、マイクユニット2と、ヘッドホン43と、頭外定位処理装置100と、サーバ装置300と、を備えている。
 頭外定位処理装置100とサーバ装置300とは、ネットワーク400を介して接続されている。ネットワーク400は、例えば、インターネットや携帯電話通信網などの公衆ネットワークなどである。頭外定位処理装置100とサーバ装置300とは無線又は有線により通信可能になっている。なお、頭外定位処理装置100とサーバ装置300とは一体の装置であってもよい。
 頭外定位処理装置100は、図1で示したように、頭外定位処理された再生信号をユーザUに出力するユーザ端末となる。さらに、頭外定位処理装置100は、ユーザUの外耳道伝達特性の測定を行う。そのため、頭外定位処理装置100には、マイクユニット2とヘッドホン43とが接続されている。頭外定位処理装置100は、図3の測定装置200と同様に、マイクユニット2と、ヘッドホン43とを用いたインパルス応答測定を行う。なお、マイクユニット2、及びヘッドホン43とBlueTooth(登録商標)などにより無線接続されていてもよい。
 頭外定位処理装置100は、インパルス応答測定部111と、ECTF特性取得部112と、送信部113と、受信部114と、演算処理部120と、逆フィルタ算出部121と、フィルタ記憶部122と、スイッチ124と、を備えている。なお、頭外定位処理装置100とサーバ装置300とが一体の装置である場合、該装置は受信部114に代えてユーザデータを取得する取得部を備えていてもよい。
 スイッチ124はユーザ測定と、頭外定位再生とを切り替える。すなわち、ユーザ測定の場合、スイッチ124は、ヘッドホン43とインパルス応答測定部111とを接続する。頭外定位再生の場合、スイッチ124は、ヘッドホン43を演算処理部120に接続する。
 インパルス応答測定部111は、ユーザ測定を行うため、インパルス音となる測定信号をヘッドホン43に出力する。ヘッドホン43が出力したインパルス音をマイクユニット2が収音する。マイクユニット2は収音信号をインパルス応答測定部111に出力する。なお、インパルス応答測定については、図3の説明と同様であるため、適宜説明を省略する。すなわち、頭外定位処理装置100が、図3の処理装置201と同様の機能を有している。頭外定位処理装置100と、マイクユニット2と、ヘッドホン43とがユーザ測定を行う測定装置を構成するインパルス応答測定部111は、収音信号に対して、A/D変換や同期加算処理などを行ってもよい。
 インパルス応答測定により、インパルス応答測定部111は、外耳道伝達特性に関する測定データECTFを取得する。測定データECTFは、ユーザUの左耳9Lの外耳道伝達特性に関する測定データECTFLと、右耳9Rの外耳道伝達特性に関する測定データECTFRとを含んでいる。
 ECTF特性取得部112は、測定データECTFL、ECTFRに対して所定の処理を行うことで、測定データECTFL、ECTFRの特性を取得する。例えば、ECTF特性取得部112は、離散フーリエ変換を行うことで、周波数振幅特性及び周波数位相特性を算出する。また、ECTF特性取得部112は、離散フーリエ変換に限らず、コサイン変換などにより、周波数振幅特性及び周波数位相特性を算出してもよい。周波数振幅特性の代わりに、周波数パワー特性が用いられていてもよい。
 さらに、ECTF特性取得部112は、周波数振幅特性に基づいて、測定データECTFの特徴量(特徴ベクトル)を取得する。ここで、測定データECTFLの特徴量を特徴量hpLとし、測定データECTFRの特徴量を特徴量hpRとする。特徴量hpLはユーザUの左耳に特徴を表し、特徴量hpRはユーザUの右耳に特徴を表している。
 例えば、特徴量hpL、hpRは、2kHz~20kHzの周波数振幅特性である。すなわち、一部の周波数帯における周波数振幅特性をそれぞれ特徴量hpL、hpRとすることができる。特徴量hpL、hpRは、外耳道伝達特性の周波数領域における振幅値を特徴パラメータとする特徴ベクトルである。特徴量hpL、hpRは多次元のベクトル形式となっており、同じ次元数となっている。さらに、特徴量hpL、hpRは2kHz~20kHzの周波数振幅特性を平滑化したデータであってもよい。
 もちろん、抽出する周波数帯は2kHz~24kHzに限られるものではない。例えば、1kHz~16kHzの周波数帯でもよく、あるいは、1kHz~24kHzの周波数帯でもよい。特徴量hpL、hpRの1kHz以上の周波数振幅特性を含んでいることが好ましく、2kHz以上の周波数振幅特性を含んでいることがより好ましい。さらには、周波数振幅特性を平滑化したデータを特徴量としてもよい。
 逆フィルタ算出部121は、測定データECTFの特性に基づいて、逆フィルタを算出する。例えば、逆フィルタ算出部121は、測定データECTFの周波数振幅特性や周波数位相特性を補正する。逆フィルタ算出部121は、逆離散フーリエ変換により、周波数特性と位相特性とを用いて時間信号を算出する。逆フィルタ算出部121は、時間信号を所定のフィルタ長で切り出すことで、逆フィルタを算出する。
 上記のように、逆フィルタはヘッドホン特性(ヘッドホンの再生ユニットとマイク間の特性)をキャンセルするフィルタである。フィルタ記憶部122は、逆フィルタ算出部121が算出した左右の逆フィルタを記憶する。なお、逆フィルタの算出方法については、公知の手法を用いることができるため、詳細な説明を省略する。
 送信部113は、ECTF特性取得部112が算出した特徴量をユーザデータとして、サーバ装置300に送信する。送信部113は、ユーザデータに対して、通信規格に応じた処理(例えば、変調処理)を行って、送信する。なお、ユーザデータはユーザ測定に基づくデータであればよい。なお、送信部113が送信したユーザUの特徴量hpL、hpRを特徴量hpL_U、hpR_Uと示す。
 次に、サーバ装置300の構成について、図5を用いて説明する。図5は、サーバ装置300の制御構成を示すブロック図である。サーバ装置300は、受信部301と、比較部302と、データ格納部303と、抽出部304と、送信部305と、を備えている。サーバ装置300は、特徴量に基づいて、空間音響フィルタを決定するフィルタ決定装置となる。なお、頭外定位処理装置100とサーバ装置300とが一体の装置である場合、該装置は、送信部305を備えていなくてもよい。
 なお、サーバ装置300は、プロセッサやメモリなどを備えたコンピュータであり、プログラムにしたがって以下の処理を行う。また、サーバ装置300は単一な装置に限らず、2つ以上の装置の組み合わせにより実現してもよく、クラウドサーバ等の仮想サーバでもよい。データを格納するデータ格納部と、データ処理を行う比較部302,抽出部304は物理的に異なる装置であってもよい。
 受信部301は、頭外定位処理装置100から送信された特徴量hpL_U、hpR_Uを受信する。受信部301は、受信したユーザデータに対して、通信規格に応じた処理(例えば、復調処理)を行う。比較部302は、特徴量hpL_U、hpR_Uをデータ格納部303に格納されたプリセットデータと比較する。
 データ格納部303は、事前測定で測定された複数の被測定者に関するデータをプリセットデータとして格納するデータベースである。図6を参照して、データ格納部303に格納されているデータについて、説明する。図6は、データ格納部303に格納されているデータを示す表である。
 データ格納部303は、被測定者の左右の耳毎にプリセットデータを格納している。具体的には、データ格納部303は、被測定者ID、耳の左右、特徴量、空間音響伝達特性1、及び空間音響伝達特性2が1行に並んだテーブル形式となっている。なお、図6に示すデータ形式は一例であり、テーブル形式ではなく、各パラメータのオブジェクトをタグ等で関連付けて保持するデータ形式等を採用してもよい。
 データ格納部303には、1人の被測定者Aに対して、2つのデータセットが格納されている。すなわち、データ格納部303は、被測定者Aの左耳に関するデータセットと、被測定者Aの右耳に関するデータセットが格納されている。
 1つのデータセットには、被測定者ID、耳の左右、特徴量、空間音響伝達特性1、及び空間音響伝達特性2が含まれている。特徴量は、図3に示す測定装置200による第2の事前測定に基づくデータである。特徴量は、ECTF特性取得部112で取得された特徴量と同様のデータである。例えば、特徴量は、外耳道伝達特性の2kHz~20kHzの周波数振幅特性である。また、ユーザデータが周波数振幅特性を平滑化したデータである場合、特徴量も周波数振幅特性を平滑化したデータとなっている。被測定者Aの左耳の特徴量は、特徴量hpL_Aと示し、被測定者Aの右耳の特徴量は、特徴量hpR_Aと示している。被測定者Bの左耳の特徴量は、特徴量hpL_Bと示し、被測定者Bの右耳の特徴量は、特徴量hpR_Bと示している。
 空間音響伝達特性1、及び空間音響伝達特性2は、図2に示す測定装置200による第1の事前測定に基づくデータである。被測定者Aの左耳の場合、空間音響伝達特性1はHls_Aとなり、空間音響伝達特性2は、Hro_Aとなる。被測定者Aの右耳の場合、空間音響伝達特性1はHrs_Aとなり、空間音響伝達特性2は、Hlo_Aとなる。このように、1つの耳に関する2つの空間音響伝達特性がペアとなっている。被測定者Bの左耳については、Hls_BとHro_Bがペアとなり、被測定者Bの右耳については、Hrs_BとHlo_Bがペアとなっている。空間音響伝達特性1、及び空間音響伝達特性2は、フィルタ長で切り出された後のデータでもよく、フィルタ長で切り出される前のデータでもよい。
 被測定者Aの左耳については、特徴量hpL_Aと、空間音響伝達特性Hls_Aと、空間音響伝達特性Hro_Aとが対応付けられて、1つのデータセットとなっている。同様に、被測定者Aの右耳については、特徴量hpR_Aと、空間音響伝達特性Hrs_Aと、空間音響伝達特性Hlo_Aとが対応付けられて、1つのデータセットとなっている。同様に、被測定者Bの左耳については、特徴量hpL_Bと、空間音響伝達特性Hls_Bと、空間音響伝達特性Hro_Bとが対応付けられて、1つのデータセットとなっている。同様に、被測定者Bの右耳については、特徴量hpR_Bと、空間音響伝達特性Hrs_Bと、空間音響伝達特性Hlo_Bとが対応付けて、1つのデータセットとなっている。
 なお、空間音響伝達特性1、2のペアを第1のプリセットデータとする。すなわち、1つのデータセットを構成する空間音響伝達特性1、及び空間音響伝達特性2を第1のプリセットデータとする。特徴量を第2のプリセットデータとする。1つのデータセットを構成する特徴量を第2のプリセットデータとする。1つのデータセットは、第1のプリセットデータ、及び第2のプリセットデータを含んでいる。そして、データ格納部303は、第1のプリセットデータと第2のプリセットデータとを被測定者の左右の耳毎に対応付けて記憶している。
 ここで、n(nは2以上の整数)人の被測定者1に対して、第1及び第2の事前測定が予め行われているとする。この場合、データ格納部303には、両耳分である2n個のデータセットが格納されている。データ格納部303に格納されている特徴量を特徴量hpL_A~hpL_N、hpR_A~hpR_Nとして示す。特徴量hpL_A~hpL_Nは、被測定者A~Nの左耳に関する外耳道伝達特性から抽出された特徴ベクトルである。特徴量hpR_A~hpR_Nは、被測定者A~Nの右耳に関する外耳道伝達特性から抽出された特徴ベクトルである。
 比較部302は、特徴量hpL_Uを、特徴量hpL_A~hpL_N、hpR_A~hpR_Nのそれぞれと比較する。そして、比較部302は、2n個の特徴量hpL_A~hpL_N、hpR_A~hpR_Nの中から、特徴量hpL_Uに最も類似する1つを選択する。ここでは、2つの特徴量の相関を類似度スコアとして算出している。比較部302は、最も類似度スコアが高い特徴量のデータセットを選択する。ここで、被測定者lの左耳が選択されているとして、選択された特徴量hpLを特徴量hpL_lとする。
 同様に、比較部302は、特徴量hpR_Uを、特徴量hpL_A~hpL_N、hpR_A~hpR_Nとそれぞれ比較する。そして、比較部302は、2n個の特徴量hpL_A~hpL_N、hpR_A~hpR_Nの中から、特徴量hpR_Uに最も類似する1つを選択する。ここで、被測定者mの右耳が選択されているとし、選択された特徴量を特徴量hpR_mとする。
 比較部302は、比較結果を抽出部304に出力する。具体的には、最も類似度スコアの高い第2のプリセットデータの被測定者IDと、耳の左右を抽出部304に出力する。抽出部304は、比較結果に基づいて、第1のプリセットデータを抽出する。
 抽出部304は、データ格納部303から、特徴量hpL_lに対応する空間音響伝達特性をデータ格納部303から読み出す。抽出部304は、データ格納部303を参照して、被測定者lの左耳の空間音響伝達特性Hls_l、空間音響伝達特性Hro_lを抽出する。
 同様に、抽出部304は、データ格納部303から、特徴量hpR_mに対応する空間音響伝達特性をデータ格納部303から読み出す。抽出部304は、データ格納部303を参照して、被測定者mの左耳の空間音響伝達特性Hrs_m、空間音響伝達特性Hlo_mを抽出する。
 このように、比較部302は、ユーザデータを複数の第2のプリセットデータと比較する。そして、抽出部304は、第2のプリセットデータとユーザデータとの比較結果に基づいて、ユーザに適した第1のプリセットデータを抽出する。
 そして、送信部305は、抽出部304が抽出した第1のプリセットデータを頭外定位処理装置100に送信する。送信部305は、第1のプリセットデータに対して、通信規格に応じた処理(例えば、変調処理)を行って、送信する。ここでは、左耳に関しては、空間音響伝達特性Hls_l、空間音響伝達特性Hro_lが第1のプリセットデータとして抽出されており、右耳に関しては、空間音響伝達特性Hrs_m、空間音響伝達特性Hlo_mが第1のプリセットデータとして抽出されている。よって、送信部305は、空間音響伝達特性Hls_l、空間音響伝達特性Hro_l、空間音響伝達特性Hrs_m、空間音響伝達特性Hlo_mを頭外定位処理装置100に送信する。
 図4の説明に戻る。受信部114は、送信部305から送信された第1のプリセットデータを受信する。受信部は、受信した第1のプリセットデータに対して、通信規格に応じた処理(例えば、復調処理)を行う。受信部114は、左耳に関する第1のプリセットデータとして、空間音響伝達特性Hls_l、空間音響伝達特性Hro_lを受信し、右耳に関する第1のプリセットデータとして、空間音響伝達特性Hrs_m、空間音響伝達特性Hlo_mを受信する。
 そして、フィルタ記憶部122は、第1のプリセットデータに基づいて、空間音響フィルタを記憶する。すなわち、空間音響伝達特性Hls_lがユーザUの空間音響伝達特性Hlsとなり、空間音響伝達特性Hro_lがユーザUの空間音響伝達特性Hroとなる。同様に、空間音響伝達特性Hrs_mがユーザUの空間音響伝達特性Hrsのとなり、空間音響伝達特性Hlo_mがユーザUの空間音響伝達特性Hloとなる。
 なお、第1のプリセットデータがフィルタ長で切り出した後のデータである場合、頭外定位処理装置100が第1のプリセットデータをそのまま、空間音響フィルタとして記憶する。例えば、空間音響伝達特性Hls_lがユーザUの空間音響伝達特性Hlsとなる。第1のプリセットデータがフィルタ長で切り出される前のデータである場合、頭外定位処理装置100が空間音響伝達特性をフィルタ長に切り出す処理を行う。
 演算処理部120は、4つの空間音響伝達特性Hls、Hlo、Hro、Hrsに応じた空間音響フィルタと、逆フィルタとを用いて、演算処理を行う。演算処理部120は、図1で示した頭外定位処理部10と、フィルタ部41、フィルタ部42で構成されている。よって、演算処理部120は、4つの空間音響フィルタと、2つの逆フィルタとを用いて、ステレオ入力信号に上記の畳み込み演算処理等を行う。
 このように、データ格納部303が、被測定者1毎に第1のプリセットデートと、第2のプリセットデータを対応付けて格納している。第1のプリセットデータは被測定者1の空間音響伝達特性に関するデータである。第2のプリセットデータは、被測定者1の外耳道伝達特性に関するデータである。
 比較部302はユーザデータを、第2のプリセットデータと比較する。ユーザデータは、ユーザ測定で得られた外耳道伝達特性に関するデータである。そして、比較部302は、ユーザの外耳道伝達特性と類似する被測定者1と、耳の左右とを決定する。
 抽出部304は、決定された被測定者と耳の左右とに対応する第1のプリセットデータを読み出す。そして、送信部305は、抽出された第1のプリセットデータを頭外定位処理装置100に送信している。ユーザ端末である頭外定位処理装置100は、第1のプリセットデータに基づく空間音響フィルタと、測定データに基づく逆フィルタとを用いて、頭外定位処理を行う。
 このようにすることで、ユーザUが空間音響伝達特性を測定しなくても、適切なフィルタを決定することができる。よって、ユーザがリスニングルームなどに行く必要や、ユーザの家にスピーカなどを設置する必要がなくなる。ユーザ測定はヘッドホン装着状態で実施される。すなわち、ユーザUがヘッドホンとマイクとを装着していれば、ユーザ個人の外耳道伝達特性を測定することができる。よって、簡単に簡便な方法で、定位効果の高い頭外定位を実現できる。なお、ユーザ測定と、頭外定位受聴に用いられるヘッドホン43は同じタイプのものであることが好ましい。
 また、本実施形態にかかる方法では、多数のプリセット特性を聴く聴感テストを行う必要や、身体的特徴を細かく測定する必要がない。よって、ユーザ負担を軽減することができ、利便性を向上することができる。特に高い周波数帯は個人特性の影響が高いので、特徴が表れやすい高周波数帯の周波数振幅特性をECTF特性取得部112が、特徴量hpL,hpRとして算出している。そして、被測定者とユーザの特徴量を比較することで、特性が似ている被測定者を選ぶことができる。そして選ばれた被測定者の耳の第1のプリセットデータを抽出部304が抽出するため、高い頭外定位効果が期待できる。
 なお、比較部302は、受信したユーザデータと、格納されている第2のプリセットデータとを、そのまま比較しなくてもよい。すなわち、比較部302は、受信したユーザデータと、格納されている第2のプリセットデータとの少なくとも一方に対して演算処理を施した後に比較を行ってもよい。例えば、ユーザデータと第2のプリセットデータが、2kHz~20kHzの周波数振幅特性である場合、比較部302がそれぞれの周波数振幅特性に平滑化処理を施してもよい。そして、比較部302が平滑化処理後の周波数振幅特性を比較してもよい。
 あるいは、ユーザデータが、全周波数帯の周波数振幅特性であり、第2のプリセットデータが2kHz~20kHzの周波数帯の周波数振幅特性である場合、比較部302が、ユーザデータから2kHz~20kHzの周波数帯の周波数振幅特性を抽出してもよい。そして、比較部302が抽出された周波数振幅特性を比較してもよい。このように、比較部302における比較は、ユーザデータと第2のプリセットデータとを直接比較することだけではなく、ユーザデータから得られたデータと第2のプリセットデータから得られたデータとを比較することを含む。また、第2のプリセットデータとして、外耳道伝達特性自体ではなく、特徴量を用いることで、データ量を少なくすることができる。また、比較する毎に特徴量を求める必要がないため、サーバ装置300における処理負担を軽減することができる。
 次に、本実施の形態にかかる頭外定位フィルタ決定方法について、図7を用いて説明する。図7は、頭外定位フィルタ決定方法を示すフローチャートである。なお、図7に示すフローを実施する前に、測定装置200が第1及び第2の事前測定を実施しておく。すなわち、データ格納部303が、複数のデータセットを格納している状態で、図7の処理が実施される。
 まず、インパルス応答測定部111がユーザ測定を実施する(S11)。これにより、インパルス応答測定部111がユーザUの外耳道伝達特性に関する測定データECTFL、ECTFRを取得する。そして、ECTF特性取得部112が、測定データECTFL、ECTFRから特徴量hpL_U、hpR_Uを算出する(S12)。ECTF特性取得部112が外耳道伝達特性の測定データをフーリエ変換して周波数振幅特性を算出する。ECTF特性取得部112が、所定の周波数帯の周波数振幅特性を抽出して、平滑化する。これにより、ユーザデータとなる特徴量hpL_U、hpR_Uが算出される。送信部113が、特徴量hpL_U、hpR_Uをサーバ装置300に送信する(S13)。
 サーバ装置300の受信部301が特徴量hpL_U、hpR_Uを受信すると、比較部302が、特徴量hpL_Uと、データ格納部303の全特徴量hpL_A~hpL_N、hpR_A~hpR_Nとの類似度スコアを算出する(S14)。そして、比較部302は、類似度スコアの最も高いデータセットを選ぶ(S15)。なお、2つの特徴量の相関を類似度スコアとすることができる。なお、類似度スコアは、相関値に限らず、距離ベクトルの大きさ(ユークリッド距離)、コサイン類似度(コサイン距離)、マハラノビス距離、ピアソン相関係数等であってもよい。比較部302は、類似度スコアが最も高いデータセットを選択する。抽出部304は、類似度スコアが最も高いデータセットの第1のプリセットデータを抽出する(S16)。すなわち、抽出部304は、2n個の第1のプリセットデータの中から、1つの第1のプリセットデータを読み出す。
 比較部302が、ユーザUの特徴量hpR_Uと、データ格納部303に格納された全特徴量hpL_A~hpL_N、hpR_A~hpR_Nとの類似度スコアを算出する(S17)。そして、比較部302は、類似度スコアの最も高いデータセットを選ぶ(S18)。抽出部304は、類似度スコアが最も高いデータセットの第1のプリセットデータを抽出する(S19)。すなわち、抽出部304は、2n個の第1のプリセットデータの中から、1つの第1のプリセットデータを読み出す。
 送信部305は、S16、S19で抽出された2つの第1のプリセットデータをそれぞれ頭外定位処理装置100に送信する(S20)。これにより、送信部305は、4つの空間音響伝達特性を頭外定位処理装置100に送信する。なお、左右の特徴量に対する比較処理、及び抽出処理の順番は反対でもよく、並行して処理されていてもよい。
 このようにすることで、空間音響伝達特性のユーザ測定を行わなくても、適切なフィルタを決定することができる。よって、利便性を向上することができる。
 以下、外耳道伝達特性の類似性から空間音響伝達特性を抽出する理由について説明する。精度の高い頭外定位効果を出すためには他人の空間音響伝達特性がユーザ自身の空間音響伝達特性と類似している必要がある。プリセットされた空間音響伝達特性を用いる方法では、個人性の影響が出る高い周波数においては効果が小さい場合がある。また、高い周波数帯は、主に外耳の影響を受けている。外耳道伝達特性はヘッドホンを装着した場合の伝達特性であり、外耳の影響が多分に含まれている。そこで、外耳道伝達特性の高い周波数帯について相関の高いものは外耳の形状が似ていると判断することができる。このため、特徴量として2kHz以上の高周波数帯の周波数振幅特性を用いている。そして、比較部302が、高周波数帯の周波数振幅特性が類似している外耳道伝達特性を持つ被測定者の空間音響伝達特性を抽出している。なお、特徴量は、所定の周波数以上の高周波数帯の周波数振幅特性を含んでいることが好ましい。所定の周波数としては、1kHzから3kHzまでの周波数とすることが好ましい。
 5人の被測定者A~Eの外耳道伝達特性の特徴量を検討した結果について説明する。ここで、特徴量は外耳道伝達特性の2kHz~20kHzの周波数振幅特性を平滑化したデータとしている。そして、2つの耳の特徴量の相関値を算出する。さらに、被測定者A~Eの左右の耳の空間音響伝達特性Hls又は空間音響伝達特性Hrsの相関値を算出する。ここでは、2つの空間音響伝達特性の2kHz~20kHzの周波数振幅特性の相関値を算出している。2つの特徴量の相関値(類似度スコア)が高い場合、空間音響伝達特性Hls又は空間音響伝達特性Hrsの相関値が高くなる。測定データのいくつかの例を以下に示す
測定データ1(被測定者Bの左耳と被測定者Bの右耳)
特徴量の相関値:0.940508
空間音響伝達特性Hls_Bと空間音響伝達特性Hrs_Bの相関値:0.899687
測定データ2(被測定者Cの右耳と被測定者Dの左耳)
特徴量の相関値:0.962504
空間音響伝達特性Hrs_Cと空間音響伝達特性Hls_Dの相関値:0.711014
測定データ3(被測定者Bの右耳と被測定者Cの右耳)
特徴量の相関値:0.898839
空間音響伝達特性Hrs_Bと空間音響伝達特性Hrs_Cの相関値:0.859318
測定データ4(被測定者Aの左耳と被測定者Bの右耳)
特徴量の相関値:0.105869
空間音響伝達特性Hls_Aと空間音響伝達特性Hrs_Bの相関値:0.328452
測定データ5(被測定者Aの右耳と被測定者Dの左耳)
特徴量の相関値:0.480002
空間音響伝達特性Hrs_Aと空間音響伝達特性Hls_Dの相関値:0.388985
 特徴量同士の相関値と、空間音響伝達特性同士の相関値とは相関が高いことがわかる。例えば、測定データ1~3に示すように、特徴量の相関値が高い場合、空間音響伝達特性の相関値も高くなる。また、測定データ4~5に示すように、特徴量の相関値が低い場合、空間音響伝達特性の相関値も低くなる。
 したがって、ユーザUにとって類似度の高い被測定者の空間音響伝達特性を抽出するために、外耳道伝達特性の2kHz以上の周波数振幅特性を特徴量としている。比較部302は、特徴量をデータ格納部303の第2のプリセットデータと比較する。そして、比較部302は、比較結果に基づいて、相関値の高い被測定者を選択する。少なくとも、データ格納部303のプリセットデータは、同じ環境や条件で測定されたデータであることが望ましい。例えば、第1の事前測定及び第2の事前測定で用いるマイクユニット2は同じものとすることが好ましい。また、第2の事前測定と、ユーザ測定と、頭外定位受聴で用いるヘッドホン43は同じタイプのものであることが好ましい。
 複数の被測定者の外耳道伝達特性と空間音響伝達特性の測定データを図8、図9示す。図8は、12人の被測定者の左耳の外耳道伝達特性と空間音響伝達特性Hlsとを示す図である。図9は、12人の被測定者の右耳の外耳道伝達特性と空間音響伝達特性Hlsとを示す図である。図8、図9は2kHz~20kHzの周波数振幅特性を示している。
 図8,図9から分かるように、被測定者に応じて、あるいは耳に応じて、外耳道伝達特性と空間音響伝達特性の波形が大きく異なっている。よって、外耳道伝達特性から空間音響伝達特性を直接算出することが困難である。ユーザ端末において、空間音響伝達特性を算出することが困難となる。そのため、本実施の形態では、外耳道伝達特性同士の特徴量を比較して、その比較結果に基づいて、空間音響伝達特性を抽出している。
 また同じ被測定者でも左右で耳の形や位置等が異なるため、左右の耳で空間音響伝達特性が異なる。したがって、空間音響伝達特性のペアリングは左右の耳を別々に扱うことが好ましい。すなわち、特徴量hpLと、空間音響伝達特性Hlsと空間音響伝達特性Hroとを左耳に関する1つのデータセットとし、特徴量hpRと、空間音響伝達特性Hrsと空間音響伝達特性Hroを右耳に関する1つのデータセットとする。これにより、適切に頭外定位フィルタを決定することができる。
変形例.
 送信部113が送信するユーザデータは、特徴量に限らず、測定データECTF自体であってもよい。測定データECTFは時間領域のデータでもよく、周波数領域のデータでもよい。全周波数帯における周波数振幅特性をユーザデータとして送信部113がサーバ装置300に送信してもよい。
 第2のプリセットデータについても外耳道伝達特性の特徴量に限られるものではない。例えば、第2のプリセットデータは、全周波数帯の外耳道伝達特性であってもよい。あるいは、第2のプリセットデータは時間領域の外耳道伝達特性であってもよい。第2のプリセットデータは被測定者の外耳道伝達特性に関するデータであればよい。そして、比較部302において、第2のプリセットデータとユーザデータとに処理を行って、同じ形式の特徴量を算出するようにしてもよい。
 第1のプリセットデータについても時間領域の空間音響伝達特性に限られるものはない。例えば、第1のプリセットデータは、周波数領域の空間音響伝達特性であってもよい。なお、データ格納部303は、耳毎にデータセットを記憶するのではなく、被測定者毎にデータセットを記憶していてもよい。すなわち、1つのデータセットが、4つの空間音響伝達特性Hls、Hlo、Hro、Hrsと、両耳の外耳道伝達特性の測定データの特徴量を含んでいてもよい。
 また、各データの周波数振幅特性、及び周波数位相特性等は、Logスケールでもよく、リニアスケールでもよい。第1及び第2のプリセットデータは、その他のパラメータや特徴量を含んでいてもよい。以下、プリセットデータのデータ形式の具体例について、図10~図12を用いて説明する。
変形例1.
 図10は、変形例1におけるプリセットデータのデータ形式を示す表である。図10では、第2のパラメータが外耳道伝達特性の測定データECTFL、ECTFR自体となっている。なお、第2の事前測定の測定データECTFL、ECTFRは、時間領域のデータでもよく、周波数領域のデータでもよい。この場合、頭外定位処理装置100が送信するユーザデータが測定データECTFL、ECTFRとなっていてもよい。この場合、比較部302が、測定データから、特徴量を算出する。
 データ格納部303が特徴量ではなく測定データECTF自体を記憶することで、比較する特徴量を適宜変更することができる。すなわち、より適した頭外定位フィルタを決定することができるように、特徴量を見直すことができる。また、測定データECTFL、ECTFRをそのまま特徴量として用いてもよい。
 さらに、変形例1では、第1のプリセットデータにおける空間音響伝達特性のペアリングが図6と異なっている。空間音響伝達特性Hlsと空間音響伝達特性Hloのペアが、外耳道伝達特性の測定データECTFLと対応付けられている。例えば、被測定者Aの左耳に対するデータセットは測定データECTFL_Aと空間音響伝達特性Hls_Aと空間音響伝達特性Hlo_Aとを含んでいる。空間音響伝達特性Hrsと空間音響伝達特性Hroのペアが、外耳道伝達特性の測定データECTFRと対応付けられている。例えば、被測定者Bの右耳に対するデータセットは測定データECTFR_Bと空間音響伝達特性Hrs_Bと空間音響伝達特性Hro_Bとを含んでいる。
 空間音響伝達特性Hls、Hrsは空間音響伝達特性Hlo,Hroに比べてエネルギーも高い。このため、図10のように、データセットに含まれる空間音響伝達特性のペアを設定してもよい。スピーカに近い側の耳の空間音響伝達関数Hls、Hrsは頭部の外側の伝達経路を通る。よって、空間音響伝達関数Hls、Hrsは外耳の影響を強く受けていると考えられる。変形例1では、空間音響伝達関数Hlsと空間音響伝達関数Hloとをペアリングして、空間音響伝達関数Hrsと空間音響伝達関数Hroとをペアリングしている。
 なお、耳とスピーカ配置の対称性から、ユーザUの左耳の外耳道伝達特性に最も類似する外耳道伝達特性が、被測定者1の右耳のデータとなることがあり得る。同様に、ユーザUの右耳の外耳道伝達特性に最も類似する外耳道伝達特性が、被測定者1の左耳のデータとなることがあり得る。
変形例2.
 図11は、変形例2におけるプリセットデータのデータ形式を示す表である。変形例2では、第1のプリセットデータは、空間音響伝達特性1、及び空間音響伝達特性2に加えて、遅延量(delay)とレベル(level)を含んでいる。遅延量は、空間音響伝達特性1から空間音響伝達特性2との間の到達時間の差を示している。例えば、遅延量ITDL_Aは、空間音響伝達特性Hls_Aにおけるインパルス音の到達時間と、空間音響伝達特性Hlo_Aにおけるインパルス音の到達時間と、の差となる。遅延量は被測定者の頭部の大きさに応じた値となる。
 レベルは空間音響伝達特性1の振幅レベルと、空間音響伝達特性の振幅レベルの差となる。例えば、レベルILDL_Aは、全周波数帯における空間音響伝達特性Hls_Aの周波数振幅特性の平均値と、全周波数帯における空間音響伝達特性Hlo_Aの周波数振幅特性の平均値と、の差となる。このように、第1のプリセットデータに対して、空間音響伝達特性のペアの特徴量を含めている。
 そして、送信部305は、このような特徴量を頭外定位処理装置100に送信する。頭外定位処理装置100では、ユーザUによる聴感テストなどで、このような特徴量を調整する。調整した特徴量を用いて、空間音響フィルタを最適化することができる。
 例えば、頭外定位処理部10が、空間音響伝達特性Hls、Hrsの空間音響フィルタを畳み込む際、遅延量は0とし、空間音響伝達特性Hlo、Hroの遅延量を適宜変更しても良い。
 さらには、低い周波数帯域についてもより定位効果を向上させために、遅延量を、ユーザUが調整してもよい。ユーザが空間音響伝達特性Hlsと空間音響伝達特性Hloとの間の遅延量、及び、空間音響伝達特性Hrsと空間音響伝達特性Hroのとの間の遅延量を独立に調整する。
 あるいは、頭部周囲の長さに応じた遅延量で空間音響伝達特性を遅延しても良い。例えば、ユーザUが頭部周囲の長さの計測値や、帽子のサイズを入力してもよい。これにより、頭部周囲の長さに応じた遅延量で空間音響伝達特性Hlo、Hroを空間音響伝達特性Hls、Hrsから遅延させることができる。
 ユーザUの左右の耳幅や頭部周囲を数値入力することで、中低域の位相差(遅延量)を算出するようにしてもよい。そして、被測定者のサイド側の空間音響伝達特性Hls、Hrsと、クロストーク側の空間音響伝達特性Hlo、Hroと、について、遅延量及びレベル差を反映させてもよい。このように、遅延量やレベルなどを考慮して、空間音響フィルタを算出することが可能である。
 第2のプリセットデータは、特徴量hpL、hpRと、外耳道伝達特性の測定データECTFL、ECTFRと、を含んでいる。第2のプリセットデータは、特徴量を有していることで、比較時において、外耳道伝達特性から、特徴量を算出する必要がなくなる。よって、処理を簡素化することができる。さらに、第2のプリセットデータは、外耳道伝達特性の測定データを含んでいることで、特徴量の見直しが可能になる。例えば、特徴量となる周波数振幅特性の周波数帯を変更することができる。
変形例3.
 図12は、変形例3におけるプリセットデータのデータ形式を示す表である。変形例3では、第1のプリセットデータは、空間音響伝達特性の周波数位相特性1、周波数位相測定2、及び周波数振幅特性1、周波数振幅特性2を有している。また、第2のプリセットデータは、特徴量1、及び特徴量2を有している。
 特徴量1は、外耳道伝達特性の2kHz~20kHzにおける周波数振幅特性である。特徴量2は、外耳道伝達特性の2kHz未満の低周波数帯における周波数振幅特性である。例えば、2種類の特徴量に対して、重み付けをして類似度スコアを算出することができる。
 変形例3では、第1のプリセットデータとして、データ格納部303が、周波数領域における空間音響伝達特性を格納している。例えば、時間領域の空間音響伝達特性Hls_Aをフーリエ変換することで、周波数振幅特性Hls_am_Aと周波数位相特性Hls_p_Aとが算出される。そして、データ格納部303は、周波数振幅特性と周波数位相特性を第1のプリセットデータとして格納している。
 そして、送信部305は、抽出されたデータセットの周波数振幅特性と周波数位相特性を頭外定位処理装置100に送信する。そして、頭外定位処理装置100が周波数振幅特性と周波数位相特性に基づいて、空間音響伝達特性の空間音響フィルタを生成する。あるいは、サーバ装置300が、周波数振幅特性と周波数位相特性に基づいて、空間音響伝達特性の空間音響フィルタを生成してもよい。そして、サーバ装置300が生成した空間音響フィルタを頭外定位処理装置100に送信してもよい。また、サーバ装置300がフィルタ生成処理の一部を行い、残りの処理を頭外定位処理装置100が行っても良い
その他の実施の形態.
 頭外定位処理装置100となるユーザ端末は、パソコン、スマートホン、携帯音楽プレイヤー、mp3プレイヤー、タブレット端末である。なお、ユーザ端末は、物理的に単一な装置に限定されるものではない。例えば、ユーザ端末は、携帯音楽プレイヤーと、パソコンなどを組み合わせた構成であってもよい。この場合、ヘッドホンを接続した携帯音楽プレイヤーが測定信号を発生する機能を有し、マイクユニットを接続したパソコンが測定データを記憶する機能、及びユーザデータを送信する通信機能を有している。
 また、ユーザ測定を行うユーザ端末と、頭外定位処理を行うユーザ端末は、異なる端末であってもよい。こうすることで、ユーザが任意のユーザ端末を用いて頭外定位処理された再生信号を受聴することができる。さらには、ユーザが複数の端末(再生装置)で同じ頭外定位フィルタを共有することができる。この場合、同じヘッドホン43については同じ頭外定位フィルタを設定し、異なるヘッドホン43については異なる頭外定位フィルタを設定する
 ユーザデータは測定により得られた測定データ自体であってもよい、測定データから抽出された一部の測定データであってもよい。さらには、ユーザデータは、測定データに対して平滑化などの処理が施されたデータであってもよい。
 類似度の高い複数の第1のプリセットデータを提示して、ユーザUに選ばせても良い。例えば、比較部302は、類似度スコアが高い3つのデータセットを選択する。送信部305は、片耳について、3つの第1プリセットデータを送信する。ユーザUが3つの第1のプリセットデータを用いて頭外定位受聴したとき聴感に基づいて,ユーザUが最適な第1のプリセットデータを選択しても良い。さらには、聴感に応じて、頭外定位フィルタを補正してもよい。
 データ格納部303にて類似度を算出する場合、周波数に応じて重み付けを行ってもよい。あるいは、特徴量となる周波数帯域を変更しても良い。聴感効果における外耳の影響は約2kHz~約16kHzであるので、特徴量はこの帯域の振幅値を含んでいることが望ましい。また、周波数振幅特性は、Logスケールであっても、リニアスケールであってもよい。
 データ格納部303は外耳道伝達特性の測定データECTF自体を保存しておき、比較部302において特徴量を算出しても良い。したがって、データ格納部303に格納されている第2のプリセットデータは、被測定者の耳の外耳道伝達特性に関するデータであればよい。例えば、第2のプリセットデータは、時間領域の外耳道伝達特性であってもよく、周波数領域の外耳道伝達特性であってもよい。さらに、第2のプリセットデータは、外耳道伝達特性の一部を抽出したデータであってもよい。また、第2のプリセットデータは、外耳道伝達関数の測定データに対して平滑化処理などの処理を行ったデータであってもよい。
 また、第1のプリセットデータは、被測定者1の左右の耳の空間音響伝達特性に関するデータであればよい。第1のプリセットデータは、時間領域の空間音響伝達特性であってもよく、周波数領域の空間音響伝達特性であってもよい。さらに、第1のプリセットデータは、空間音響伝達特性の一部を抽出したデータであってもよい。
 さらにプリセットデータは、逐次増加させていくことも可能である。すなわち、新しいユーザ(被測定者)が外耳道伝達特性の測定に加えて、空間音響伝達特性を測定した場合、その測定データに基づいて、新しいデータデータセットが追加される。このようにすることで、候補となるプリセットデータのデータセット数を順次増やしていくことができるため、ユーザUに適した頭外定位処理フィルタを決定することができる。
 なお、サーバ装置300は、複数の測定装置200からプリセットデータを収集しても良い。例えば、インターネットなどのネットワークを介して,複数の測定装置200からのプリセットデータをサーバ装置300が取得する。このようにすることで、候補となるプリセットデータのデータセット数を増やすことができる。よって、よりユーザUに適したフィルタを決定することができる。
 ヘッドホン43とマイクユニット2は、無線により信号を入出力するものでもよい。また、ユーザの耳に音を出力する出力ユニットとして、ヘッドホン43の代わりに、イヤホンなどを用いることも可能である。
 データ格納部303のデータを、あらかじめ測定環境(リスニングルーム、スタジオ等)毎にグループ分けしてもよい(またはタグ等で紐付けをしてもよい)。そして、ユーザ端末が、ユーザUに対して複数のリスニングルームを表示する。ユーザUが聴きたいリスニングルームを選択する。ユーザ端末からユーザデータが送信されたら、サーバ装置300は指定されたリスニングルームに紐づいている特徴量との類似度を算出し、相関の高い被測定者の第1のプリセットデータセットをユーザ端末へ送信する。ユーザUは第1のプリセットデータを用いた頭外低位処理で試聴することができ、試聴後、気に入ったら購入し、代金を払う。データを提供した被測定者に、その代金に基づく対価(例えば数%)が支払われるようにしてもよい。
 上記処理のうちの一部又は全部は、コンピュータプログラムによって実行されてもよい。上述したプログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD-ROM(Read Only Memory)、CD-R、CD-R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(Random Access Memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
 以上、本発明者によってなされた発明を実施の形態に基づき具体的に説明したが、本発明は上記実施の形態に限られたものではなく、その要旨を逸脱しない範囲で種々変更可能であることは言うまでもない。
 この出願は、2017年5月10日に出願された日本出願特願2017-93733を基礎とする優先権を主張し、その開示の全てをここに取り込む。
 本開示は、頭外定位処理技術に適用可能である。
 U ユーザ
 1 被測定者
 2L 左マイク
 2R 右マイク
 5L 左スピーカ
 5R 右スピーカ
 9L 左耳
 9R 右耳
 10 頭外定位処理部
 11 畳み込み演算部
 12 畳み込み演算部
 21 畳み込み演算部
 22 畳み込み演算部
 24 加算器
 25 加算器
 41 フィルタ部
 42 フィルタ部
 43 ヘッドホン
 100 頭外定位処理装置
 111 インパルス応答測定部
 112 ECTF特性取得部
 113 送信部
 114 受信部
 120 演算処理部
 121 逆フィルタ算出部
 122 フィルタ記憶部
 200 測定装置
 201 処理装置
 300 サーバ装置
 301 受信部
 302 比較部
 303 データ格納部
 304 抽出部
 305 送信部

Claims (7)

  1.  ユーザに装着され、前記ユーザの耳に向けて音を出力する出力ユニットと、
     前記ユーザの耳に装着され、前記出力ユニットから出力された音を収音するマイクユニットと、
     前記出力ユニットに対して測定信号を出力するとともに、前記マイクユニットから出力された収音信号を取得するユーザ端末と、
     前記ユーザ端末と通信可能なサーバ装置と、を備えた頭外定位フィルタ決定システムであって、
     前記ユーザ端末は、
     前記出力ユニットと前記マイクユニットとを用いて前記ユーザの耳の外耳道伝達特性に関する測定データを測定する測定部と、
     前記測定データに基づくユーザデータを前記サーバ装置に送信する送信部を備え、
     前記サーバ装置は、
     音源から被測定者の耳までの空間音響伝達特性に関する第1のプリセットデータと、前記被測定者の耳の外耳道伝達特性に関する第2のプリセットデータとを対応付けて記憶するデータ格納部であって、複数の被測定者に対して取得された複数の前記第1及び第2のプリセットデータを記憶するデータ格納部と、
     前記ユーザデータを複数の前記第2のプリセットデータと比較する比較部と、
     前記比較部での比較結果に基づいて、複数の前記第1のプリセットデータの中から第1のプリセットデータを抽出する抽出部と、を備えた、頭外定位フィルタ決定システム。
  2.  前記サーバ装置は、前記抽出部で抽出された前記第1のプリセットデータをユーザ端末に送信し、
     前記ユーザ端末は、前記第1のプリセットデータに応じた空間音響フィルタと、前記測定データに基づく逆フィルタとに基づいて頭外定位処理を行う請求項1に記載の頭外定位フィルタ決定システム。
  3.  前記比較部が、前記ユーザと前記被測定者の外耳道伝達特性に基づく特徴量同士を比較しており、
     前記特徴量が所定の周波数以上の周波数振幅特性を含んでいる請求項1、又は2に記載の頭外定位フィルタ決定システム。
  4.  前記データ格納部は、音源から前記被測定者の左耳までの空間音響伝達特性に関する第1のプリセットデータと、音源から前記被測定者の左耳の外耳道伝達特性に関する第2のプリセットデータとを対応付けて、左耳のデータセットとして記憶しており、
     前記データ格納部は、音源から前記被測定者の右耳までの空間音響伝達特性に関する第1のプリセットデータと、音源から前記被測定者の右耳の外耳道伝達特性に関する第2のプリセットデータとを対応付けて、右耳のデータセットとして記憶しており、
     前記比較部は、前記ユーザの左耳の外耳道伝達特性に関する測定データに基づくユーザデータを、前記左耳のデータセットの前記第2のプリセットデータ、及び前記右耳のデータセットの前記第2のプリセットデータとそれぞれ比較し、
     前記比較部は、前記ユーザの右耳の外耳道伝達特性に関する測定データに基づくユーザデータを、前記左耳のデータセットの前記第2のプリセットデータ、及び前記右耳のデータセットの前記第2のプリセットデータとそれぞれ比較する請求項1~3のいずれか1項に記載の頭外定位フィルタ決定システム。
  5.  ユーザの耳の外耳道伝達特性に関する測定データに基づくユーザデータを取得する取得部と、
     音源から被測定者の耳までの空間音響伝達特性に関する第1のプリセットデータと、前記被測定者の耳の外耳道伝達特性に関する第2のプリセットデータとを対応付けて記憶するデータ格納部であって、複数の被測定者に対して取得された複数の前記第1及び第2のプリセットデータを格納するデータ格納部と、
     前記ユーザデータと、複数の前記第2のプリセットデータと、を比較することで、複数の前記第1のプリセットデータの中から第1のプリセットデータを抽出する抽出部と、
     を備えた頭外定位フィルタ決定装置。
  6.  ユーザの耳の外耳道伝達特性に関する測定データに基づくユーザデータを取得するステップと、
     音源から被測定者の耳までの空間音響伝達特性に関する第1のプリセットデータと、前記被測定者の耳の外耳道伝達特性に関する第2のプリセットデータとを対応付けて、複数の被測定者に対して取得された複数の前記第1及び第2のプリセットデータを記憶するステップと、
     前記ユーザデータと、複数の前記第2のプリセットデータと、を比較することで、複数の前記第1のプリセットデータの中から第1のプリセットデータを抽出するステップと、
     を含む頭外定位フィルタ決定方法。
  7.  コンピュータに、
     ユーザの耳の外耳道伝達特性に関する測定データに基づくユーザデータを取得するステップと、
     音源から被測定者の耳までの空間音響伝達特性に関する第1のプリセットデータと、前記被測定者の耳の外耳道伝達特性に関する第2のプリセットデータとを対応付けて、複数の被測定者に対して取得された複数の前記第1及び第2のプリセットデータを記憶するステップと、
     前記ユーザデータと、複数の前記第2のプリセットデータと、を比較することで、複数の前記第1のプリセットデータの中から第1のプリセットデータを抽出するステップと、
     を実行させるプログラム。
PCT/JP2018/017050 2017-05-10 2018-04-26 頭外定位フィルタ決定システム、頭外定位フィルタ決定装置、頭外定位決定方法、及びプログラム WO2018207645A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201880030388.6A CN110612727B (zh) 2017-05-10 2018-04-26 头外定位滤波器决定系统、头外定位滤波器决定装置、头外定位决定方法以及记录介质
EP18798980.1A EP3637801B1 (en) 2017-05-10 2018-04-26 Out-of-head localization filter determination system, out-of-head localization filter determination device, out-of-head localization determination method, and program
US16/675,052 US10798517B2 (en) 2017-05-10 2019-11-05 Out-of-head localization filter determination system, out-of-head localization filter determination device, out-of-head localization filter determination method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017093733A JP6791001B2 (ja) 2017-05-10 2017-05-10 頭外定位フィルタ決定システム、頭外定位フィルタ決定装置、頭外定位決定方法、及びプログラム
JP2017-093733 2017-05-10

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/675,052 Continuation US10798517B2 (en) 2017-05-10 2019-11-05 Out-of-head localization filter determination system, out-of-head localization filter determination device, out-of-head localization filter determination method, and program

Publications (1)

Publication Number Publication Date
WO2018207645A1 true WO2018207645A1 (ja) 2018-11-15

Family

ID=64105580

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/017050 WO2018207645A1 (ja) 2017-05-10 2018-04-26 頭外定位フィルタ決定システム、頭外定位フィルタ決定装置、頭外定位決定方法、及びプログラム

Country Status (5)

Country Link
US (1) US10798517B2 (ja)
EP (1) EP3637801B1 (ja)
JP (1) JP6791001B2 (ja)
CN (1) CN110612727B (ja)
WO (1) WO2018207645A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113965859A (zh) * 2020-07-20 2022-01-21 Jvc建伍株式会社 头外定位滤波器确定系统、方法以及程序

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10932083B2 (en) * 2019-04-18 2021-02-23 Facebook Technologies, Llc Individualization of head related transfer function templates for presentation of audio content
JP7404736B2 (ja) * 2019-09-24 2023-12-26 株式会社Jvcケンウッド 頭外定位フィルタ決定システム、頭外定位フィルタ決定方法、及びプログラム
CN114175672A (zh) 2019-09-24 2022-03-11 Jvc建伍株式会社 头戴式耳机、头外定位滤波器决定装置、头外定位滤波器决定系统、头外定位滤波器决定方法和程序
JP7395906B2 (ja) * 2019-09-24 2023-12-12 株式会社Jvcケンウッド ヘッドホン、頭外定位フィルタ決定装置、及び頭外定位フィルタ決定方法
JP2021052315A (ja) * 2019-09-25 2021-04-01 株式会社Jvcケンウッド 頭外定位フィルタ決定システム、頭外定位処理装置、頭外定位フィルタ決定装置、頭外定位フィルタ決定方法、及びプログラム
JP7447719B2 (ja) 2020-07-20 2024-03-12 株式会社Jvcケンウッド 頭外定位フィルタ生成システム、処理装置、頭外定位フィルタ生成方法、及びプログラム
WO2022115154A1 (en) * 2020-11-24 2022-06-02 Starkey Laboratories, Inc. Apparatus and method for estimation of eardrum sound pressure based on secondary path measurement

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08111899A (ja) 1994-10-13 1996-04-30 Matsushita Electric Ind Co Ltd 両耳聴装置
JP2000324590A (ja) * 1999-05-13 2000-11-24 Mitsubishi Electric Corp 音響再生装置
JP2015211235A (ja) 2014-04-23 2015-11-24 国立研究開発法人情報通信研究機構 立体音再生装置およびプログラム
JP2017028525A (ja) 2015-07-23 2017-02-02 株式会社Jvcケンウッド 頭外定位処理装置、頭外定位処理方法、及びプログラム
JP2017041766A (ja) 2015-08-20 2017-02-23 株式会社Jvcケンウッド 頭外定位処理装置、及びフィルタ選択方法
JP2017093733A (ja) 2015-11-20 2017-06-01 花王株式会社 吸収性物品

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69433258T2 (de) * 1993-07-30 2004-07-01 Victor Company of Japan, Ltd., Yokohama Raumklangsignalverarbeitungsvorrichtung
JP3514639B2 (ja) * 1998-09-30 2004-03-31 株式会社アーニス・サウンド・テクノロジーズ ヘッドホンによる再生音聴取における音像頭外定位方法、及び、そのための装置
JP2005223713A (ja) * 2004-02-06 2005-08-18 Sony Corp 音響再生装置、音響再生方法
WO2006077953A1 (ja) * 2005-01-24 2006-07-27 Matsushita Electric Industrial Co., Ltd. 音像定位制御装置
CN101360359A (zh) * 2007-08-03 2009-02-04 富准精密工业(深圳)有限公司 产生立体音效的方法及装置
JP4355359B1 (ja) 2008-05-27 2009-10-28 パナソニック株式会社 マイクを外耳道開口部に設置する耳掛型補聴器
JP5857071B2 (ja) * 2011-01-05 2016-02-10 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. オーディオ・システムおよびその動作方法
US9030545B2 (en) * 2011-12-30 2015-05-12 GNR Resound A/S Systems and methods for determining head related transfer functions
CN103325383A (zh) * 2012-03-23 2013-09-25 杜比实验室特许公司 音频处理方法和音频处理设备
CN104581610B (zh) * 2013-10-24 2018-04-27 华为技术有限公司 一种虚拟立体声合成方法及装置
JP6596896B2 (ja) * 2015-04-13 2019-10-30 株式会社Jvcケンウッド 頭部伝達関数選択装置、頭部伝達関数選択方法、頭部伝達関数選択プログラム、音声再生装置
JP6589437B2 (ja) * 2015-07-23 2019-10-16 株式会社Jvcケンウッド 頭外定位処理装置、頭外定位処理方法、プログラム
EP3657822A1 (en) * 2015-10-09 2020-05-27 Sony Corporation Sound output device and sound generation method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08111899A (ja) 1994-10-13 1996-04-30 Matsushita Electric Ind Co Ltd 両耳聴装置
JP2000324590A (ja) * 1999-05-13 2000-11-24 Mitsubishi Electric Corp 音響再生装置
JP2015211235A (ja) 2014-04-23 2015-11-24 国立研究開発法人情報通信研究機構 立体音再生装置およびプログラム
JP2017028525A (ja) 2015-07-23 2017-02-02 株式会社Jvcケンウッド 頭外定位処理装置、頭外定位処理方法、及びプログラム
JP2017041766A (ja) 2015-08-20 2017-02-23 株式会社Jvcケンウッド 頭外定位処理装置、及びフィルタ選択方法
JP2017093733A (ja) 2015-11-20 2017-06-01 花王株式会社 吸収性物品

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3637801A4

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113965859A (zh) * 2020-07-20 2022-01-21 Jvc建伍株式会社 头外定位滤波器确定系统、方法以及程序

Also Published As

Publication number Publication date
EP3637801B1 (en) 2024-06-26
JP2018191208A (ja) 2018-11-29
EP3637801A1 (en) 2020-04-15
JP6791001B2 (ja) 2020-11-25
US20200068337A1 (en) 2020-02-27
CN110612727A (zh) 2019-12-24
CN110612727B (zh) 2021-07-09
US10798517B2 (en) 2020-10-06
EP3637801A4 (en) 2020-12-23

Similar Documents

Publication Publication Date Title
US10798517B2 (en) Out-of-head localization filter determination system, out-of-head localization filter determination device, out-of-head localization filter determination method, and program
US11115743B2 (en) Signal processing device, signal processing method, and program
US10264387B2 (en) Out-of-head localization processing apparatus and out-of-head localization processing method
JP6515720B2 (ja) 頭外定位処理装置、頭外定位処理方法、及びプログラム
US11503406B2 (en) Processor, out-of-head localization filter generation method, and program
JP6753329B2 (ja) フィルタ生成装置、及びフィルタ生成方法
CN110301142A (zh) 滤波器生成装置、滤波器生成方法以及程序
WO2021059984A1 (ja) 頭外定位フィルタ決定システム、頭外定位処理装置、頭外定位フィルタ決定装置、頭外定位フィルタ決定方法、及びプログラム
WO2021059983A1 (ja) ヘッドホン、頭外定位フィルタ決定装置、頭外定位フィルタ決定システム、頭外定位フィルタ決定方法、及びプログラム
JP7435334B2 (ja) 頭外定位フィルタ決定システム、頭外定位フィルタ決定方法、及びプログラム
JP7404736B2 (ja) 頭外定位フィルタ決定システム、頭外定位フィルタ決定方法、及びプログラム
JP7395906B2 (ja) ヘッドホン、頭外定位フィルタ決定装置、及び頭外定位フィルタ決定方法
JP6805879B2 (ja) フィルタ生成装置、フィルタ生成方法、及びプログラム
JP2015211235A (ja) 立体音再生装置およびプログラム
WO2021131337A1 (ja) 処理装置、処理方法、フィルタ生成方法、再生方法、及びプログラム
JP2022185840A (ja) 頭外定位処理装置、及び頭外定位処理方法
JP7115353B2 (ja) 処理装置、処理方法、再生方法、及びプログラム
JP2023024038A (ja) 処理装置、及び処理方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18798980

Country of ref document: EP

Kind code of ref document: A1

DPE1 Request for preliminary examination filed after expiration of 19th month from priority date (pct application filed from 20040101)
NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2018798980

Country of ref document: EP

Effective date: 20191210