WO2016167007A1 - 頭部伝達関数選択装置、頭部伝達関数選択方法、頭部伝達関数選択プログラム、音声再生装置 - Google Patents

頭部伝達関数選択装置、頭部伝達関数選択方法、頭部伝達関数選択プログラム、音声再生装置 Download PDF

Info

Publication number
WO2016167007A1
WO2016167007A1 PCT/JP2016/052711 JP2016052711W WO2016167007A1 WO 2016167007 A1 WO2016167007 A1 WO 2016167007A1 JP 2016052711 W JP2016052711 W JP 2016052711W WO 2016167007 A1 WO2016167007 A1 WO 2016167007A1
Authority
WO
WIPO (PCT)
Prior art keywords
head
related transfer
transfer function
user
measurement
Prior art date
Application number
PCT/JP2016/052711
Other languages
English (en)
French (fr)
Inventor
優美 藤井
Original Assignee
株式会社Jvcケンウッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Jvcケンウッド filed Critical 株式会社Jvcケンウッド
Publication of WO2016167007A1 publication Critical patent/WO2016167007A1/ja
Priority to US15/730,101 priority Critical patent/US10142733B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/04Circuits for transducers, loudspeakers or microphones for correcting frequency response
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S1/00Two-channel systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S5/00Pseudo-stereo systems, e.g. in which additional channel signals are derived from monophonic signals by means of phase shifting, time delay or reverberation 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S5/00Pseudo-stereo systems, e.g. in which additional channel signals are derived from monophonic signals by means of phase shifting, time delay or reverberation 
    • H04S5/02Pseudo-stereo systems, e.g. in which additional channel signals are derived from monophonic signals by means of phase shifting, time delay or reverberation  of the pseudo four-channel type, e.g. in which rear channel signals are derived from two-channel stereo signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/301Automatic calibration of stereophonic sound system, e.g. with test microphone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • H04S7/303Tracking of listener position or orientation
    • H04S7/304For headphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2499/00Aspects covered by H04R or H04S not otherwise provided for in their subgroups
    • H04R2499/10General applications
    • H04R2499/11Transducers incorporated or for use in hand-held devices, e.g. mobile phones, PDA's, camera's
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/01Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]

Definitions

  • the present disclosure relates to a head related transfer function selection device, a head related transfer function selection method, a head related transfer function selection program, and a user's own head related transfer that can select a head related transfer function that is close to the user's own head related transfer function.
  • the present invention relates to an audio reproduction device capable of reproducing an audio signal using a head-related transfer function close to the function.
  • the characteristics of the head-related transfer function vary depending on the shape of the head and pinna. Therefore, it is desirable to localize the sound using the head-related transfer function of the user who listens to the sound while wearing headphones. However, it is not easy to measure one's own head-related transfer function in daily life.
  • Embodiments provide a head-related transfer function selection device, a head-related transfer function selection method, and a head-related transfer function selection program that can easily select a head-related transfer function that approximates its own head-related transfer function With the goal. It is another object of the present invention to provide an audio reproduction device that can reproduce an audio signal using a head-related transfer function that approximates its own head-related transfer function.
  • the user's head impulse is based on the sound signal collected by the microphone attached to the user's ear in a state where the predetermined sound as the measurement signal is generated from the speaker.
  • a measurement unit that obtains a response
  • a feature amount extraction unit that extracts a feature amount of a frequency characteristic corresponding to the head impulse response
  • a feature amount extracted by the feature amount extraction unit is provided.
  • a head-related transfer function selection device comprising: a characteristic selection unit that selects any one of the head-related transfer functions from a database in which the head-related transfer functions and the feature values of the head-related transfer functions are associated with each other. .
  • a predetermined sound as a measurement signal is generated by a speaker, and the user's head is picked up based on an audio signal picked up by a microphone attached to the user's ear.
  • a partial impulse response extract a characteristic quantity of a frequency characteristic corresponding to the head impulse response, and based on the extracted characteristic quantity, a plurality of human head related transfer functions and feature values of the head related transfer function
  • a head-related transfer function selection method is provided, wherein any one of the head-related transfer functions is selected from a database that is associated with.
  • the computer generates a predetermined sound as a measurement signal from a speaker, and based on the sound signal collected by the microphone attached to the user's ear, the user's A step of acquiring a head impulse response; a step of extracting a feature quantity of a frequency characteristic corresponding to the head impulse response; and a head transfer function and a head of each of a plurality of persons based on the extracted feature quantity
  • a head-related transfer function selection program that executes a step of selecting any one of the head-related transfer functions from a database in which transfer function feature values are associated with each other.
  • the user's head impulse is generated based on the sound signal collected by the microphone attached to the user's ear in a state where the predetermined sound as the measurement signal is generated from the speaker.
  • a measurement unit that obtains a response
  • a feature amount extraction unit that extracts a feature amount of a frequency characteristic corresponding to the head impulse response
  • a feature amount extracted by the feature amount extraction unit is included in the user's head impulse.
  • a characteristic selecting unit that selects any one of the head related transfer functions from a database in which the head related transfer function and the feature value of the head related transfer function are associated with each other, and the head related transfer function selected by the characteristic selecting unit as voice data
  • a playback unit that plays back the audio data.
  • head-related transfer function selection device head-related transfer function selection method, and head-related transfer function selection program of the embodiment, it is possible to easily select a head-related transfer function that approximates its own head-related transfer function, You can easily achieve a localization effect close to your own characteristics.
  • an audio signal can be reproduced using a head-related transfer function that approximates its own head-related transfer function.
  • FIG. 1 is a block diagram illustrating a head-related transfer function selection device and a sound reproduction device according to an embodiment.
  • FIG. 2 is a flowchart showing a first measurement example for measuring the user's head impulse response.
  • FIG. 3 is a schematic diagram showing a state in which the mobile terminal is positioned in front of the face having a horizontal angle of 0 ° and an elevation angle of 0 °.
  • FIG. 4 is a schematic diagram illustrating a state in which the mobile terminal is moved from the position of the elevation angle of 0 ° to 30 ° and 60 °.
  • FIG. 5 is a diagram illustrating a measurement pattern according to the first measurement example.
  • FIG. 1 is a block diagram illustrating a head-related transfer function selection device and a sound reproduction device according to an embodiment.
  • FIG. 2 is a flowchart showing a first measurement example for measuring the user's head impulse response.
  • FIG. 3 is a schematic diagram showing a state in which the mobile terminal is positioned in front of the
  • FIG. 6 is a characteristic diagram showing the head-related transfer function when the sound of the measurement signal is output from the speaker in the anechoic room and the elevation angle is changed at an angle of 0 ° in the horizontal direction.
  • FIG. 7 is a flowchart showing a second measurement example for measuring the user's head impulse response.
  • FIG. 8 is a schematic diagram showing a state in which the mobile terminal is moved from 0 ° to 30 ° from a position at an angle of ⁇ 30 ° in the horizontal direction.
  • FIG. 9 is a diagram illustrating a measurement pattern according to the second measurement example.
  • FIG. 10 is a flowchart showing a third measurement example for measuring the head impulse response of the user.
  • FIG. 11 is a diagram illustrating a measurement pattern according to the third measurement example.
  • FIG. 12 summarizes the first to fourth measurement examples.
  • a general-purpose portable terminal 100 functions as a head-related transfer function selection device and a sound reproduction device.
  • the mobile terminal 100 may be a mobile phone such as a smartphone.
  • the mobile terminal 100 includes a camera 1, an acceleration sensor 2, and an angular velocity sensor 3.
  • the camera 1, the acceleration sensor 2, and the angular velocity sensor 3 are connected to a control unit 4 configured by, for example, a CPU.
  • the control unit 4 includes a measurement unit 41, a feature amount extraction unit 42, a characteristic selection unit 43, and a reproduction unit 44.
  • the photographing signal obtained by photographing the subject by the camera 1 is input to the measuring unit 41, supplied from the measuring unit 41 to the display unit 10, and displayed.
  • the camera 1 may shoot a subject and generate a shooting signal.
  • the acceleration detection signal detected by the acceleration sensor 2 and the angular velocity detection signal indicating the tilt and angle of the mobile terminal 100 detected by the angular velocity sensor 3 are input to the measurement unit 41.
  • the acceleration sensor 2 and the angular velocity sensor 3 may always operate while the mobile terminal 100 is powered on.
  • the measurement unit 41 can generate digital audio data which is a predetermined measurement signal for measuring the user's head impulse response (HRIR).
  • HRIR head impulse response
  • the measurement unit 41 supplies digital audio data to the D / A converter 5.
  • the D / A converter 5 converts the digital audio data into an analog audio signal and supplies it to the speaker 6.
  • the speaker 6 may be a speaker built in the mobile terminal 100. An external speaker may be used as the speaker 6.
  • the speaker 6 may be a monaural speaker or a stereo speaker.
  • the headphones 40 may be attached to the audio signal output terminal 7. How to use the headphones 40 will be described later.
  • the microphone 20 is connected to the microphone connection terminal 8.
  • the microphone 20 is preferably an earphone-type microphone that can be worn on the user's auricle.
  • the microphone 20 may be a monaural microphone or a stereo microphone. In the present embodiment, it is assumed that the microphone 20 is a monaural microphone.
  • the microphone 20 collects sound.
  • the analog audio signal output from the microphone 20 is input to the A / D converter 9 via the microphone connection terminal 8.
  • the A / D converter 9 converts the analog audio signal into digital audio data and supplies the digital audio data to the measurement unit 41.
  • the digital audio data input to the measurement unit 41 indicates the user's own HRIR that varies depending on the shape of the user's head and pinna.
  • the measuring unit 41 acquires HRIR when the mobile terminal 100 is positioned at a plurality of positions to be described later, and temporarily stores them in the storage unit 11.
  • the HRIR stored in the storage unit 11 is input to the feature amount extraction unit 42.
  • the feature amount extraction unit 42 performs a Fourier transform on the input HRIR to generate a head related transfer function (HRTF).
  • the measurement unit 41 may convert HRIR into HRTF and store it in the storage unit 11.
  • the feature amount extraction unit 42 acquires the feature amount of the user's HRTF. Details of the feature amount will be described later.
  • the feature quantity extracted by the feature quantity extraction unit 42 is input to the characteristic selection unit 43.
  • the external server 30 stores a database 301 in which HRTFs of a large number of people are associated with HRTF feature quantities described later.
  • the characteristic selection unit 43 accesses the server 30 via the communication unit 12 and selects, from the database 301, an HRTF having a feature quantity that most closely approximates the feature quantity extracted by the feature quantity extraction unit 42.
  • the selected HRTF is input to the characteristic selection unit 43 via the communication unit 12.
  • the selected HRTF is an HRTF substantially equivalent to the user's own HRTF.
  • the characteristic selection unit 43 supplies the HRTF to the reproduction unit 44.
  • the mobile terminal 100 may incorporate the database 301 in advance.
  • the portable terminal 100 may access the server 30 to read the data in the database 301 and store the same data as the database 301 in the storage unit 11 or another storage unit (not shown).
  • the digital audio data to be reproduced by the mobile terminal 100 is input to the reproduction unit 44 from the outside via the audio signal input terminal 13.
  • Digital audio data stored in a storage unit built in the mobile terminal 100 may be input to the playback unit 44.
  • an analog audio signal When an analog audio signal is input from the outside, it may be converted into digital audio data by the A / D converter 9 or another A / D converter and supplied to the reproduction unit 44.
  • the playback unit 44 has a filter 441 that performs a convolution operation on HRTFs in digital audio data.
  • the filter 441 performs convolution operation on the input digital audio data with the HRTF selected by the characteristic selection unit 43 and supplies the result to the D / A converter 5.
  • the D / A converter 5 converts the digital audio data supplied from the reproduction unit 44 into an analog audio signal.
  • the analog audio signal output from the D / A converter 5 is supplied to the headphones 40 via the audio signal output terminal 7.
  • the headphone 40 is an arbitrary headphone such as an overhead type, an inner type, or a canal type.
  • the headphone includes a so-called earphone.
  • the headphone 40 and the microphone 20 may be integrally configured.
  • the user wears the headphones 40 on his / her head or auricle and listens to the audio from the analog audio signal output from the audio signal output terminal 7. Since the filter 441 convolves an HRTF that is substantially equivalent to the user's own HRTF, the user can listen to the sound localized outside the head in a state suitable for the user.
  • the user can listen to the sound in a state where the left and right sounds are sounding from a predetermined angle direction described later.
  • a first measurement example will be described using the flowchart shown in FIG. 2 or a flowchart to be described later includes a step indicating an operation by the user and a step indicating a process executed by the mobile terminal 100.
  • the user wears the microphone 20 on one ear and sets the elevation angle ⁇ of the portable terminal 100 to 0 ° and the horizontal angle ⁇ to 0 ° in step S11.
  • the user wears the microphone 20 on the left ear 50L, for example, and positions the mobile terminal 100 in front of the head 50 (face). Assume that the mobile terminal 100 is in front of the face, and the horizontal angle ⁇ is 0 °.
  • the face position is set to the front using the video captured by the camera 1, the acceleration sensor 2, and the angular velocity sensor 3. Position correction may be performed.
  • an angle in the vertical direction when the mobile terminal 100 is moved in an arc shape in the vertical direction around the center of the head 50 is defined as an elevation angle ⁇ .
  • the elevation angle ⁇ is 0 ° when the user positions the mobile terminal 100 at the height of the left ear 50L or the right ear 50R.
  • the position of the mobile terminal 100 indicated by a solid line in FIGS. 3 and 4 is the set position of the mobile terminal 100 in step S11.
  • step S13 the user moves the elevation angle ⁇ of the portable terminal 100 from the 0 ° position to the 30 ° and 60 ° positions in a state where the sound of the measurement signal described above is output from the speaker 6.
  • the measurement unit 41 acquires HRIR of 0 °, 30 °, and 60 ° as the elevation angle ⁇ .
  • the measurement unit 41 receives a photographing signal obtained by photographing the subject by the camera 1, an acceleration detection signal from the acceleration sensor 2, and an angular velocity detection signal from the angular velocity sensor 3. Therefore, the measurement part 41 should just acquire HRIR in the time of the portable terminal 100 being located in each elevation angle (gamma) of 0 degrees, 30 degrees, and 60 degrees.
  • the user does not need to care about the elevation angle ⁇ , and may move the portable terminal 100 in the vertical direction so that the elevation angle ⁇ includes a range of 0 ° to 60 °.
  • the correct trajectory is displayed on the display unit 10. The trajectory may be corrected by performing the above process.
  • step S14 the user puts the microphone 20 on the other ear, sets the elevation angle ⁇ of the portable terminal 100 to 0 °, and positions it in the direction of 0 ° as the horizontal angle ⁇ .
  • step S16 the user moves the elevation angle ⁇ of the portable terminal 100 from the position of 0 ° to the positions of 30 ° and 60 ° in a state where the sound of the measurement signal is output from the speaker 6.
  • the measurement unit 41 acquires HRIR of 0 °, 30 °, and 60 ° as the elevation angle ⁇ .
  • the measurement pattern according to the first measurement example is the measurement pattern MP1 shown in FIG.
  • the elevation angles ⁇ of 0 °, 30 °, and 60 ° are merely examples, and other angles may be used, and the number of elevation angles ⁇ is not limited to three.
  • the number of elevation angles ⁇ is preferably two or more.
  • the feature amount extraction unit 42 extracts the HRIR feature amount in step S17.
  • the feature quantity extraction unit 42 may extract the HRIR feature quantity as follows.
  • the characteristic indicated by the solid line represents the HRTF measured when the sound of the measurement signal is output from the speaker 6 in the anechoic chamber with the horizontal angle ⁇ of 0 ° and the elevation angle ⁇ of 0 °. Yes.
  • the characteristics indicated by the alternate long and short dash line indicate the HRTF measured when the sound of the measurement signal is output from the speaker 6 in the anechoic chamber, where the horizontal angle ⁇ is 0 ° and the elevation angle ⁇ is 10 °.
  • HRTF as shown in FIG. 6 has different characteristics depending on the shape of the individual's head and ear.
  • Massachusetts Institute of Technology and Itakura Lab. Of Nagoya University and others have published a database of HRTFs measuring incident angles in all directions on the Internet.
  • FIG. 6 is published by Tohoku University Research Institute of Electronic Communication, Advanced Sound Information System Laboratory (http://www.ais.riec.tohoku.ac.jp/lab/db-hrtf/index-j.html) and others.
  • the HRTF measured in an anechoic room is obtained by measuring the measurement data of a specific subject in a horizontal direction of 0 ° and an elevation angle direction of 0 ° to 30 ° and graphically representing it.
  • the characteristic indicated by the broken line indicates the HRTF measured when the sound of the measurement signal is output from the speaker 6 in the anechoic chamber with the horizontal angle ⁇ of 0 ° and the elevation angle ⁇ of 20 °.
  • the characteristics indicated by the two-dot chain line indicate the HRTF measured when the horizontal angle ⁇ is 0 ° and the elevation angle ⁇ is 30 ° and the sound of the measurement signal is output from the speaker 6 in an anechoic chamber.
  • the frequency of the local peak P2 having a frequency of 10 kHz to 20 kHz is substantially the same when the elevation angle ⁇ is 0 ° to 30 °. Similarly, even if the elevation angle ⁇ (not shown) is 30 ° to 60 °, the frequency of the peak P2 is substantially the same.
  • the measurement data of other subjects by the present inventor were verified and diagrammatically.
  • the frequency of the peak P2 was the same or nearly the same when the elevation angle ⁇ was 0 ° to 30 °.
  • the feature amount extraction unit 42 extracts the frequency of the peak P2 as one of the feature amounts of the HRTF of each user.
  • the feature amount extraction unit 42 may extract the change amount of the amplitude increase / decrease of the peak P2 corresponding to the elevation angle ⁇ as the HRTF feature amount in addition to the frequency of the peak P2.
  • each person's HRTF and at least the feature amount 1 are associated with each other.
  • step S ⁇ b> 18 the characteristic selection unit 43 selects the HRTF having the feature quantity most similar to the feature quantity 1 extracted by the feature quantity extraction unit 42 from the database 301, and sends the HRTF to the reproduction unit 44. Set and finish the process.
  • HRTF is, for example, data of HRTF ( ⁇ , 0) and HRTF ( ⁇ , 0) for localizing the left and right voices in the direction of the horizontal angle ⁇ ⁇ ° with an elevation angle ⁇ .
  • the angle ⁇ ° is, for example, 30 °.
  • step S21 the user wears the microphone 20 on one ear, sets the elevation angle ⁇ of the portable terminal 100 to 0 °, and positions it at a predetermined position in the horizontal direction.
  • the user wears the microphone 20 on the left ear 50L, for example, and positions the mobile terminal 100 on the left side of the front of the head 50 (face), for example.
  • an image captured by the camera 1, an acceleration sensor 2, an angular velocity sensor 3 and the like. May be used to correct the position so that the face is in front.
  • step S22 the user outputs the sound of the measurement signal from the speaker 6, and the mobile terminal 100 is centered on the center of the head 50 and has a circular arc shape in the horizontal direction as indicated by a two-dot chain line in FIG. Move to.
  • the measurement unit 41 acquires HRIR of ⁇ 30 ° and 30 as the horizontal angle ⁇ .
  • the measurement unit 41 may acquire the HRIR when the mobile terminal 100 is positioned at the horizontal angles ⁇ of ⁇ 30 ° and 30 respectively.
  • the user does not have to worry about the angle ⁇ in the horizontal direction strictly, and may move the mobile terminal 100 in the horizontal direction so that the angle ⁇ in the horizontal direction includes a range of ⁇ 30 ° to 30 °.
  • step S23 the user outputs the measurement signal sound from the speaker 6 and sets the horizontal angle ⁇ to 0 ° and the elevation angle ⁇ of the portable terminal 100 from the position of 0 ° to 30 °. And move to the 60 ° position.
  • the measurement unit 41 acquires HRIR of 0 °, 30 °, and 60 ° as the elevation angle ⁇ .
  • step S24 the user attaches the microphone 20 to the other ear, sets the elevation angle ⁇ of the portable terminal 100 to 0 °, and positions it at a predetermined position in the horizontal direction as in step S21.
  • step S25 the user moves the mobile terminal 100 in an arc shape in the horizontal direction around the center of the head 50 with the sound of the measurement signal output from the speaker 6.
  • the measurement unit 41 acquires HRIR of ⁇ 30 ° and 30 as the horizontal angle ⁇ .
  • step S26 the user outputs the measurement signal sound from the speaker 6 and sets the horizontal angle ⁇ to 0 ° and the elevation angle ⁇ of the mobile terminal 100 from the position of 0 ° to 30 °. And move to the 60 ° position.
  • the measurement unit 41 acquires HRIR of 0 °, 30 °, and 60 ° as the elevation angle ⁇ .
  • the mobile terminal 100 was deviated from the trajectory for moving the measurement.
  • a process such as displaying a correct trajectory on the display unit 10 may be performed to correct the trajectory.
  • Measurement patterns according to the second measurement example are measurement patterns MP1 and MP2 shown in FIG. In FIG. 7, the measurement pattern MP1 is followed by the measurement pattern MP1, but the order may be reversed.
  • elevation angles ⁇ of 0 °, 30 °, and 60 ° are merely examples, and other angles may be used, and the number of elevation angles ⁇ is not limited to three.
  • the number of elevation angles ⁇ is preferably two or more.
  • the horizontal angle ⁇ is not limited to ⁇ 30 ° and 30 °.
  • the feature amount extraction unit 42 extracts the feature amount of HRTF in step S27.
  • the feature quantity extraction unit 42 may extract the HRIR feature quantity as follows.
  • each HRTF of a large number of people is associated with at least feature quantities 1, 4, and 5.
  • the frequency of the peak P1 near 4 kHz in FIG. 6 may be added to the feature amounts 4 and 5 as the feature amount. Since the frequency of the peak P1 is different for each person, the frequency of the peak P1 can be set as one of the feature amounts of the HRTF for each user. The amplitude value of the peak P1 may be added as a feature value of HRIR.
  • step S ⁇ b> 28 the characteristic selection unit 43 selects an HRTF having a feature quantity most similar to the feature quantities 1, 4, and 5 extracted by the feature quantity extraction unit 42 from the database 301.
  • the playback unit 44 is set and the process is terminated.
  • HRTF The specific data of HRTF is the same as that of the first measurement example.
  • HRTF ( ⁇ , 0) HRTF ( ⁇ , 0).
  • HRTF ( ⁇ , 0) HRTF ( ⁇ , 0).
  • the angle ⁇ ° is, for example, 30 °.
  • ⁇ Third measurement example> A third measurement example will be described using the flowchart shown in FIG. In FIG. 10, the user attaches the microphone 20 to one ear and sets the elevation angle ⁇ of the portable terminal 100 to 0 ° and the horizontal angle ⁇ to ⁇ 30 ° in step S301.
  • the position of the mobile terminal 100 indicated by a solid line in FIG. 8 is the setting position of the mobile terminal 100 in step S301.
  • step S302 the user moves the mobile terminal 100 in the elevation direction with the sound of the measurement signal being output from the speaker 6.
  • the measurement unit 41 acquires HRIR of 0 °, 30 °, and 60 ° as the elevation angle ⁇ .
  • step S303 the user sets the elevation angle ⁇ of the mobile terminal 100 to 0 ° and positions the horizontal angle ⁇ as 30 °.
  • step S304 the user moves the portable terminal 100 in the elevation angle direction with the sound of the measurement signal output from the speaker 6.
  • the measurement unit 41 acquires HRIR of 0 °, 30 °, and 60 ° as the elevation angle ⁇ .
  • step S305 the user wears the microphone 20 on the other ear, and sets the elevation angle ⁇ of the portable terminal 100 to 0 ° and the horizontal angle ⁇ to ⁇ 30 ° as in step S301. .
  • step S306 the user moves the portable terminal 100 in the elevation direction while outputting the sound of the measurement signal from the speaker 6.
  • the measurement unit 41 acquires HRIR of 0 °, 30 °, and 60 ° as the elevation angle ⁇ .
  • step S307 the user sets the elevation angle ⁇ of the mobile terminal 100 to 0 ° and positions the horizontal angle ⁇ as 30 °.
  • step S308 the user moves the portable terminal 100 in the elevation direction with the sound of the measurement signal being output from the speaker 6.
  • the measurement unit 41 acquires HRIR of 0 °, 30 °, and 60 ° as the elevation angle ⁇ .
  • the image taken by the camera 1 and the information of the acceleration sensor 2 and the angular velocity sensor 3 deviate from the trajectory for moving the mobile terminal 100 at the time of measurement. If this is detected, the correct trajectory may be displayed on the display unit 10 to correct the trajectory.
  • Measurement patterns according to the third measurement example are measurement patterns MP3 and MP4 shown in FIG. In FIG. 10, the measurement pattern MP4 is followed by the measurement pattern MP3, but the order may be reversed.
  • elevation angles ⁇ of 0 °, 30 °, and 60 ° are merely examples, and other angles may be used, and the number of elevation angles ⁇ is not limited to three.
  • the number of elevation angles ⁇ is preferably two or more.
  • the horizontal angle ⁇ is not limited to ⁇ 30 ° and 30 °.
  • the feature quantity extraction unit 42 extracts the feature quantity of the HRTF in step S309.
  • the feature quantity extraction unit 42 may extract the HRIR feature quantity as follows.
  • the frequency of the peak P2 when the horizontal angle ⁇ in the measurement pattern MP3 shown in FIG. 11 is ⁇ 30 ° and the elevation angle ⁇ is 0 °, 30 °, and 60 ° is referred to as a feature amount 2.
  • the frequency of the peak P2 when the horizontal angle ⁇ in the measurement pattern MP4 shown in FIG. 11 is 30 ° and the elevation angle ⁇ is 0 °, 30 °, and 60 ° is referred to as a feature amount 3.
  • each person's HRTFs and at least feature quantities 2 and 3 are associated with each other.
  • the feature amount extraction unit 42 may extract the change amount of the amplitude increase / decrease of the peak P2 corresponding to the elevation angle ⁇ as the HRTF feature amount in addition to the frequency of the peak P2.
  • step S310 the characteristic selection unit 43 selects, from the database 301, the HRTF having the feature quantity closest to the feature quantities 2 and 3 extracted by the feature quantity extraction unit 42, and reproduces the HRTF. Set to 44 to end the process.
  • HRTF The specific data of HRTF is the same as that of the first measurement example.
  • HRTF ( ⁇ , 0) HRTF ( ⁇ , 0).
  • HRTF ( ⁇ , 0) HRTF ( ⁇ , 0).
  • the angle ⁇ ° is, for example, 30 °.
  • the characteristic selection unit 43 does not necessarily need to select data stored in pairs in the database 301 as HRTF ( ⁇ , 0) and HRTF ( ⁇ , 0) data.
  • the feature quantity 2 by the measurement pattern MP3 and the feature quantity 3 by the measurement pattern MP4 shown in FIG. 11 are used, but the feature quantities 4 and 5 in the second measurement example may be added thereto.
  • the user may perform a fourth measurement example in which all the measurement patterns MP1 to MP4 described above are measured.
  • the database 301 associates HRTFs and feature amounts 1 to 5 of a large number of people.
  • the characteristic selection unit 43 selects from the database 301 the HRTF having the feature quantity closest to the feature quantity 1 to 5 extracted by the feature quantity extraction unit 42 and sets the HRTF in the reproduction unit 44.
  • FIG. 12 is a summary of the first to fourth measurement examples described above. As shown in FIG. 12, in the first measurement example, in order to select the HRTF, the feature quantity 1 by the measurement pattern MP1 with the horizontal angle ⁇ of 0 ° and the elevation angle ⁇ of 0 °, 30 °, and 60 ° is shown. Used.
  • the feature amount 1 by the measurement pattern MP1 with the horizontal angle ⁇ of 0 °, the elevation angle ⁇ of 0 °, 30 °, and 60 ° and the horizontal angle ⁇ are set as follows.
  • Features 4 and 5 based on the measurement pattern MP2 with ⁇ 30 ° and 30 ° and an elevation angle ⁇ of 0 ° are used.
  • the feature amount 2 by the measurement pattern MP3 in which the horizontal angle ⁇ is ⁇ 30 ° and the elevation angle ⁇ is 0 °, 30 °, and 60 °, and the horizontal angle ⁇ Is 30 °, and the feature amount 3 by the measurement pattern MP4 with an elevation angle ⁇ of 0 °, 30 ° and 60 ° is used.
  • the feature amounts 1 to 5 by the measurement patterns MP1 to MP4 are used to select the HRTF.
  • the second and third measurement examples are more preferable than the first measurement example, and the fourth measurement example is most preferable.
  • the measurement becomes more complicated as the number of measurement patterns increases.
  • the head-related transfer function selection device includes the measurement unit 41, the feature amount extraction unit 42, and the characteristic selection unit 43.
  • the measurement unit 41 acquires the user's head impulse response based on the audio signal collected by the microphone 20 attached to the user's ear in a state where the predetermined sound as the measurement signal is generated from the speaker 6.
  • the feature amount extraction unit 42 extracts feature amounts of frequency characteristics corresponding to the head impulse response. Based on the feature amount extracted by the feature amount extraction unit 42, the characteristic selection unit 43 selects one of the heads from the database 301 that associates the head transfer function of each of the plurality of persons with the feature amount of the head transfer function. Select the transfer function.
  • the speaker 6 (mobile terminal 100) is positioned in front of the user's face, the horizontal angle ⁇ is 0 ° and the elevation angle ⁇ is 0 °.
  • the measurement unit 41 moves the speaker 6 in a circular arc shape in the vertical direction and sets the elevation angle ⁇ to a plurality of angles while the speaker 6 is positioned at a predetermined angle ⁇ of 0 ° or positive or negative. It is preferable to obtain a plurality of head impulse responses when positioned.
  • the feature amount extraction unit 42 may extract feature amounts based on frequency characteristics corresponding to a plurality of head impulse responses.
  • the measurement unit 41 may acquire a plurality of head impulse responses when the speaker 6 is positioned at a predetermined positive and negative angle ⁇ with the elevation angle ⁇ set to 0 °.
  • a predetermined sound as a measurement signal is generated by the speaker 6, and the predetermined sound is picked up by the microphone 20 attached to the user's ear based on the user's sound signal. Get head impulse response.
  • the head related transfer function selection method extracts the feature quantity of the frequency characteristic corresponding to the head impulse response, and based on the extracted feature quantity, the head related transfer function and the head of each of a plurality of persons are extracted.
  • One of the head-related transfer functions is selected from a database in which the feature amounts of the partial transfer functions are associated with each other.
  • head-related transfer function selection device and head-related transfer function selection method of the present embodiment it is possible to easily select a head-related transfer function that approximates its own head-related transfer function.
  • the playback unit 44 may also be configured by a computer program.
  • the computer program may be stored in a computer-readable non-transitory storage medium, or may be provided via an arbitrary communication line such as the Internet.
  • the computer program may be a program product.
  • the head-related transfer function selection program of the present embodiment is based on the audio signal collected by the microphone 20 attached to the user's ear in a state in which the computer generates a predetermined sound as a measurement signal from the speaker 6.
  • the step of obtaining the user's head impulse response is executed.
  • the head related transfer function selection program causes the computer to execute a step of extracting feature values of frequency characteristics corresponding to the head impulse response.
  • the head-related transfer function selection program allows any one of the database 301 that associates the head-related transfer functions of each of a plurality of persons and the characteristic values of the head-related transfer functions to the computer based on the extracted feature values.
  • the step of selecting the head-related transfer function is executed.
  • the head-related transfer function selection program of this embodiment it is possible to easily select a head-related transfer function that approximates its own head-related transfer function, and to easily realize a localization effect close to its own characteristics. .
  • the audio reproduction device includes a reproduction unit that reproduces audio data by convolving the head transfer function selected by the characteristic selection unit 43 with audio data and the head related transfer function selection device according to the present embodiment. 44. Therefore, according to the audio reproduction device of the present embodiment, an audio signal can be reproduced using a head-related transfer function that approximates its own head-related transfer function.
  • the present invention is not limited to the embodiment described above, and various modifications can be made without departing from the scope of the present invention.
  • the use of hardware and software is arbitrary.
  • the present invention can be used with any portable terminal.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Stereophonic System (AREA)
  • Circuit For Audible Band Transducer (AREA)

Abstract

測定部(41)は、スピーカ(6)から測定信号としての所定の音声を発生させた状態で、ユーザの耳に装着したマイクロホン(20)によって収音した音声信号に基づいて、ユーザの頭部インパルス応答を取得する。特徴量抽出部(42)は、頭部インパルス応答に対応する周波数特性の特徴量を抽出する。特性選択部(43)は、抽出された特徴量に基づいて、複数の人それぞれの頭部伝達関数と頭部伝達関数の特徴量とを対応付けたデータベース(301)からいずれかの頭部伝達関数を選択する。

Description

頭部伝達関数選択装置、頭部伝達関数選択方法、頭部伝達関数選択プログラム、音声再生装置
 本開示は、ユーザ自身の頭部伝達関数と近い頭部伝達関数を選択することができる頭部伝達関数選択装置、頭部伝達関数選択方法、頭部伝達関数選択プログラム、ユーザ自身の頭部伝達関数と近い頭部伝達関数を用いて音声信号を再生することができる音声再生装置に関する。
 ヘッドホン(イヤホン)によって音声信号を再生して聴くと、音声が頭の中で鳴っているように感じる頭内定位という現象が起こりやすい。ダミーヘッドや他人の頭部による頭部伝達関数を用いて、音声が頭の外で鳴っているように頭外定位させる技術を用いれば、頭内定位の現象を低減させることができる。
特開2013-168924号公報 特表2013-524711号公報
 頭部伝達関数は、頭部や耳介の形状によって特性が異なる。よって、ヘッドホンを装着して音声を聴くユーザ自身の頭部伝達関数を用いて音声を頭外定位させることが望ましい。しかしながら、自分自身の頭部伝達関数を日常生活の中で測定することは容易ではない。
 実施形態は、自分自身の頭部伝達関数に近似する頭部伝達関数を容易に選択することができる頭部伝達関数選択装置、頭部伝達関数選択方法、頭部伝達関数選択プログラムを提供することを目的とする。また、本発明は、自分自身の頭部伝達関数に近似する頭部伝達関数を用いて音声信号を再生することができる音声再生装置を提供することを目的とする。
 実施形態の第1の態様によれば、スピーカから測定信号としての所定の音声を発生させた状態で、ユーザの耳に装着したマイクロホンによって収音した音声信号に基づいて、前記ユーザの頭部インパルス応答を取得する測定部と、前記頭部インパルス応答に対応する周波数特性の特徴量を抽出する特徴量抽出部と、前記特徴量抽出部によって抽出された特徴量に基づいて、複数の人それぞれの頭部伝達関数と頭部伝達関数の特徴量とを対応付けたデータベースからいずれかの頭部伝達関数を選択する特性選択部とを備えることを特徴とする頭部伝達関数選択装置が提供される。
 実施形態の第2の態様によれば、スピーカによって測定信号としての所定の音声を発生させ、前記所定の音声をユーザの耳に装着したマイクロホンによって収音した音声信号に基づいて、前記ユーザの頭部インパルス応答を取得し、前記頭部インパルス応答に対応する周波数特性の特徴量を抽出し、抽出された特徴量に基づいて、複数の人それぞれの頭部伝達関数と頭部伝達関数の特徴量とを対応付けたデータベースからいずれかの頭部伝達関数を選択することを特徴とする頭部伝達関数選択方法が提供される。
 実施形態の第3の態様によれば、コンピュータに、スピーカから測定信号としての所定の音声を発生させた状態で、ユーザの耳に装着したマイクロホンによって収音した音声信号に基づいて、前記ユーザの頭部インパルス応答を取得するステップと、前記頭部インパルス応答に対応する周波数特性の特徴量を抽出するステップと、抽出された特徴量に基づいて、複数の人それぞれの頭部伝達関数と頭部伝達関数の特徴量とを対応付けたデータベースからいずれかの頭部伝達関数を選択するステップとを実行させることを特徴とする頭部伝達関数選択プログラムが提供される。
 実施形態の第4の態様によれば、スピーカから測定信号としての所定の音声を発生させた状態で、ユーザの耳に装着したマイクロホンによって収音した音声信号に基づいて、前記ユーザの頭部インパルス応答を取得する測定部と、前記頭部インパルス応答に対応する周波数特性の特徴量を抽出する特徴量抽出部と、前記特徴量抽出部によって抽出された特徴量に基づいて、複数の人それぞれの頭部伝達関数と頭部伝達関数の特徴量とを対応付けたデータベースからいずれかの頭部伝達関数を選択する特性選択部と、音声データに、前記特性選択部によって選択された頭部伝達関数を畳み込み演算して、前記音声データを再生する再生部とを備えることを特徴とする音声再生装置が提供される。
 実施形態の頭部伝達関数選択装置、頭部伝達関数選択方法、頭部伝達関数選択プログラムによれば、自分自身の頭部伝達関数に近似する頭部伝達関数を容易に選択することができ、自分自身の特性に近い定位効果を容易に実現できる。実施形態の音声再生装置によれば、自分自身の頭部伝達関数に近似する頭部伝達関数を用いて音声信号を再生することができる。
図1は、一実施形態の頭部伝達関数選択装置及び音声再生装置を示すブロック図である。 図2は、ユーザの頭部インパルス応答を測定する第1測定例を示すフローチャートである。 図3は、携帯端末を水平方向の角度0°、仰角0°である顔の正面に位置させた状態を示す模式図である。 図4は、携帯端末を仰角0°の位置から30°及び60°に移動させる状態を示す模式図である。 図5は、第1測定例による測定パターンを示す図である。 図6は、無響室において測定信号の音声をスピーカより出力させて、水平方向の角度0°で仰角を変化させたときの頭部伝達関数を示す特性図である。 図7は、ユーザの頭部インパルス応答を測定する第2測定例を示すフローチャートである。 図8は、携帯端末を水平方向の角度-30°の位置から0°,30°に移動させる状態を示す模式図である。 図9は、第2測定例による測定パターンを示す図である。 図10は、ユーザの頭部インパルス応答を測定する第3測定例を示すフローチャートである。 図11は、第3測定例による測定パターンを示す図である。 図12は、第1~第4測定例をまとめた図である。
 以下、一実施形態の頭部伝達関数選択装置、頭部伝達関数選択方法、頭部伝達関数選択プログラム、音声再生装置について、添付図面を参照して説明する。
<頭部伝達関数選択装置及び音声再生装置の全体構成>
 まず、図1を用いて、一実施形態の頭部伝達関数選択装置及び音声再生装置の全体構成を説明する。
 図1において、汎用の携帯端末100は、頭部伝達関数選択装置及び音声再生装置として機能する。携帯端末100は、一例として、スマートフォン等の携帯電話であってもよい。
 携帯端末100は、カメラ1と、加速度センサ2と、角速度センサ3とを備える。カメラ1と、加速度センサ2と、角速度センサ3とは、例えばCPUによって構成される制御部4に接続されている。制御部4は、測定部41と、特徴量抽出部42と、特性選択部43と、再生部44とを有する。
 カメラ1が被写体を撮影した撮影信号は測定部41に入力され、測定部41より表示部10に供給されて表示される。ユーザが、図示していない操作部によって所定の操作をしたら、カメラ1は被写体を撮影して撮影信号を生成すればよい。
 加速度センサ2が検出した加速度検出信号と、角速度センサ3が検出した携帯端末100の傾きや角度を示す角速度検出信号は測定部41に入力される。加速度センサ2及び角速度センサ3は、携帯端末100の電源が投入されている状態で常時動作していてもよい。
 測定部41は、ユーザの頭部インパルス応答(HRIR)を測定するための所定の測定信号であるデジタル音声データを発生させることができる。ユーザが操作部によって所定の操作をしたら、測定部41はデジタル音声データをD/A変換器5に供給する。
 D/A変換器5はデジタル音声データをアナログ音声信号に変換して、スピーカ6に供給する。スピーカ6は、携帯端末100に内蔵されているスピーカでよい。スピーカ6として、外付けのスピーカを用いてもよい。スピーカ6はモノラルスピーカであってもよく、ステレオスピーカであってもよい。
 音声信号出力端子7には、ヘッドホン40が取り付けられることがある。ヘッドホン40の使い方については後述する。
 マイクロホン接続端子8には、マイクロホン20が接続されている。マイクロホン20は、ユーザの耳介に装着できるイヤホン型のマイクロホンであることが好ましい。マイクロホン20は、モノラルのマイクロホンであってもよく、ステレオのマイクロホンであってもよい。本実施形態においては、マイクロホン20は、モノラルのマイクロホンであるとする。
 後述するようにして、ユーザが携帯端末100を自分の顔の前方に位置させた状態でスピーカ6より音声を出力させたとき、マイクロホン20は音声を収音する。マイクロホン20より出力されたアナログ音声信号は、マイクロホン接続端子8を介してA/D変換器9に入力される。A/D変換器9は、アナログ音声信号をデジタル音声データに変換して、測定部41に供給する。
 測定部41に入力されるデジタル音声データは、ユーザの頭部や耳介の形状によって異なるユーザ自身のHRIRを示す。
 測定部41は、携帯端末100を後述する複数の位置に位置させたときのHRIRを取得して、記憶部11に一時的に記憶させる。記憶部11に記憶されたHRIRは、特徴量抽出部42に入力される。
 特徴量抽出部42は、入力されたHRIRをフーリエ変換して頭部伝達関数(HRTF)を生成する。測定部41がHRIRをHRTFに変換して、記憶部11に記憶させてもよい。
 特徴量抽出部42は、ユーザのHRTFが有する特徴量を取得する。特徴量の詳細については後述する。特徴量抽出部42が抽出した特徴量は、特性選択部43に入力される。
 外部のサーバ30には、多数の人のそれぞれのHRTFと、後述するHRTFの特徴量とを対応付けたデータベース301が記憶されている。特性選択部43は、通信部12を介してサーバ30にアクセスし、データベース301より、特徴量抽出部42が抽出した特徴量に最も近似する特徴量を有するHRTFを選択する。
 選択されたHRTFは、通信部12を介して特性選択部43に入力される。選択されたHRTFは、ユーザ自身のHRTFとほぼ同等のHRTFである。特性選択部43は、HRTFを再生部44に供給する。
 携帯端末100が予めデータベース301を内蔵していてもよい。携帯端末100がサーバ30にアクセスしてデータベース301のデータを読み出し、記憶部11または図示していない他の記憶部にデータベース301と同様のデータを記憶させもよい。
 再生部44には、音声信号入力端子13を介して、外部より、携帯端末100によって再生すべきデジタル音声データが入力される。再生部44に、携帯端末100に内蔵された記憶部に記憶されたデジタル音声データが入力されてもよい。外部よりアナログ音声信号が入力される場合には、A/D変換器9または他のA/D変換器によってデジタル音声データに変換して再生部44に供給すればよい。
 再生部44は、デジタル音声データにHRTFを畳み込み演算するフィルタ441を有する。フィルタ441は、入力されたデジタル音声データに特性選択部43によって選択されたHRTFを畳み込み演算して、D/A変換器5に供給する。D/A変換器5は、再生部44より供給されたデジタル音声データをアナログ音声信号に変換する。
 D/A変換器5より出力されたアナログ音声信号は、音声信号出力端子7を介してヘッドホン40に供給される。ヘッドホン40は、オーバヘッド型、インナイヤ型、カナル型等の任意のヘッドホンである。ヘッドホンには、イヤホンと称されているものも含まれる。ヘッドホン40とマイクロホン20とが一体的に構成されていてもよい。
 ユーザは、ヘッドホン40を頭部または耳介に装着して、音声信号出力端子7より出力されたアナログ音声信号による音声を聴く。フィルタ441によってユーザ自身のHRTFとほぼ同等のHRTFが畳み込まれていることから、ユーザは、自分自身に適した状態で頭外定位した音声を聴くことができる。
 また、ユーザは、左右の音声が後述する所定の角度方向から鳴っているような状態で音声を聴くことができる。
 次に、ユーザのHRIRを測定するための具体的な測定例を順に説明する。
<第1測定例>
 図2に示すフローチャートを用いて、第1測定例を説明する。図2に示すフローチャートまたは後述するフローチャートは、ユーザによる動作を示すステップと、携帯端末100で実行される処理を示すステップとを含む。
 図2において、ユーザは、ステップS11にて、マイクロホン20を一方の耳に装着し、携帯端末100の仰角γを0°とし、水平方向の角度θとして0°の方向に位置させる。
 具体的には、図3に示すように、ユーザは例えば左耳50Lにマイクロホン20を装着し、携帯端末100を頭部50(顔)の正面に位置させる。携帯端末100が顔の正面である状態を、水平方向の角度θが0°であるとする。
 また、携帯端末100が所望の位置に正しく位置していることを確認するために、カメラ1で撮影した映像や、加速度センサ2、角速度センサ3を用いて、顔の位置が正面となるように、位置補正を行ってもよい。
 図4に示すように、携帯端末100を頭部50の中心を中心として垂直方向に円弧状に移動させたときの垂直方向の角度を仰角γとする。ユーザが携帯端末100を左耳50Lまたは右耳50Rの高さに位置させた状態を、仰角γが0°であるとする。
 図3及び図4に実線で示す携帯端末100の位置が、ステップS11による携帯端末100の設定位置である。
 ユーザは、ステップS13にて、上述した測定信号の音声をスピーカ6より出力させた状態で、携帯端末100の仰角γを0°の位置から、30°及び60°の位置へと移動させる。このとき、測定部41は、仰角γとして0°,30°及び60°のHRIRを取得する。
 測定部41には、カメラ1が被写体を撮影した撮影信号、加速度センサ2からの加速度検出信号、角速度センサ3からの角速度検出信号が入力される。よって、測定部41は、携帯端末100が、0°,30°及び60°のそれぞれの仰角γに位置した時点でのHRIRを取得すればよい。
 ユーザは、仰角γを厳密に気にする必要はなく、仰角γが0°から60°の範囲を含むように、携帯端末100を垂直方向に移動させればよい。このとき、カメラ1で撮影した映像と加速度センサ2、角速度センサ3の情報から、測定時の携帯端末100を移動させる軌道から外れたことを検出した場合、正しい軌道を表示部10に表示するなどの処理を行い、軌道を修正可能としてもよい。
 次に、ユーザは、ステップS14にて、マイクロホン20をもう一方の耳に装着し、携帯端末100の仰角γを0°とし、水平方向の角度θとして0°の方向に位置させる。
 ユーザは、ステップS16にて、測定信号の音声をスピーカ6より出力させた状態で、携帯端末100の仰角γを0°の位置から、30°及び60°の位置へと移動させる。このとき、測定部41は、仰角γとして0°,30°及び60°のHRIRを取得する。
 第1測定例による測定パターンは、図5に示す測定パターンMP1である。なお、仰角γの0°,30°及び60°は単なる例であり、他の角度でもよいし、仰角γの数は3つに限定されるものではない。仰角γの数は2つ以上とするのがよい。
 特徴量抽出部42は、ステップS17にて、HRIRの特徴量を抽出する。特徴量抽出部42は、一例として、次のようにHRIRの特徴量を抽出すればよい。
 図6において、実線で示す特性は、水平方向の角度θを0°、仰角γを0°として、無響室で、測定信号の音声をスピーカ6より出力させたときに測定したHRTFを示している。一点鎖線で示す特性は、水平方向の角度θを0°、仰角γを10°として、無響室で、測定信号の音声をスピーカ6より出力させたときに測定したHRTFを示している。
 図6に示すようなHRTFは、個人の頭部形状や耳の形状により特性が異なる。マサチューセッツ工科大学や名古屋大学の板倉研究室らは、全方向における入射角度を測定したHRTFのデータベースをインターネットで公開している。
 図6は、東北大学電子通信研究所先端音情報システム研究室(http://www.ais.riec.tohoku.ac.jp/lab/db-hrtf/index-j.html)らが公開している、無響室で測定したHRTFについて、ある特定の被験者における水平方向0°、仰角方向0°~30°の測定データを取得し、図式化したものである。
 破線で示す特性は、水平方向の角度θを0°、仰角γを20°として、無響室で、測定信号の音声をスピーカ6より出力させたときに測定したHRTFを示している。二点鎖線で示す特性は、水平方向の角度θを0°、仰角γを30°として、無響室で、測定信号の音声をスピーカ6より出力させたときに測定したHRTFを示している。
 図6に示すように、周波数10kHz~20kHzの局所的なピークP2の周波数は、仰角γが0°~30°でほぼ同一である。ここでは図示していない仰角γが30°~60°でも同様に、ピークP2の周波数はほぼ同一となる。
 前述のデータベースを参照し、本発明者による他の被験者の測定データを検証し図式化したところ、同一被験者においては、仰角γが0°から30°において、ピークP2の周波数は同一またはほぼ同一であるが、異なる被験者においては発生するピークP2は異なる周波数となることを確認した。このため、特徴量抽出部42は、ピークP2の周波数をユーザそれぞれのHRTFの特徴量の1つとして抽出する。
 特徴量抽出部42は、ピークP2の周波数に加えて、仰角γに応じたピークP2の振幅増減の変化量をHRTFの特徴量として抽出してもよい。
 図5に示す測定パターンMP1によって測定したHRTFの特徴量を特徴量1と称することとする。データベース301には、多数の人のそれぞれのHRTFと少なくとも特徴量1とが対応付けられている。
 図2に戻り、特性選択部43は、ステップS18にて、データベース301より、特徴量抽出部42が抽出した特徴量1に最も近似する特徴量を有するHRTFを選択し、HRTFを再生部44に設定して処理を終了させる。
 HRTFは、一例として、左右の音声を仰角γで水平方向の角度±θ°の方向に定位させるHRTF(θ,0),HRTF(-θ,0)なるデータである。角度θ°は例えば30°である。
<第2測定例>
 図7に示すフローチャートを用いて、第2測定例を説明する。図7において、ユーザは、ステップS21にて、マイクロホン20を一方の耳に装着し、携帯端末100の仰角γを0°とし、水平方向の所定の位置に位置させる。
 具体的には、図8に示すように、ユーザは例えば左耳50Lにマイクロホン20を装着し、携帯端末100を頭部50(顔)の正面に対して例えば左側に位置させる。第2測定例においても、第1速定例と同様に、携帯端末100が所望の位置に正しく位置していることを確認するために、カメラ1で撮影した映像や、加速度センサ2、角速度センサ3を用いて、顔の位置が正面となるように、位置補正を行ってもよい。
 ユーザは、ステップS22にて、測定信号の音声をスピーカ6より出力させた状態で、携帯端末100を頭部50の中心を中心として、図8に二点鎖線で示すように水平方向に円弧状に移動させる。このとき、測定部41は、水平方向の角度θとして-30°及び30のHRIRを取得する。
 ここでも、測定部41には、カメラ1が被写体を撮影した撮影信号、加速度センサ2からの加速度検出信号、角速度センサ3からの角速度検出信号が入力される。よって、測定部41は、携帯端末100が、-30°及び30それぞれの水平方向の角度θに位置した時点でのHRIRを取得すればよい。
 ユーザは、水平方向の角度θを厳密に気にする必要はなく、水平方向の角度θが-30°から30°の範囲を含むように、携帯端末100を水平方向に移動させればよい。
 次に、ユーザは、ステップS23にて、測定信号の音声をスピーカ6より出力させた状態で、水平方向の角度θを0°とし、携帯端末100の仰角γを0°の位置から、30°及び60°の位置へと移動させる。このとき、測定部41は、仰角γとして0°,30°及び60°のHRIRを取得する。
 引き続き、ユーザは、ステップS24にて、マイクロホン20をもう一方の耳に装着し、ステップS21と同様に、携帯端末100の仰角γを0°とし、水平方向の所定の位置に位置させる。
 ユーザは、ステップS25にて、測定信号の音声をスピーカ6より出力させた状態で、携帯端末100を頭部50の中心を中心として水平方向に円弧状に移動させる。このとき、測定部41は、水平方向の角度θとして-30°及び30のHRIRを取得する。
 次に、ユーザは、ステップS26にて、測定信号の音声をスピーカ6より出力させた状態で、水平方向の角度θを0°とし、携帯端末100の仰角γを0°の位置から、30°及び60°の位置へと移動させる。このとき、測定部41は、仰角γとして0°,30°及び60°のHRIRを取得する。
 第2測定例においても、第1測定例と同様に、カメラ1で撮影した映像と加速度センサ2、角速度センサ3の情報から、測定時の携帯端末100を移動させる軌道から外れたことを検出した場合、正しい軌道を表示部10に表示するなどの処理を行い、軌道を修正可能としてもよい。
 第2測定例による測定パターンは、図9に示す測定パターンMP1及びMP2である。図7では、測定パターンMP2による測定の次に測定パターンMP1による測定としたが、順番は逆でもよい。
 同様に、仰角γの0°,30°及び60°は単なる例であり、他の角度でもよいし、仰角γの数は3つに限定されるものではない。仰角γの数は2つ以上とするのがよい。水平方向の角度θは-30°と30°に限定されない。
 特徴量抽出部42は、ステップS27にて、HRTFの特徴量を抽出する。特徴量抽出部42は、一例として、次のようにHRIRの特徴量を抽出すればよい。
 図9に示す測定パターンMP2における水平方向の角度θが-30°のときのピークP2の周波数を特徴量4と称し、30°のときのピークP2の周波数を特徴量5と称することとする。データベース301には、多数の人のそれぞれのHRTFと少なくとも特徴量1,4及び5とが対応付けられている。
 特徴量4及び5に、図6における4kHz近傍のピークP1の周波数を特徴量として加えてもよい。人それぞれでピークP1の周波数も異なることから、ピークP1の周波数をユーザそれぞれのHRTFの特徴量の1つとすることができる。ピークP1の振幅値をHRIRの特徴量として加えてもよい。
 図7に戻り、特性選択部43は、ステップS28にて、データベース301より、特徴量抽出部42が抽出した特徴量1,4及び5に最も近似する特徴量を有するHRTFを選択し、HRTFを再生部44に設定して処理を終了させる。
 HRTFの具体的なデータは第1測定例と同様であり、一例として、左右の音声を仰角γで水平方向の角度±θ°の方向に定位させるHRTF(θ,0),HRTF(-θ,0)なるデータである。角度θ°は例えば30°である。
<第3測定例>
 図10に示すフローチャートを用いて、第3測定例を説明する。図10において、ユーザは、ステップS301にて、マイクロホン20を一方の耳に装着し、携帯端末100の仰角γを0°とし、水平方向の角度θとして-30°に位置させる。
 図8に実線で示す携帯端末100の位置が、ステップS301による携帯端末100の設定位置である。第3測定例においても、第1速定例または第2測定例と同様に、携帯端末100が所望の位置に正しく位置していることを確認するために、カメラ1で撮影した映像や、加速度センサ2、角速度センサ3を用いて、顔の位置が正面となるように、位置補正を行ってもよい。
 ユーザは、ステップS302にて、測定信号の音声をスピーカ6より出力させた状態で、携帯端末100を仰角方向に移動させる。このとき、測定部41は、仰角γとして0°,30°及び60°のHRIRを取得する。
 次に、ユーザは、ステップS303にて、携帯端末100の仰角γを0°とし、水平方向の角度θとして30°に位置させる。
 ユーザは、ステップS304にて、測定信号の音声をスピーカ6より出力させた状態で、携帯端末100を仰角方向に移動させる。このとき、測定部41は、仰角γとして0°,30°及び60°のHRIRを取得する。
 引き続き、ユーザは、ステップS305にて、マイクロホン20をもう一方の耳に装着し、ステップS301と同様に、携帯端末100の仰角γを0°とし、水平方向の角度θとして-30°に位置させる。
 ユーザは、ステップS306にて、測定信号の音声をスピーカ6より出力させた状態で、携帯端末100を仰角方向に移動させる。このとき、測定部41は、仰角γとして0°,30°及び60°のHRIRを取得する。
 次に、ユーザは、ステップS307にて、携帯端末100の仰角γを0°とし、水平方向の角度θとして30°に位置させる。
 ユーザは、ステップS308にて、測定信号の音声をスピーカ6より出力させた状態で、携帯端末100を仰角方向に移動させる。このとき、測定部41は、仰角γとして0°,30°及び60°のHRIRを取得する。
 第3測定例においても、第1測定例または第2測定例と同様に、カメラ1で撮影した映像と加速度センサ2、角速度センサ3の情報から、測定時の携帯端末100を移動させる軌道から外れたことを検出した場合、正しい軌道を表示部10に表示するなどの処理を行い、軌道を修正可能としてもよい。
 第3測定例による測定パターンは、図11に示す測定パターンMP3及びMP4である。図10では、測定パターンMP3による測定の次に測定パターンMP4による測定としたが、順番は逆でもよい。
 同様に、仰角γの0°,30°及び60°は単なる例であり、他の角度でもよいし、仰角γの数は3つに限定されるものではない。仰角γの数は2つ以上とするのがよい。水平方向の角度θは-30°と30°に限定されない。
 特徴量抽出部42は、ステップS309にて、HRTFの特徴量を抽出する。特徴量抽出部42は、一例として、次のようにHRIRの特徴量を抽出すればよい。
 図11に示す測定パターンMP3における水平方向の角度θが-30°で仰角γを0°,30°及び60°としたときのピークP2の周波数を特徴量2と称することとする。図11に示す測定パターンMP4における水平方向の角度θが30°で仰角γを0°,30°及び60°としたときのピークP2の周波数を特徴量3と称することとする。
 データベース301には、多数の人のそれぞれのHRTFと少なくとも特徴量2及び3とが対応付けられている。
 特徴量抽出部42は、ピークP2の周波数に加えて、仰角γに応じたピークP2の振幅増減の変化量をHRTFの特徴量として抽出してもよい。
 図10に戻り、特性選択部43は、ステップS310にて、データベース301より、特徴量抽出部42が抽出した特徴量2,3に最も近似する特徴量を有するHRTFを選択し、HRTFを再生部44に設定して処理を終了させる。
 HRTFの具体的なデータは第1測定例と同様であり、一例として、左右の音声を仰角γで水平方向の角度±θ°の方向に定位させるHRTF(θ,0),HRTF(-θ,0)なるデータである。角度θ°は例えば30°である。
 なお、特性選択部43は、必ずしも、HRTF(θ,0),HRTF(-θ,0)のデータとして、データベース301に対で記憶されているデータを選択する必要はない。対で記憶されている、あるHRTF(θ,0)及びHRTF(-θ,0)のうちのHRTF(θ,0)と、別のHRTF(θ,0)及びHRTF(-θ,0)のうちのHRTF(-θ,0)とを組み合わせてもよい。
 第3測定例では、図11に示す測定パターンMP3による特徴量2と、測定パターンMP4による特徴量3とを用いたが、これに第2測定例における特徴量4及び5を加えてもよい。
<第4測定例>
 ユーザが以上説明した測定パターンMP1~MP4の全てを測定する第4測定例を行ってもよい。この場合、データベース301には、多数の人のそれぞれのHRTFと特徴量1~5とが対応付けられている。
 特性選択部43は、データベース301より、特徴量抽出部42が抽出した特徴量1~5に最も近似する特徴量を有するHRTFを選択し、HRTFを再生部44に設定する。
 以上説明した第1~第4測定例をまとめると図12となる。図12に示すように、第1測定例では、HRTFを選択するために、水平方向の角度θを0°、仰角γを0°,30°及び60°とした測定パターンMP1による特徴量1が用いられる。
 第2測定例では、HRTFを選択するために、水平方向の角度θを0°、仰角γを0°,30°及び60°とした測定パターンMP1による特徴量1と、水平方向の角度θを-30°及び30°、仰角γを0°とした測定パターンMP2による特徴量4及び5とが用いられる。
 第3測定例では、HRTFを選択するために、水平方向の角度θを-30°、仰角γを0°,30°及び60°とした測定パターンMP3による特徴量2と、水平方向の角度θを30°、仰角γを0°,30°及び60°とした測定パターンMP4による特徴量3とが用いられる。
 第4測定例では、HRTFを選択するために、測定パターンMP1~MP4による特徴量1~5が用いられる。
 測定パターンが多い方が特徴量を抽出しやすい。よって、第1測定例よりも第2,第3測定例の方が好ましく、第4測定例が最も好ましい。但し、測定パターンが多くなるほど測定が煩雑となる。
 以上説明したように、本実施形態の頭部伝達関数選択装置は、測定部41と、特徴量抽出部42と、特性選択部43とを備える。
 測定部41は、スピーカ6から測定信号としての所定の音声を発生させた状態で、ユーザの耳に装着したマイクロホン20によって収音した音声信号に基づいて、ユーザの頭部インパルス応答を取得する。
 特徴量抽出部42は、頭部インパルス応答に対応する周波数特性の特徴量を抽出する。特性選択部43は、特徴量抽出部42によって抽出された特徴量に基づいて、複数の人それぞれの頭部伝達関数と頭部伝達関数の特徴量とを対応付けたデータベース301からいずれかの頭部伝達関数を選択する。
 スピーカ6(携帯端末100)をユーザの顔の正面に位置させた状態を、水平方向の角度θが0°、仰角γが0°であるとする。測定部41は、スピーカ6を、角度θが0°または正もしくは負の所定の角度θに位置させた状態で、スピーカ6を、垂直方向に円弧状に移動させて仰角γとして複数の角度に位置させたときの複数の頭部インパルス応答を取得するのがよい。
 特徴量抽出部42は、複数の頭部インパルス応答に対応する周波数特性に基づいて特徴量を抽出するのがよい。
 測定部41は、さらに、スピーカ6を、仰角γを0°として、角度θが正及び負の所定の角度θに位置させたときの複数の頭部インパルス応答を取得してもよい。
 本実施形態の頭部伝達関数選択方法は、スピーカ6によって測定信号としての所定の音声を発生させ、所定の音声をユーザの耳に装着したマイクロホン20によって収音した音声信号に基づいて、ユーザの頭部インパルス応答を取得する。
 そして、本実施形態の頭部伝達関数選択方法は、頭部インパルス応答に対応する周波数特性の特徴量を抽出し、抽出された特徴量に基づいて、複数の人それぞれの頭部伝達関数と頭部伝達関数の特徴量とを対応付けたデータベースからいずれかの頭部伝達関数を選択する。
 本実施形態の頭部伝達関数選択装置及び頭部伝達関数選択方法によれば、自分自身の頭部伝達関数に近似する頭部伝達関数を容易に選択することができる。
 測定部41と、特徴量抽出部42と、特性選択部43の部分を、コンピュータプログラム(頭部伝達関数選択プログラム)で構成することも可能である。再生部44の部分も、コンピュータプログラムで構成してもよい。コンピュータプログラムは、コンピュータで読み取り可能な非一時的な記憶媒体に記憶されていてもよいし、インターネット等の任意の通信回線で提供されてもよい。コンピュータプログラムは、プログラム製品であってもよい。
 本実施形態の頭部伝達関数選択プログラムは、コンピュータに、スピーカ6から測定信号としての所定の音声を発生させた状態で、ユーザの耳に装着したマイクロホン20によって収音した音声信号に基づいて、ユーザの頭部インパルス応答を取得するステップを実行させる。
 本実施形態の頭部伝達関数選択プログラムは、コンピュータに、頭部インパルス応答に対応する周波数特性の特徴量を抽出するステップを実行させる。
 本実施形態の頭部伝達関数選択プログラムは、コンピュータに、抽出された特徴量に基づいて、複数の人それぞれの頭部伝達関数と頭部伝達関数の特徴量とを対応付けたデータベース301からいずれかの頭部伝達関数を選択するステップを実行させる。
 本実施形態の頭部伝達関数選択プログラムによれば、自分自身の頭部伝達関数に近似する頭部伝達関数を容易に選択することができ、自分自身の特性に近い定位効果を容易に実現できる。
 本実施形態の音声再生装置は、本実施形態の頭部伝達関数選択装置と、音声データに、特性選択部43によって選択された頭部伝達関数を畳み込み演算して、音声データを再生する再生部44とを備える。よって、本実施形態の音声再生装置によれば、自分自身の頭部伝達関数に近似する頭部伝達関数を用いて音声信号を再生することができる。
 本発明は以上説明した本実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々変更可能である。本実施形態の頭部伝達関数選択装置を構成するに際し、ハードウェアとソフトウェアとの使い分けは任意である。
 本発明は、任意の携帯端末で利用できる。

Claims (6)

  1.  スピーカから測定信号としての所定の音声を発生させた状態で、ユーザの耳に装着したマイクロホンによって収音した音声信号に基づいて、前記ユーザの頭部インパルス応答を取得する測定部と、
     前記頭部インパルス応答に対応する周波数特性の特徴量を抽出する特徴量抽出部と、
     前記特徴量抽出部によって抽出された特徴量に基づいて、複数の人それぞれの頭部伝達関数と頭部伝達関数の特徴量とを対応付けたデータベースからいずれかの頭部伝達関数を選択する特性選択部と、
     を備えることを特徴とする頭部伝達関数選択装置。
  2.  前記測定部は、前記スピーカを前記ユーザの顔の正面に位置させた状態を、水平方向の角度θが0°、仰角γが0°であるとしたとき、前記スピーカを、角度θが0°または正もしくは負の所定の角度θに位置させた状態で、前記スピーカを、垂直方向に円弧状に移動させて仰角γとして複数の角度に位置させたときの複数の頭部インパルス応答を取得し、
     前記特徴量抽出部は、前記複数の頭部インパルス応答に対応する周波数特性に基づいて特徴量を抽出する
     ことを特徴とする請求項1記載の頭部伝達関数選択装置。
  3.  前記測定部は、さらに、前記スピーカを、仰角γを0°として、角度θが正及び負の所定の角度θに位置させたときの複数の頭部インパルス応答を取得することを特徴とする請求項2記載の頭部伝達関数選択装置。
  4.  スピーカによって測定信号としての所定の音声を発生させ、
     前記所定の音声をユーザの耳に装着したマイクロホンによって収音した音声信号に基づいて、前記ユーザの頭部インパルス応答を取得し、
     前記頭部インパルス応答に対応する周波数特性の特徴量を抽出し、
     抽出された特徴量に基づいて、複数の人それぞれの頭部伝達関数と頭部伝達関数の特徴量とを対応付けたデータベースからいずれかの頭部伝達関数を選択する
     ことを特徴とする頭部伝達関数選択方法。
  5.  コンピュータに、
     スピーカから測定信号としての所定の音声を発生させた状態で、ユーザの耳に装着したマイクロホンによって収音した音声信号に基づいて、前記ユーザの頭部インパルス応答を取得するステップと、
     前記頭部インパルス応答に対応する周波数特性の特徴量を抽出するステップと、
     抽出された特徴量に基づいて、複数の人それぞれの頭部伝達関数と頭部伝達関数の特徴量とを対応付けたデータベースからいずれかの頭部伝達関数を選択するステップと、
     を実行させることを特徴とする頭部伝達関数選択プログラム。
  6.  スピーカから測定信号としての所定の音声を発生させた状態で、ユーザの耳に装着したマイクロホンによって収音した音声信号に基づいて、前記ユーザの頭部インパルス応答を取得する測定部と、
     前記頭部インパルス応答に対応する周波数特性の特徴量を抽出する特徴量抽出部と、
     前記特徴量抽出部によって抽出された特徴量に基づいて、複数の人それぞれの頭部伝達関数と頭部伝達関数の特徴量とを対応付けたデータベースからいずれかの頭部伝達関数を選択する特性選択部と、
     音声データに、前記特性選択部によって選択された頭部伝達関数を畳み込み演算して、前記音声データを再生する再生部と、
     を備えることを特徴とする音声再生装置。
PCT/JP2016/052711 2015-04-13 2016-01-29 頭部伝達関数選択装置、頭部伝達関数選択方法、頭部伝達関数選択プログラム、音声再生装置 WO2016167007A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/730,101 US10142733B2 (en) 2015-04-13 2017-10-11 Head-related transfer function selection device, head-related transfer function selection method, head-related transfer function selection program, and sound reproduction device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015081483A JP6596896B2 (ja) 2015-04-13 2015-04-13 頭部伝達関数選択装置、頭部伝達関数選択方法、頭部伝達関数選択プログラム、音声再生装置
JP2015-081483 2015-04-13

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/730,101 Continuation US10142733B2 (en) 2015-04-13 2017-10-11 Head-related transfer function selection device, head-related transfer function selection method, head-related transfer function selection program, and sound reproduction device

Publications (1)

Publication Number Publication Date
WO2016167007A1 true WO2016167007A1 (ja) 2016-10-20

Family

ID=57125902

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/052711 WO2016167007A1 (ja) 2015-04-13 2016-01-29 頭部伝達関数選択装置、頭部伝達関数選択方法、頭部伝達関数選択プログラム、音声再生装置

Country Status (3)

Country Link
US (1) US10142733B2 (ja)
JP (1) JP6596896B2 (ja)
WO (1) WO2016167007A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11039251B2 (en) * 2017-09-27 2021-06-15 Jvckenwood Corporation Signal processing device, signal processing method, and program

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9591427B1 (en) * 2016-02-20 2017-03-07 Philip Scott Lyren Capturing audio impulse responses of a person with a smartphone
JP6791001B2 (ja) * 2017-05-10 2020-11-25 株式会社Jvcケンウッド 頭外定位フィルタ決定システム、頭外定位フィルタ決定装置、頭外定位決定方法、及びプログラム
JP7347424B2 (ja) 2018-07-24 2023-09-20 ソニーグループ株式会社 測定装置及び測定システム
US12010494B1 (en) * 2018-09-27 2024-06-11 Apple Inc. Audio system to determine spatial audio filter based on user-specific acoustic transfer function
US11337021B2 (en) 2020-05-22 2022-05-17 Chiba Institute Of Technology Head-related transfer function generator, head-related transfer function generation program, and head-related transfer function generation method
CN112492446B (zh) * 2020-12-08 2023-03-14 北京声加科技有限公司 利用入耳式耳机实现信号均衡的方法及处理器
CN115460526B (zh) * 2022-11-11 2023-03-28 荣耀终端有限公司 一种听力模型的确定方法、电子设备及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001016697A (ja) * 1999-05-29 2001-01-19 Central Res Lab Ltd 原頭部関連伝達関数を修正する方法および装置
JP2014099797A (ja) * 2012-11-15 2014-05-29 Nippon Hoso Kyokai <Nhk> 頭部伝達関数選択装置、音響再生装置
JP2015019360A (ja) * 2013-07-04 2015-01-29 ジーエヌ リザウンド エー/エスGn Resound A/S 個人ごとのhrtfの決定

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5742689A (en) * 1996-01-04 1998-04-21 Virtual Listening Systems, Inc. Method and device for processing a multichannel signal for use with a headphone
FR2880755A1 (fr) * 2005-01-10 2006-07-14 France Telecom Procede et dispositif d'individualisation de hrtfs par modelisation
FR2958825B1 (fr) 2010-04-12 2016-04-01 Arkamys Procede de selection de filtres hrtf perceptivement optimale dans une base de donnees a partir de parametres morphologiques
US9030545B2 (en) 2011-12-30 2015-05-12 GNR Resound A/S Systems and methods for determining head related transfer functions

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001016697A (ja) * 1999-05-29 2001-01-19 Central Res Lab Ltd 原頭部関連伝達関数を修正する方法および装置
JP2014099797A (ja) * 2012-11-15 2014-05-29 Nippon Hoso Kyokai <Nhk> 頭部伝達関数選択装置、音響再生装置
JP2015019360A (ja) * 2013-07-04 2015-01-29 ジーエヌ リザウンド エー/エスGn Resound A/S 個人ごとのhrtfの決定

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11039251B2 (en) * 2017-09-27 2021-06-15 Jvckenwood Corporation Signal processing device, signal processing method, and program

Also Published As

Publication number Publication date
US20180048959A1 (en) 2018-02-15
US10142733B2 (en) 2018-11-27
JP6596896B2 (ja) 2019-10-30
JP2016201723A (ja) 2016-12-01

Similar Documents

Publication Publication Date Title
JP6596896B2 (ja) 頭部伝達関数選択装置、頭部伝達関数選択方法、頭部伝達関数選択プログラム、音声再生装置
US10659908B2 (en) System and method to capture image of pinna and characterize human auditory anatomy using image of pinna
US9609436B2 (en) Systems and methods for audio creation and delivery
WO2018110269A1 (ja) Hrtf測定方法、hrtf測定装置、およびプログラム
US10003905B1 (en) Personalized end user head-related transfer function (HRTV) finite impulse response (FIR) filter
CN110612727B (zh) 头外定位滤波器决定系统、头外定位滤波器决定装置、头外定位决定方法以及记录介质
US9769585B1 (en) Positioning surround sound for virtual acoustic presence
EP3354045A1 (en) Differential headtracking apparatus
US10142760B1 (en) Audio processing mechanism with personalized frequency response filter and personalized head-related transfer function (HRTF)
US11297427B2 (en) Processing device, processing method, and program for processing sound pickup signals
KR101848458B1 (ko) 레코딩 방법 및 그 장치
JP2018152834A (ja) 仮想聴覚環境において音声信号出力を制御する方法及び装置
JP6500664B2 (ja) 音場再生装置、音場再生方法、及びプログラム
CN114339582A (zh) 双通道音频处理、方向感滤波器生成方法、装置以及介质
JP7404736B2 (ja) 頭外定位フィルタ決定システム、頭外定位フィルタ決定方法、及びプログラム
JP7395906B2 (ja) ヘッドホン、頭外定位フィルタ決定装置、及び頭外定位フィルタ決定方法
JP7472582B2 (ja) 音声再生システムおよび頭部伝達関数選択方法
US11937072B2 (en) Headphones, out-of-head localization filter determination device, out-of-head localization filter determination system, out-of-head localization filter determination method, and program
KR102613035B1 (ko) 위치보정 기능의 이어폰 및 이를 이용하는 녹음방법
KR102534802B1 (ko) 멀티-채널 바이노럴 기록 및 동적 재생
CN113965859B (zh) 头外定位滤波器确定系统、方法以及程序
RU2721571C1 (ru) Способ приема, отображения и воспроизведения данных и информации
WO2019065384A1 (ja) 信号処理装置、信号処理方法、及びプログラム
KR20150081541A (ko) 사용자의 머리전달함수 기반 음향 조절 방법 및 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16779799

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16779799

Country of ref document: EP

Kind code of ref document: A1