WO2017029793A1 - 頭外定位処理装置、及びフィルタ選択方法 - Google Patents

頭外定位処理装置、及びフィルタ選択方法 Download PDF

Info

Publication number
WO2017029793A1
WO2017029793A1 PCT/JP2016/003675 JP2016003675W WO2017029793A1 WO 2017029793 A1 WO2017029793 A1 WO 2017029793A1 JP 2016003675 W JP2016003675 W JP 2016003675W WO 2017029793 A1 WO2017029793 A1 WO 2017029793A1
Authority
WO
WIPO (PCT)
Prior art keywords
filter
preset
localization
user
unit
Prior art date
Application number
PCT/JP2016/003675
Other languages
English (en)
French (fr)
Inventor
正也 小西
村田 寿子
優美 藤井
Original Assignee
株式会社Jvcケンウッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Jvcケンウッド filed Critical 株式会社Jvcケンウッド
Publication of WO2017029793A1 publication Critical patent/WO2017029793A1/ja
Priority to US15/895,293 priority Critical patent/US10412530B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/033Headphones for stereophonic communication
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/033Headphones for stereophonic communication
    • H04R5/0335Earpiece support, e.g. headbands or neckrests
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S1/00Two-channel systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S5/00Pseudo-stereo systems, e.g. in which additional channel signals are derived from monophonic signals by means of phase shifting, time delay or reverberation 
    • H04S5/02Pseudo-stereo systems, e.g. in which additional channel signals are derived from monophonic signals by means of phase shifting, time delay or reverberation  of the pseudo four-channel type, e.g. in which rear channel signals are derived from two-channel stereo signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • H04S7/303Tracking of listener position or orientation
    • H04S7/304For headphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/305Electronic adaptation of stereophonic audio signals to reverberation of the listening space
    • H04S7/306For headphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/04Circuit arrangements, e.g. for selective connection of amplifier inputs/outputs to loudspeakers, for loudspeaker detection, or for adaptation of settings to personal preferences or hearing impairments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/01Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]

Definitions

  • the present invention relates to an out-of-head localization processing apparatus and a filter selection method.
  • out-of-head localization headphone technology that generates a sound field as if it is being reproduced with a speaker while being reproduced with headphones.
  • the listener's head transfer characteristics space transfer characteristics from the 2ch virtual speaker placed on the front to the left and right ears
  • ear canal transfer characteristics from the left and right diaphragms of the headphones, respectively
  • a measurement signal impulse sound, etc.
  • ch a speaker of 2 channels
  • ch a microphone installed in the ear of the listener.
  • a head-related transfer characteristic is calculated from the impulse response to create a filter.
  • a speaker unit 5 having an Lch speaker 5L and an Rch speaker 5R is used for impulse response measurement.
  • the speaker unit 5 is installed in front of the user 1.
  • the signal reaching the left ear 3L from the Lch speaker 5L is Ls
  • the signal reaching the right ear 3R from the Rch speaker 5R is Rs
  • the head is passed from the Lch speaker 5L to the right ear 3R.
  • a signal that reaches the left ear 3L through the head from the Lo and Rch speaker 5R is assumed to be Ro.
  • Impulse signals are sounded individually from the Lch and Rch speakers 5L and 5R, and impulse responses (Ls, Lo, Ro, Rs) are measured by the left and right microphones 2L, 2R attached to the left ear 3L and the right ear 3R. By this measurement, each transfer characteristic can be obtained. By convolving the obtained transfer characteristic with a 2ch music signal, it is possible to realize out-of-head localization processing as if it is being reproduced from a speaker while being reproduced by headphones.
  • a preset method in which a plurality of different preset filters are prepared in advance.
  • the listener can select the most suitable one while listening to the sound processed by each preset filter. By doing so, high out-of-head localization performance can be obtained.
  • the preset method by preparing a large number of preset filters, the possibility of selecting a filter close to the characteristics of the listener increases.
  • the number of preset filters increases, it becomes more difficult to select an optimum filter while judging the difference in sound image localization by hearing. Since the sound image localization is a spatial image such as “the sound is ringing around here”, the tendency is more prominent for those who have never experienced out-of-head localization. Also, sound image localization can only be perceived by the person who is listening, and it is difficult to know from where the localization is.
  • the present embodiment has been made in view of the above points, and provides an out-of-head localization apparatus and a filter selection method that can easily select an optimal filter for a user from a plurality of preset filters prepared in advance.
  • the purpose is to do.
  • An out-of-head localization processing apparatus includes a sound source reproduction unit that reproduces a test sound source, a filter selection unit that selects a preset filter used for out-of-head localization processing from a plurality of preset filters, and the filter selection unit.
  • the out-of-head localization processing unit that performs out-of-head localization processing on the signal of the test sound source using the preset filter selected by the method, and the signal that has been subjected to out-of-head localization processing by the out-of-head localization processing unit to the user Headphones to be output, an input unit for receiving a user input for determining a localization position of a sound image by the out-of-head localization process, a sensor unit that generates a detection signal indicating position information of a detection target, and detection from the sensor unit Based on the signal, a three-dimensional coordinate calculation unit for calculating the three-dimensional coordinates of the localization position, and the localization position of each preset filter Serial based on the three-dimensional coordinates, is obtained and a determination unit for determining optimum filter to the user from the plurality of preset filter.
  • the method for selecting a filter includes selecting a preset filter to be used for out-of-head localization processing from a plurality of preset filters, and performing the out-of-head localization processing using the selected preset filter. And receiving the user input for determining the localization position of the sound image of the test sound source, obtaining the positional information of the localization position determined by the user input by the sensor unit, And calculating the three-dimensional coordinates of the localization position, and selecting an optimum filter from the plurality of preset filters based on the three-dimensional coordinates of the sound image for each preset filter.
  • the highest out-of-head localization performance can be obtained by performing processing using the head transfer characteristics of the listener.
  • a preset method that selects the characteristics (filters) closest to the principal from among a plurality of preset filter groups that have characteristics of others prepared in advance due to reasons such as the inability to prepare measurement speakers is considered as the next best measure. It is done.
  • the listener selects the optimal combination while listening to the sound processed by multiple preset filters in order.
  • it is difficult to store the localization position of the sound image in each preset filter, and it is difficult for beginners to select an optimal combination.
  • the sensor unit detects the localization position of the sound image of each preset filter. For example, the user wears a marker on the fingertip. Then, the localization position of the sound image perceived by the user is indicated by a marker. By detecting the position of the marker using the sensor unit, the sound image localization information of each preset filter is digitized.
  • test sound source white noise, etc.
  • a test sound source that clearly shows the sound image localization is reproduced using each preset filter. Then, the user indicates the localization position of the sound image with a finger or a marker. The three-dimensional coordinates of the localization position are measured using a sensor installed in the headphones.
  • the processing device stores the three-dimensional coordinates of the localization positions in the plurality of preset filters.
  • the processing device analyzes the three-dimensional coordinated data corresponding to the plurality of preset filters.
  • the processing device determines the combination with the highest out-of-head localization performance based on the analysis result. By doing so, the optimal out-of-head localization performance can be automatically obtained without the listener selecting his / her own preset filter (hereinafter referred to as the optimal filter).
  • the distance from the user to the sound image localization position or the distance from the virtual speaker to the sound image localization position can be used.
  • a preset filter that localizes the sound image farthest from the user is selected as the optimum filter.
  • a preset filter that localizes the sound image closest to the virtual speaker can be set as the optimum filter.
  • FIG. 1 is a block diagram showing the configuration of the out-of-head localization processing apparatus 100.
  • FIG. 2 is a diagram illustrating a configuration of the headphones on which the sensor unit is mounted.
  • the out-of-head localization processing apparatus 100 includes a marker 15, a sensor unit 16, headphones 6, and a processing apparatus 10.
  • the headphones 6 can output the Lch signal and the Rch signal toward the user 1. Further, as shown in FIG. 2, the user 1 wears a marker 15 on the finger 7. A sensor unit 16 is attached to the headphones 6. The sensor unit 16 detects the marker 15 attached to the finger 7 of the user 1.
  • the headphones 6 are band-type headphones, and include a left housing 6L, a right housing 6R, and a headband 6C.
  • the left housing 6L outputs an Lch signal to the left ear of the user 1.
  • the right housing 6 ⁇ / b> R outputs an Rch signal to the right ear of the user 1.
  • the left and right housings 6L and 6R incorporate output units having diaphragms and the like.
  • the headband 6C is formed in an arc shape, and connects the left housing 6L and the right housing 6R.
  • the headband 6C is placed on the user's 1 head. As a result, the head of the user 1 is sandwiched between the left and right housings 6L and 6R.
  • the left housing 6L is attached to the left ear of the user 1, and the right housing 6R is attached to the right ear.
  • the headphone 6 is provided with a sensor unit 16.
  • a sensor unit 16 As the sensor unit 16, a sensor array including a plurality of sensors 16L1, 16L2, 16C, 16R2, and 16R1 can be used.
  • the sensor L1 is attached to the left housing 6L.
  • the sensor 16R1 is attached to the right housing 6R.
  • the sensors 16L2, 16C, and 16R2 are attached to the headband 6C.
  • Sensor 16C is arranged at the center of headband 6C.
  • the sensor 16L2 is disposed between the sensor 16L1 and the sensor 16C.
  • the sensor 16R2 is disposed between the sensor 16R1 and the sensor 16C.
  • the sensor 16L2, the sensor 16C, and the sensor 16R2 are disposed between the sensor 16L1 and the sensor 16R1 along the headband 6C.
  • the sensor unit 16 includes five sensors 16L1, 16L2, 16C, 16R2, and 16R1, but the number and positions of the sensors are not particularly limited.
  • a plurality of sensors may be installed in the left and right housings 6L and 6R or the headband 6C of the headphones 6.
  • the sensors 16L1, 16L2, 16C, 16R2, and 16R1 are optical sensors, and the sensor unit 16 detects the marker 15.
  • the sensors 16L1, 16L2, 16C, 16R2, and 16R1 have light receiving elements that receive light from the marker 15.
  • the sensor unit 16 detects the position of the marker 15 based on the time difference at which the light from the marker 15 reaches each of the sensors 16L1, 16L2, 16C, 16R2, and 16R1.
  • each sensor 16L1, 16L2, 16C, 16R2, 16R1 has a light emitting element and a light receiving element.
  • the light emitting elements of the sensors 16L1, 16L2, 16C, 16R2, and 16R1 emit light having different frequencies (wavelengths).
  • the light receiving elements of the sensors 16L1, 16L2, 16C, 16R2, and 16R1 detect the reflected light reflected by the marker 15 and the light having the respective frequencies.
  • the positional relationship with the marker 15 can be measured from the time when the light receiving elements of the sensors 16L1, 16L2, 16C, 16R2, and 16R1 detect light.
  • the sensor unit 16 Since a plurality of sensors 16L1, 16L2, 16C, 16R2, and 16R1 are installed in a circular arc shape on the left and right housings 6L and 6R and the headband 6C of the headphone 6, the sensor unit 16 is arranged in the horizontal direction, the vertical direction, and the depth direction. The marker position in the (front-rear direction) can be detected.
  • each sensor may be an electromagnetic sensor or the like instead of an optical sensor.
  • the sensor unit 16 may directly detect the position of the finger of the user 1 instead of the marker 15. In this case, the user 1 may not wear the marker 15.
  • some or all of the sensors provided in the sensor unit 16 may be attached to other than the headphones 6.
  • the sensor unit may be mounted on the finger 7 of the user 1 and the marker 15 may be installed on the headphones 6. And the position of the marker installed in the headphones 6 is detected by the sensor unit attached to the finger 6 of the user 1.
  • the processing device 10 is an arithmetic processing device such as a personal computer, and includes a processor and a memory.
  • the processing device 10 includes a sound source reproduction unit 11, an out-of-head localization processing unit 12, a headphone reproduction unit 13, a filter selection unit 14, a three-dimensional coordinate calculation unit 17, an input unit 18, a determination unit 19, and a three-dimensional coordinate storage unit 20. ing.
  • the processing apparatus 10 performs a process for selecting a filter most suitable for the user 1.
  • a viewing test for selecting the optimum filter is executed by the processing of the processing device 10.
  • the processing apparatus 10 is not limited to a physically single apparatus, and some processes may be performed by different apparatuses. For example, a part of the processing may be performed by a personal computer or the like, and the remaining processing may be performed by a DSP (Digital Signal Processor) built in the headphones 6 or the like. Alternatively, the three-dimensional coordinate calculation unit 17 may be provided in the sensor unit 16.
  • the sound source playback unit 11 plays back a test sound source.
  • the test sound source is preferably a sound source in which the localization position of the sound image is easy to understand. For example, a single sound source such as white noise can be used as the test sound source.
  • the test sound source is a stereo signal including an Lch signal and an Rch signal.
  • the sound source reproduction unit 11 outputs the reproduced signal to the out-of-head localization processing unit 12.
  • the out-of-head localization processing unit 12 performs out-of-head localization processing on the signal of the test sound source.
  • the out-of-head localization processing unit 12 reads the preset filter stored in the filter selection unit 14 and performs out-of-head localization processing.
  • the out-of-head localization processing unit 12 performs a convolution operation for convolving a filter with a head-related transfer characteristic and an inverse filter with an ear-canal transfer characteristic into a reproduction signal.
  • the filter of the head transfer characteristic is not the listener's own, but is selected by the filter selection unit 14 from a plurality of preset filters prepared in advance.
  • the preset filter selected by the filter selection unit 14 is set in the out-of-head localization processing unit 12.
  • the ear canal transfer characteristic can be measured with a microphone built in the headphones, but a fixed value measured with a dummy head or the like can also be used.
  • the filter selection unit 14 includes preset filters for the left ear and the right ear.
  • the headphone playback unit 13 outputs a playback signal, which has been subjected to the out-of-head localization processing by the out-of-head localization processing unit 12, to the headphones 6.
  • the headphones 6 output a reproduction signal to the user.
  • the filter selection unit 14 stores n (n is an integer of 2 or more) preset filters.
  • the filter selection unit 14 selects one of the n preset filters and outputs it to the out-of-head localization processing unit 12. Further, the filter selection unit 14 sequentially switches the preset filters 1 to n and outputs them to the out-of-head localization processing unit 12.
  • the out-of-head localization processing unit 12 performs out-of-head localization processing using the 1 to n preset filters selected by the filter selection unit.
  • the selection of the preset filter in the filter selection unit 14 may be switched manually by the user 1 or may be automatically switched in order every few seconds. In the following description, the number of presets is assumed to be 8. However, the number of presets is not particularly limited.
  • the sensor unit 16 detects the position of the marker 15.
  • the input unit 18 receives a user input for determining the localization position of the sound image by the out-of-head localization process.
  • the input unit 18 includes a button for receiving user input.
  • the position of the marker 15 at the timing when the button is pressed becomes the localization position of the sound image.
  • the input unit 18 is not limited to a button, and may be another input device such as a keyboard, a mouse, a touch panel, or a lever.
  • the localization position may be determined by voice input from a microphone or the like, or the localization position may be determined when it is detected that the marker 15 is stationary for a predetermined time or more.
  • the user 1 when the user 1 is listening to the reproduction signal subjected to the out-of-head localization processing with the headphones 6, the user 1 designates the localization position of the sound image with the finger 7 to which the marker 15 is attached. That is, the user 1 indicates with the marker 15 where the sound image sounds as if it was localized.
  • the marker 15 When the marker 15 is moved to the localization position of the sound image, the user 1 presses the button of the input unit 18. Thereby, the localization position of a sound image can be determined.
  • the three-dimensional coordinate calculation unit 17 calculates the three-dimensional coordinates of the localization position of the sound image based on the output from the sensor unit 16. For example, the sensor unit 16 generates a detection signal indicating the position information of the marker 15 according to the detection result of the position of the marker 15 and outputs the detection signal to the three-dimensional coordinate calculation unit 17. In addition, the input unit 18 outputs an input signal corresponding to the user input to the three-dimensional coordinate calculation unit 17. The three-dimensional coordinate calculation unit 17 calculates the three-dimensional position of the marker 15 at the timing determined by the input unit 18 as the three-dimensional coordinate of the localization position. As described above, the three-dimensional coordinate calculation unit 17 calculates the three-dimensional coordinates of the marker 15 based on the detection signal from the sensor unit 16.
  • the 3D coordinate calculation unit 17 calculates 3D coordinates for each preset filter.
  • the three-dimensional coordinate calculation unit 17 outputs the calculated three-dimensional coordinates to the determination unit 19.
  • the determination unit 19 stores the 3D coordinates calculated by the preset filter in the 3D coordinate storage unit 20.
  • the three-dimensional coordinate storage unit 20 includes a memory and stores eight three-dimensional coordinates.
  • the determination unit 19 determines an optimum filter based on a plurality of three-dimensional coordinates stored in the three-dimensional coordinate storage unit 20. That is, the determination unit 19 determines a preset filter having the best out-of-head localization performance for the user 1 as the optimum filter. In the first embodiment, the determination unit 19 determines, as the optimum filter, a preset filter that is farthest from the user 1 and obtains a localization position that expands to the left and right.
  • the determination unit 19 selects an optimum filter from a plurality of preset filters. Therefore, it is possible to easily select the most suitable head transmission characteristic for one user from a large number of preset values.
  • the out-of-head localization processing unit 12 performs out-of-head localization processing using the optimum filter. Then, the headphone 6 reproduces the Lch signal and the Rch signal that have been subjected to out-of-head localization processing using the optimum filter.
  • a stereo music signal output from a CD (Compact Disc) player or the like is used for reproducing the actual sound source. Thereby, an out-of-head localization process can be performed using an appropriate filter. Even when the headphones 6 are used, an out-of-head localization characteristic that is optimal for the user 1 can be obtained.
  • the playback of the actual sound source and the playback of the test sound source are not limited to those performed on the same device, and may be performed on different devices.
  • the optimum filter selected by the out-of-head localization processing apparatus 100 is transmitted to another music player or the headphones 6 wirelessly or by wire. Other music players and headphones 6 store the optimum filter. Then, another music player or the headphone 6 performs an out-of-head localization process on the stereo music signal using the optimum filter.
  • FIG. 3 is a flowchart showing a filter selection method performed by the out-of-head localization processing apparatus 100.
  • FIG. 3 shows Lch processing.
  • the filter selection unit 14 has a left ear preset filter and a right ear preset filter. Although the viewing test is performed separately for the Lch filter and the Rch filter, since the Lch and Rch processes are the same, description of the Rch process will be omitted as appropriate.
  • n 1 is set (step S11).
  • n is the number of the preset filter. Therefore, first, processing for the first preset filter is performed.
  • the filter selection unit 14 determines whether n is larger than the preset number (step S12). Here, since the preset number is 8, n is smaller than the preset number (NO in step S12).
  • the sound source reproduction unit 11 reproduces the test sound using the first preset filter (step S13).
  • the out-of-head localization processing unit 12 performs the out-of-head localization processing using the first preset filter. Specifically, the out-of-head localization processing unit 12 performs out-of-head localization processing on the stereo signal of the test sound source using an Lch preset filter. Then, the headphone reproducing unit 13 outputs an Lch signal from the housing 6 ⁇ / b> L of the headphone 6 to the user 1.
  • step S14 the user 1 moves the finger with the marker 15 to a place where the sound image is localized and heard. That is, the user 1 moves the finger 7 to the localization position of the sound image formed by the headphones 6. Then, the user 1 determines whether or not the position of the sound image and the marker 15 overlaps (step S15). When the localization position of the sound image and the position of the marker 15 are not located (NO in step S15), the process returns to step S14, and the user 1 moves the finger 7 with the marker 15 to the location where the sound image is localized.
  • step S15 If the localization position of the sound image designated by the user 1 and the position of the marker 15 match (YES in step S15), the user 1 presses the enter button (step S16). That is, the user 1 operates the input unit 18 to determine the localization position. Thereby, the input unit 18 receives an input for determining the localization position of the sound image.
  • the sensor unit 16 acquires the position information of the marker 15 (step S17). And the three-dimensional coordinate calculation part 17 calculates the three-dimensional coordinate of a localization position based on the positional information from the sensor unit 16 (step S18). That is, the three-dimensional coordinate calculation unit 17 calculates the three-dimensional coordinates of the marker 15 as the three-dimensional coordinates of the localization position.
  • FIG. 4 shows a three-dimensional orthogonal coordinate system with the left and right directions as the X axis, the front and rear direction as the Y axis, and the up and down direction as the Z axis as viewed from the user 1.
  • the right direction of the user 1 is the + X direction
  • the left direction is the ⁇ X direction
  • the forward direction is the + Y direction
  • the backward direction is the ⁇ Y direction
  • the upward direction is the + Z direction
  • the downward direction is the ⁇ Z direction.
  • the origin of the three-dimensional coordinate system is the middle of the left and right housings 6L and 6R, that is, the center of the head of the user 1.
  • the three-dimensional coordinate calculation unit 17 obtains the three-dimensional coordinates (XLn, YLn, ZLn) of the Lch sound image.
  • XLn, YLn, and ZLn are relative XYZ coordinates from the origin, and are as follows.
  • YLn relative coordinate in the Y-axis direction from the user 1 to the Lch sound image by the nth filter
  • ZLn by the nth filter from the user 1 Relative coordinates in the Z-axis direction to the Lch sound image
  • the three-dimensional coordinate calculation unit 17 calculates three-dimensional coordinates (XLn, YLn, ZLn).
  • the three-dimensional coordinate calculation unit 17 outputs the three-dimensional coordinates (XLn, YLn, ZLn) to the determination unit 19.
  • the determination unit 19 determines the optimum filter based on the distance DLn from the user 1 to the localization position of the sound image. Specifically, the determination unit 19 determines that the localization position of the obtained sound image is farther from the user 1 and spreads to the left and right as the optimum filter. Further, an optimum filter having a sound image height in the vicinity of the ear is used.
  • the determination unit 19 determines whether ZLn is within a predetermined range (step S19). That is, the determination unit 19 determines whether or not the height of the sound image is approximately the same as the height of the ear.
  • the relative height of the sound image from the ear is represented by ZLn.
  • ZLn the relative height of the sound image from the ear.
  • step S19 it is determined whether or not the value of ZLn is within a predetermined range, but whether the angle of the sound image in the vertical direction, that is, the angle from the horizontal plane (elevation angle) is within the predetermined range. It may be determined.
  • the determination unit 19 determines whether ⁇ Ln is within the predetermined range (step S20). That is, the determination unit 19 determines whether or not the opening angle of the sound image is within a predetermined range.
  • ⁇ Ln is an angle from the Y axis in the horizontal plane (XY plane).
  • XY plane horizontal plane
  • ⁇ Ln is large, a stereo feeling can be strongly felt.
  • ⁇ Ln becomes too large, it becomes a so-called hollow state, which causes an unnatural impression. Therefore, it is desirable that ⁇ 45 ° ⁇ ⁇ Ln ⁇ 20 °.
  • the range of the opening angle is not limited to the above value.
  • step S20 If ⁇ Ln is not within the predetermined range (NO in step S20), the process proceeds to step S22. Thereby, a preset filter whose opening angle of the sound image of Lch is too large and a preset filter which is too small are excluded from selection targets.
  • step S12 when n is larger than the preset number (YES in step S12), the process proceeds to step S23.
  • the same processing is performed on all preset filters that are preset to calculate the distance DLn.
  • n 8. Accordingly, if there is no preset filter that is not selected in steps S19 and S20, the determination unit 19 calculates eight distances DL1 to DL8.
  • the optimal value is selected as the optimum filter from the eight distances DL1 to DL8 (step S23). That is, the determination unit 19 selects a preset filter that maximizes the distance DLn as the optimum filter. By doing in this way, the preset filter in which the sound image is localized farthest can be selected as the optimum filter. Thus, the determination unit 19 compares the distances DL1 to DL8 stored in the three-dimensional coordinate storage unit 20 and selects the optimum filter.
  • Rch When the selection of the optimum filter for Lch is completed, the same processing is performed for Rch.
  • the Rch process is the same as the Lch process.
  • out-of-head localization processing is performed on the stereo signal of the test sound source using the Rch preset filter. Then, an Rch signal is output from the housing 6 ⁇ / b> R of the headphone 6 to the right ear of the user 1.
  • the three-dimensional coordinates calculated by the three-dimensional coordinate calculation unit 17 for the sound image of Rch are (XRn, YRn, ZRn).
  • XRn relative coordinate in the X-axis direction from the user 1 to the Rch sound image by the nth filter
  • YRn relative coordinate in the Y-axis direction from the user 1 to the Rch sound image by the nth filter
  • ZRn by the nth filter from the user 1 Relative coordinates in the Z-axis direction to the Rch sound image
  • step S19 it is determined in step S19 whether ZRn is within a predetermined range.
  • step S20 it is determined whether or not ⁇ Rn is within a predetermined range.
  • the angle ⁇ Rn in the horizontal plane of the sound image localization when the front of the user 1 is 0 ° can be expressed by the following equation (3).
  • ⁇ Rn tan ⁇ 1 (YRn / XRn) (3)
  • ⁇ Rn is an angle from the Y axis in the horizontal plane (XY plane). Similar to Lch, when ⁇ Rn is large, a sense of stereo can be strongly felt. However, if ⁇ Rn becomes too large, it becomes a so-called hollow state, which causes an unnatural impression. Therefore, it is desirable that 20 ° ⁇ ⁇ Rn ⁇ 45 °.
  • the range of the opening angle is not limited to the above value.
  • the range of the opening angle between Lch and Rch may be bilaterally symmetric or bilaterally asymmetric.
  • the distance DRn is stored in step S21, and the optimum filter is selected by comparing the distance DRn in step S23.
  • the distance DRn from the user 1 to the Rch sound image can be expressed by the following equation (4).
  • DRn (XRn 2 + YRn 2 + ZRn 2 ) 1/2 (4)
  • the determination unit 19 determines the optimum filter by comparing the three-dimensional coordinates calculated for each preset filter. As a result, a preset filter having the highest out-of-head localization performance for the user 1 can be selected as the optimum filter.
  • the processing order of Lch and Rch may be reversed. Further, an Lch preset filter and an Rch preset filter may be used alternately.
  • the localization position of the sound image is detected by the marker 15 installed on the headphones 6. Then, the optimum filter is selected based on the three-dimensional coordinates of the localization position of the sound image. Thereby, it is possible to easily select the optimum filter for the user from a plurality of preset filters prepared in advance.
  • the determination unit 19 compares the three-dimensional coordinates of the localization position calculated for each preset filter, and selects the optimum filter. Therefore, the user can select the optimum filter without comparing the localization positions of the sound images for each preset filter. Therefore, the optimum filter can be selected easily.
  • Embodiment 2 the processing in the determination unit 19 is different from that in the first embodiment. Specifically, in the present embodiment, the optimum filter is determined by comparing the three-dimensional coordinates calculated for each preset filter with the preset three-dimensional coordinates of the virtual speaker. In addition, since processes other than the process in the determination unit 19 are the same as those in the first embodiment, description thereof will be omitted as appropriate.
  • the device configuration in the second embodiment is the same as the configuration shown in FIGS.
  • FIG. 5 is a flowchart showing a filter selection method performed by the out-of-head localization processing apparatus 100 according to the present embodiment.
  • steps S31 to S38 and S40 correspond to steps S11 to S18 and S22 of the first embodiment, respectively, and thus description thereof is omitted.
  • the determination unit 19 calculates the distance DLspn from the sound image to the virtual speaker (step S39).
  • the three-dimensional coordinates of the virtual speaker are set in advance. Let the three-dimensional coordinates of the relative position of the Lch virtual speaker be (XLsp, YLsp, ZLsp). The three-dimensional coordinates of the relative position of the sound image are (XLn, YLn, ZLn) as described in the first embodiment.
  • the distance DLspn between the sound image by the preset filter and the virtual speaker can be expressed by the following equation (5).
  • DLspn ⁇ (XLn-XLsp) 2 + (YLn-YLsp) 2 + (ZLn-ZLsp) 2 ⁇ 1/2 ... (5)
  • the determination unit 19 selects a preset filter having a minimum value from the distance DLsp1 to the distance DLsp8 as the optimum filter.
  • the determination unit 19 selects a preset filter that localizes a sound image at a position closest to the virtual speaker as the optimum filter.
  • the same processing is performed for Rch.
  • the three-dimensional coordinates of the relative position of the Rch virtual speaker be (XRsp, YRsp, ZRsp).
  • the three-dimensional coordinates of the relative position of the Rch sound image are (XRn, YRn, RLn) as described in the first embodiment.
  • the distance DRspn between the sound image by the preset filter and the virtual speaker can be expressed by the following formula (6).
  • DRspn ⁇ (XRn-XRsp) 2 + (YRn-YRsp) 2 + (ZRn-ZRsp) 2 ⁇ 1/2 ... (6)
  • the determination unit 19 calculates the distance DRspn for each preset filter. Therefore, the three-dimensional coordinate storage unit 20 stores n distances DRspn. Then, the determination unit 19 selects a preset filter having the smallest value among the n distances DRspn as the optimum filter. In the present embodiment, the determination unit 19 selects a preset filter whose sound image is localized at a position closest to the virtual speaker as the optimum filter. By doing in this way, a music reproduction signal can be reproduced with high out-of-head localization performance. It is possible to localize the sound image at a position close to the virtual speaker.
  • Embodiment 3 In the second embodiment, a method for selecting a sound image close to a preset virtual speaker position is shown. However, in the third embodiment, the user 1 arbitrarily sets the virtual speaker position. Then, the preset filter that becomes the sound image closest to the position of the virtual speaker set by the user 1 is selected as the optimum filter.
  • the position of the virtual speaker can be changed according to the preference of the user 1.
  • the left and right opening angles of the virtual speaker can be increased, or the sound image can be set so as not to be localized too far from the user's own head. Therefore, the sound image can be localized in the direction desired by the user 1.
  • the user 1 Before selecting the preset filter, press the position determination button with the finger with the marker 15 placed on the left and right positions. By doing so, the user 1 can set the position of the virtual speaker. That is, based on the position information of the marker 15 from the sensor unit 16, the three-dimensional coordinate calculation unit 17 calculates the three-dimensional coordinates (XLsp, YLsp, ZLsp) of the virtual speaker. And the determination part 19 memorize
  • the position of the sound image localization is indicated by a marker and stored, and the one with the closest relative distance to the virtual speaker is stored out of the head. Select the filter with the highest localization performance. In this way, the sound image can be brought closer to the position of the virtual speaker according to the preference of the user 1.
  • Non-transitory computer readable media include various types of tangible storage media.
  • Examples of non-transitory computer-readable media include magnetic recording media (for example, flexible disks, magnetic tapes, hard disk drives), magneto-optical recording media (for example, magneto-optical disks), CD-ROMs (Read Only Memory), CD-Rs, CD-R / W, semiconductor memory (for example, mask ROM, PROM (Programmable ROM), EPROM (Erasable PROM), flash ROM, RAM (Random Access Memory)).
  • the program may be supplied to a computer by various types of temporary computer readable media.
  • Examples of transitory computer readable media include electrical signals, optical signals, and electromagnetic waves.
  • the temporary computer-readable medium can supply the program to the computer via a wired communication path such as an electric wire and an optical fiber, or a wireless communication path.
  • the present invention is suitable for an out-of-head localization processing apparatus using headphones, for example.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Stereophonic System (AREA)

Abstract

本実施の形態にかかる頭外定位処理装置は、プリセットフィルタを選択するフィルタ選択部(14)と、プリセットフィルタを用いて、頭外定位処理を行う頭外定位処理部(12)と、テスト音源の信号をユーザに出力するヘッドホン(6)と、ユーザ入力を受け付ける入力部(18)と、センサユニット(16)と、センサユニット(16)からの検出信号に基づいて、音像の定位位置の三次元座標を算出する三次元座標算出部(17)と、プリセットフィルタ毎の三次元座標に基づいて、複数のプリセットフィルタの中からユーザ(1)に最適なフィルタを判定する判定部(19)と、を備えたものである。

Description

頭外定位処理装置、及びフィルタ選択方法
 本発明は、頭外定位処理装置、及びフィルタ選択方法に関する。
 音場再生技術の一つとして、ヘッドホンで再生していながら、あたかもスピーカで再生しているかのような音場を生成する「頭外定位ヘッドホン技術」がある。頭外定位ヘッドホン技術では、例えば、聴取者の頭部伝達特性(前面に配置された2chの仮想スピーカから左右それぞれの耳までの空間伝達特性)および外耳道伝達特性(ヘッドホンの左右の振動板からそれぞれの外耳道内での伝達特性)を用いている。
 頭外定位再生においては、2チャンネル(以下、chと記載)のスピーカから発した測定信号(インパルス音等)を聴取者本人の耳に設置したマイクで録音する。そして、インパルス応答から頭部伝達特性を算出して、フィルタを作成する。作成したフィルタを2chの音楽信号に畳み込むことにより、頭外定位再生を実現することができる。
 図6に示すように、Lchのスピーカ5LとRchのスピーカ5Rを備えたスピーカユニット5がインパルス応答測定に用いられる。スピーカユニット5は、ユーザ1の前方に設置される。ここで、Lchのスピーカ5Lから左耳3Lに到達する信号をLs、Rchのスピーカ5Rから右耳3Rに到達する信号をRs、Lchのスピーカ5Lから頭部を回りこんで右耳3Rに到達する信号をLo、Rchのスピーカ5Rから頭部を回りこんで左耳3Lに到達する信号をRoとする。
 Lch、Rchのスピーカ5L、5Rからインパルス信号を個別に発音し、左耳3L、右耳3Rに装着した左右のマイク2L、2Rによってインパルス応答(Ls、Lo、Ro、Rs)を測定する。この測定により、各伝達特性を得ることができる。得られた伝達特性を2chの音楽信号に畳み込むことにより、ヘッドホン再生でありながら、あたかもスピーカから再生されているかのような、頭外定位処理が実現できる。
特開2002-209300号公報
 しかしながら、実際の聴取環境によっては、測定用のスピーカを用意することができず、聴取者自身の頭部伝達特性を得ることができない場合がある。
 そこで、代替手段として、別の人、あるいはダミーヘッド等での測定により測定した頭部伝達特性を用いて、フィルタを作成することも可能である。しかしながら、頭部伝達特性は、個人の頭の形状や耳介の形状によって大きく変わることが知られている。したがって、他人の特性を用いた場合、頭外定位性能が著しく低下してしまう場合が多い。
 そのため、複数の異なるプリセットフィルタを予め用意したプリセット方式を用いることが好ましい。プリセット方式では、聴取者がそれぞれのプリセットフィルタで処理した音を聴きながら、最も自分に適したものを選択することができる。こうすることで、高い頭外定位性能を得ることができる。
 プリセット方式では、数多くのプリセットフィルタを用意することで、聴取者の特性に近いものを選択できる可能性が高くなる。しかしながら、プリセットフィルタの数が多くなるほど、それぞれの音像定位の差を聴覚によって判断しながら、最適なものを選択することが難しくなる。音像定位は「音がこの辺で鳴っている」というような空間的なイメージであるため、頭外定位を体験したことのない人ほどその傾向は顕著となる。また、音像定位は聴いている本人にしか知覚できないものであり、どこに定位しているかを外部から知ることは困難である。
 本実施形態は上記の点に鑑みなされたもので、予め用意された複数のプリセットフィルタの中から、ユーザに最適なフィルタを簡便に選択することができる頭外定位装置、及びフィルタ選択方法を提供することを目的とする。
 本実施形態の一態様にかかる頭外定位処理装置は、テスト音源を再生する音源再生部と、複数のプリセットフィルタから頭外定位処理に用いるプリセットフィルタを選択するフィルタ選択部と、前記フィルタ選択部によって選択されたプリセットフィルタを用いて、前記テスト音源の信号に対して頭外定位処理を行う頭外定位処理部と、前記頭外定位処理部にて頭外定位処理がなされた信号をユーザに出力するヘッドホンと、前記頭外定位処理による音像の定位位置を決定するためのユーザ入力を受け付ける入力部と、検出対象の位置情報を示す検出信号を生成するセンサユニットと、前記センサユニットからの検出信号に基づいて、前記定位位置の三次元座標を算出する三次元座標算出部と、前記プリセットフィルタ毎の前記定位位置の前記三次元座標に基づいて、前記複数のプリセットフィルタの中から前記ユーザに最適なフィルタを判定する判定部と、を備えたものである。
 本実施形態の一態様にかかるフィルタの選択方法は、複数のプリセットフィルタの中から頭外定位処理に用いるプリセットフィルタを選択し、選択された前記プリセットフィルタを用いて頭外定位処理されたテスト音源の信号をヘッドホンから再生し、前記テスト音源の音像の定位位置を決定するためのユーザ入力を受け付け、前記ユーザ入力によって決定された前記定位位置の位置情報を、センサユニットによって取得し、前記位置情報に基づいて、前記定位位置の三次元座標を算出し、前記プリセットフィルタ毎の前記音像の前記三次元座標に基づいて、前記複数のプリセットフィルタの中から最適なフィルタを選択するものである。
 本実施形態によれば、予め用意されたプリセットフィルタから、ユーザに最適なフィルタを簡便に選択することができる頭外定位装置、及びフィルタ選択方法を提供することができる。
本実施の形態に係る頭外定位処理装置を示すブロック図である。 センサユニットが実装されたヘッドホンの構成を示す図である。 本実施の形態1に係るフィルタ選択方法を示すフローチャートである。 定位位置の三次元座標系を説明するための図である。 本実施の形態1に係るフィルタ選択方法を示すフローチャートである。 頭部伝達特性を測定する測定装置を示す図である。
 本実施の形態にかかる頭外定位処理装置、及びフィルタ選択方法の概要について説明する。
 頭外定位ヘッドホンにおいては、聴取者本人の頭部伝達特性を用いて処理を行うことにより、最も高い頭外定位性能を引き出すことができる。しかしながら、測定用スピーカが用意できない等の理由により、予め複数用意された他人の特性をもつプリセットフィルタ群の中から、最も本人に近い特性(フィルタ)を選択するプリセット方式が次善の策として考えられる。
 プリセット方式では、複数のプリセットフィルタで処理した音を順番に聴きながら聴取者本人が最適な組み合わせを選択する。しかしながら、それぞれのプリセットフィルタにおいて音像の定位位置を記憶しておくことが難しく、初心者には最適な組み合わせを選択することが困難である。
 そこで、本実施の形態では、それぞれのプリセットフィルタの音像の定位位置を、センサユニットが検出する。例えば、ユーザが指先にマーカーを装着する。そして、ユーザが知覚した音像の定位位置をマーカーで指し示す。センサユニットを用いてマーカーの位置を検出することにより、各プリセットフィルタの音像定位情報を数値化する。
 具体的には、それぞれのプリセットフィルタを用いて、音像定位が明確にわかるようなテスト音源(ホワイトノイズ等)を再生する。そして、ユーザが音像の定位位置を指もしくはマーカーなどで示す。ヘッドホンに設置したセンサを用いて、定位位置の三次元座標を測定する。
 処理装置は、複数のプリセットフィルタでの定位位置の三次元座標をそれぞれ記憶する。処理装置は、複数のプリセットフィルタに対応する三次元座標化したデータを分析する。処理装置は、分析結果に基づいて、最も頭外定位性能の高い組み合わせを決定する。こうすることにより、聴取者が自身に最適なプリセットフィルタ(以下、最適フィルタとする)を自分で選択することなく、自動的に最適な頭外定位性能が得られる。
 頭外定位性能の評価については、ユーザから音像の定位位置までの距離や、仮想スピーカから音像の定位位置までの距離を用いることができる。例えば、ユーザから最も遠くに音像定位するプリセットフィルタを、最適フィルタとして選択する。あるいは、仮想的なスピーカの最も近くに音像定位するプリセットフィルタを最適フィルタとすることができる。
 実施の形態1.
 本実施の形態にかかる頭外定位処理装置、及びフィルタ選択方法について、図1~図2を用いて説明する。図1は、頭外定位処理装置100の構成を示すブロック図である。図2は、センサユニットが実装されたヘッドホンの構成を示す図である。
 図1に示すように頭外定位処理装置100は、マーカー15と、センサユニット16と、ヘッドホン6と、処理装置10と、を備えている。
 聴取者であるユーザ1は、ヘッドホン6を装着している。ヘッドホン6は、Lch信号とRch信号をユーザ1に向けて出力することができる。また、図2に示すように、ユーザ1は、指7にマーカー15を装着している。ヘッドホン6には、センサユニット16が取り付けられている。センサユニット16は、ユーザ1の指7に装着されたマーカー15を検出する。
 ヘッドホン6は、バンドタイプのヘッドホンであり、左のハウジング6L、右のハウジング6R、及びヘッドバンド6Cを備えている。左のハウジング6Lは、ユーザ1の左耳にLch信号を出力する。右のハウジング6Rは、ユーザ1の右耳にRch信号を出力する。左右のハウジング6L、6Rは振動板等を有する出力ユニットを内蔵している。ヘッドバンド6Cは、円弧状に形成され、左のハウジング6Lと右のハウジング6Rとを連結している。ヘッドバンド6Cがユーザ1の頭部の上に乗せられる。これにより、左右のハウジング6L、6Rの間に、ユーザ1の頭部が挟まれる。左のハウジング6Lがユーザ1の左耳に装着され、右のハウジング6Rが右耳に装着される。
 ヘッドホン6には、センサユニット16が設置されている。センサユニット16には、複数のセンサ16L1、16L2、16C、16R2、16R1を備えたセンサアレイを用いることができる。センサL1は、左のハウジング6Lに取り付けられている。センサ16R1は、右のハウジング6Rに取り付けられている。センサ16L2、センサ16C、センサ16R2はヘッドバンド6Cに取り付けられている。
 センサ16Cは、ヘッドバンド6Cの中央に配置されている。センサ16L2は、センサ16L1とセンサ16Cとの間に配置されている。センサ16R2は、センサ16R1とセンサ16Cとの間に配置されている。このように、センサ16L2、センサ16C、センサ16R2は、ヘッドバンド6Cに沿って、センサ16L1とセンサ16R1の間に配置されている。
 なお、図2では、センサユニット16が5つのセンサ16L1、16L2、16C、16R2、16R1を有する例について示しているが、センサの数、及び位置については特に限定されるものではない。複数のセンサがヘッドホン6の左右のハウジング6L、6R、またはヘッドバンド6Cに設置されていればよい。
 ここでは、センサ16L1、16L2、16C、16R2、16R1が光学式センサであり、センサユニット16は、マーカー15を検出する。例えば、発光体を有するマーカー15を用いる場合、センサ16L1、16L2、16C、16R2、16R1は、マーカー15から光を受光する受光素子を有している。そして、各センサ16L1、16L2、16C、16R2、16R1のそれぞれに、マーカー15からの光が到達する時間差によって、センサユニット16は、マーカー15の位置を検出する。
 あるいは、反射体を有するマーカー15を用いる場合、各センサ16L1、16L2、16C、16R2、16R1は、発光素子、及び受光素子を有している。そして、各センサ16L1、16L2、16C、16R2、16R1の発光素子は、異なる周波数(波長)の光を発光する。マーカー15で反射された反射光を各センサ16L1、16L2、16C、16R2、16R1の受光素子がそれぞれの周波数の光を検出する。各センサ16L1、16L2、16C、16R2、16R1の受光素子が光を検出した時間から、マーカー15との位置関係を測定することができる。
 ヘッドホン6の左右のハウジング6L、6R、及びヘッドバンド6Cに円弧状に複数のセンサ16L1、16L2、16C、16R2、16R1が設置されているため、センサユニット16は、水平方向、鉛直方向、奥行き方向(前後方向)のマーカー位置を検出することができる。
 なお、マーカー15の位置を検出する方法については特に限定されるものではない。例えば、各センサを光学式センサではなく、電磁式センサ等としてもよい。もちろん、センサユニット16は、マーカー15ではなく、ユーザ1の指などの位置を直接検出するようにしてもよい。この場合、ユーザ1がマーカー15を装着しなくてもよい。また、センサユニット16に設けられたセンサの一部又は全部は、ヘッドホン6以外に取り付けられていてもよい。また、ユーザ1の指7にセンサユニットを装着し、ヘッドホン6にマーカー15を設置してもよい。そして、ユーザ1の指6に装着されたセンサユニットでヘッドホン6に設置されたマーカーの位置を検出する。
 処理装置10は、パーソナルコンピュータなどの演算処理装置であり、プロセッサ、及びメモリ等を備えている。処理装置10は、音源再生部11、頭外定位処理部12、ヘッドホン再生部13、フィルタ選択部14、三次元座標算出部17、入力部18、判定部19、三次元座標記憶部20を備えている。
 処理装置10は、ユーザ1に最適なフィルタを選択するための処理を行う。処理装置10の処理によって、最適フィルタを選択するための視聴テストが実行される。なお、処理装置10は、物理的に単一な装置に限られるものではなく、一部の処理が異なる装置で行われてもよい。例えば、一部の処理がパソコンなどにより行われ、残りの処理がヘッドホン6に内蔵されたDSP(Digital Signal Processor)などにより行われてもよい。あるいは、三次元座標算出部17がセンサユニット16に設けられていてもよい。
 音源再生部11は、テスト音源を再生する。テスト音源は、音像の定位位置がわかりやすい音源であることが好ましい。例えば、テスト音源としては、ホワイトノイズ等単一の音源を用いることができる。テスト音源は、Lch信号とRch信号を含むステレオ信号である。音源再生部11は再生した信号を頭外定位処理部12に出力する。
 頭外定位処理部12は、テスト音源の信号に対して頭外定位処理を行う。頭外定位処理部12は、フィルタ選択部14に記憶されているプリセットフィルタを読み出して、頭外定位処理を行う。例えば、頭外定位処理部12は、頭部伝達特性のフィルタおよび外耳道伝達特性の逆フィルタを再生信号に畳み込む畳み込み演算を実行する。
 頭部伝達特性のフィルタは、聴取者本人のものではなく、予め用意された複数のプリセットフィルタの中からフィルタ選択部14によって選択される。フィルタ選択部14で選択されたプリセットフィルタが頭外定位処理部12にセットされる。外耳道伝達特性は、ヘッドホンに内蔵したマイクで測定することもできるが、ダミーヘッド等で測定した固定値を使用することも可能である。なお、フィルタ選択部14には左耳用と右耳用のプリセットフィルタがそれぞれ用意されている。
 ヘッドホン再生部13は、頭外定位処理部12で頭外定位処理が実行された再生信号をヘッドホン6に出力する。ヘッドホン6は、再生信号をユーザに出力する。このようにすることで、あたかもスピーカから再生されているかのような頭外定位音が、テスト音として、ヘッドホン6から再生される。
 フィルタ選択部14には、n個(nは2以上の整数)のプリセットフィルタが記憶されている。フィルタ選択部14は、n個のプリセットフィルタのうちの1つを選択して、頭外定位処理部12に出力する。さらに、フィルタ選択部14は1~nのプリセットフィルタを順番に切り替えて、頭外定位処理部12に出力する。頭外定位処理部12は、フィルタ選択部14で選択されている1~nのプリセットフィルタを用いて、頭外定位処理を行う。フィルタ選択部14におけるプリセットフィルタの選択はユーザ1が手動で切り替えてもよく、あるいは数秒毎に順番に自動で切り替えてもよい。なお、以下の説明では、プリセット数を8として説明するが、プリセット数は特に限定されるものではない。
 上記したように、センサユニット16は、マーカー15の位置を検出する。入力部18は、頭外定位処理による音像の定位位置を決定するためのユーザ入力を受け付ける。入力部18は、ユーザ入力を受け付けるボタンなどを有している。ボタンが押されたタイミングでのマーカー15の位置が音像の定位位置となる。なお、入力部18は、ボタンに限らず、キーボード、マウス、タッチパネル、レバーなどの他の入力機器であってもよい。さらには、マイクなどの音声入力によって、定位位置を決定するようにしてもよいし、マーカー15が所定時間以上静止していることを検出した場合に定位位置を決定するようにしてもよい。
 例えば、ヘッドホン6で頭外定位処理された再生信号をユーザ1が受聴しているときに、ユーザ1がマーカー15を付けた指7で音像の定位位置を指定する。すなわち、音像がどこに定位しているように聞こえているかをユーザ1がマーカー15で指す。マーカー15を音像の定位位置まで移動したら、ユーザ1が入力部18のボタンを押す。これにより、音像の定位位置を決定することができる。
 三次元座標算出部17は、センサユニット16からの出力に基づいて、音像の定位位置の三次元座標を算出する。例えば、センサユニット16は、マーカー15の位置の検出結果に応じ、マーカー15の位置情報を示す検出信号を生成し、三次元座標算出部17に出力する。また、入力部18は、ユーザ入力に応じた入力信号を三次元座標算出部17に出力する。三次元座標算出部17は、入力部18による決定がなされたタイミングでのマーカー15の3次元的な位置を、定位位置の三次元座標として算出する。このように、三次元座標算出部17は、センサユニット16からの検出信号に基づいて、マーカー15の三次元座標を算出する。
 三次元座標算出部17は、プリセットフィルタ毎に三次元座標を算出する。三次元座標算出部17は、算出した三次元座標を判定部19に出力する。判定部19は、プリセットフィルタに算出された三次元座標を三次元座標記憶部20に格納させる。三次元座標記憶部20は、メモリなどを有しており、8個の三次元座標を記憶する。
 判定部19は、三次元座標記憶部20に記憶された複数の三次元座標に基づいて、最適フィルタを判定する。すなわち、判定部19は、ユーザ1にとって最良の頭外定位性能を有するプリセットフィルタを最適フィルタとして決定する。実施の形態1では、判定部19は、ユーザ1から最も遠く、左右に拡がる定位位置が得られるプリセットフィルタを最適フィルタとして判定している。
 このように、判定部19は、複数のプリセットフィルタの中から最適フィルタを選択する。したがって、数多くのプリセット値の中から、ユーザ1本人にもっとも最適な頭部伝達特性を簡便に選択することができる。
 そして、実音源の再生では、頭外定位処理部12は最適フィルタを用いて頭外定位処理を行う。そして、ヘッドホン6が、最適フィルタを用いて頭外定位処理がなされたLch信号、Rch信号を再生する。なお、実音源の再生には、CD(Compact Disc)プレーヤなどから出力されるステレオ音楽信号が用いられる。これにより、適切なフィルタを用いて、頭外定位処理を実施することができる。ヘッドホン6を用いた場合でも、ユーザ1にとって最適な頭外定位特性を得ることができる。
 なお、実音源の再生と、テスト音源の再生は、同一の装置で行われるものに限られるものではなく、異なる装置で行われてもよい。例えば、頭外定位処理装置100が選択した最適フィルタを、無線又は有線で、他の音楽プレーヤやヘッドホン6に送信する。他の音楽プレーヤやヘッドホン6が最適フィルタを記憶する。そして、他の音楽プレーヤ、又はヘッドホン6が最適フィルタを用いて、ステレオ音楽信号に対して頭外定位処理を行う。
 図3を用いて、実施の形態1にかかるフィルタ選択方法について説明する。図3は、頭外定位処理装置100にて実施されるフィルタ選択方法を示すフローチャートである。なお、図3ではLchでの処理を示している。フィルタ選択部14には左耳用と右耳用のプリセットフィルタがそれぞれ用意されている。LchのフィルタとRchのフィルタとで別々に視聴テストが行われるが、LchとRchの処理は同じであるため、Rchの処理については、適宜説明を省略する。
 Lch選択動作を開始すると、n=1とする(ステップS11)。nはプリセットフィルタの番号である。したがって、まず、1番目のプリセットフィルタに対する処理を行う。フィルタ選択部14は、nがプリセット数より大きいか否かを判定する(ステップS12)。ここでは、プリセット数が8であるため、nがプリセット数よりも小さくなっている(ステップS12のNO)。
 そして、音源再生部11は、1番目のプリセットフィルタを用いて、テスト音を再生する(ステップS13)。ここでは、頭外定位処理部12が、1番目のプリセットフィルタを用いて、頭外定位処理を実行している。具体的には、頭外定位処理部12は、テスト音源のステレオ信号に対して、Lch用のプリセットフィルタを用いて、頭外定位処理を実行する。そして、ヘッドホン再生部13は、ヘッドホン6のハウジング6LからLch信号をユーザ1に出力する。
 次に、ユーザ1がマーカー15を付けた指を、音像が定位して聞こえる場所に移動させる(ステップS14)。すなわち、ヘッドホン6により形成された音像の定位位置に、ユーザ1が指7を移動させる。そして、ユーザ1が音像とマーカー15の位置が重なっているか否かを判定する(ステップS15)。音像の定位位置とマーカー15の位置があっていない場合(ステップS15のNO)、ステップS14に戻って、ユーザ1がマーカー15を付けた指7を音像定位している場所まで移動させる。
 ユーザ1によって指定された音像の定位位置とマーカー15の位置が一致している場合(ステップS15のYES)、ユーザ1が決定ボタンを押下する(ステップS16)。すなわち、ユーザ1が入力部18を操作して、定位位置を決定する。これにより、入力部18は、音像の定位位置を決定するための入力を受け付ける。
 入力部18がボタン押下のユーザ入力を受け付けると、センサユニット16がマーカー15の位置情報を取得する(ステップS17)。そして、三次元座標算出部17が、センサユニット16からの位置情報に基づいて、定位位置の三次元座標を算出する(ステップS18)。すなわち、三次元座標算出部17は、マーカー15の三次元座標を定位位置の三次元座標として算出する。
 ここで、三次元座標算出部17が算出する三次元座標について、図4を用いて説明する。図4では、ユーザ1から見て、左右方向をX軸、前後方向をY軸、上下方向をZ軸とする三次元直交座標系を示している。具体的には、ユーザ1の右方向が+X方向、左方向が-X方向、前方向が+Y方向、後ろ方向が-Y方向、上方向が+Z方向、下方向が-Z方向となっている。なお、三次元座標系の原点は、左右のハウジング6L、6Rの中間、すなわち、ユーザ1の頭部中心としている。
 ここで、三次元座標算出部17は、Lchの音像の3次元座標(XLn,YLn,ZLn)を求める。なお、XLn,YLn,ZLnは、原点からの相対的なXYZ座標であり、以下の通りとなる。
XLn:ユーザ1からn番目のフィルタによるLch音像へのX軸方向の相対座標
YLn:ユーザ1からn番目のフィルタによるLch音像へのY軸方向の相対座標
ZLn:ユーザ1からn番目のフィルタによるLch音像へのZ軸方向の相対座標
 本実施の形態では、三次元座標算出部17が三次元座標(XLn,YLn,ZLn)を算出する。三次元座標算出部17は、三次元座標(XLn,YLn,ZLn)を判定部19に出力する。本実施の形態では、判定部19が、ユーザ1から音像の定位位置までの距離DLnに基づいて、最適フィルタを判定している。具体的には、判定部19は、得られる音像の定位位置がユーザ1から、より遠くにあり、かつより左右に拡がるものを最適フィルタとして判定している。さらに、音像の高さが耳の近傍にあるものを最適フィルタとしている。
 そのため、判定部19は、ZLnが所定の範囲内にあるか否かを判定する(ステップS19)。すなわち、判定部19は、音像の高さが耳の高さと同程度になっているか否かを判定する。耳からの音像の相対的な高さはZLnで表される。一般的に、ステレオ音源の音像は耳と同じ高さにあることが望ましい。音像の高さZLnが耳よりも高すぎる場合、あるいは低すぎる場合、2chの音像定位としては不自然な印象となる。
 したがって、ZLnが所定の範囲内にない場合(ステップS19のNO)、ステップS22に移行する。これにより、定位位置が高すぎるプリセットフィルタ、及び定位位置が低すぎるプリセットフィルタが選択対象から外れる。なお、高さのずれの範囲については、任意に設定することができるが、耳の高さからプラスマイナス20cm程度の範囲とすることが望ましい。また、ステップS19ではZLnの値が所定の範囲内にあるか否かを判定したが、音像の上下方向の角度、すなわち、水平面からの角度(仰俯角)が、所定の範囲内にあるか否かを判定してもよい。
 ZLnが所定の範囲内にある場合(ステップS19のYES)、判定部19は、θLnが所定の範囲内か否かを判定する(ステップS20)。すなわち、判定部19は、音像の開き角が所定の範囲内であるか否かを判定する。ユーザ1の正面を0°としたときの音像定位の水平面内の角度θLnは以下の式(1)で表すことができる。
θLn=tan―1(YLn/XLn)・・・(1)
 θLnは水平面(XY平面)内におけるY軸からの角度になる。θLnが大きいと、ステレオ感を強く感じることができる。ただし、θLnがあまり大きくなり過ぎると、いわゆる中抜け状態となり、不自然な印象を招く。従って、-45°≦θLn≦20°であることが望ましい。もちろん、開き角の範囲は、上記の値に限られるものではない。
 θLnが所定の範囲内にない場合(ステップS20のNO)、ステップS22に移行する。これにより、Lchの音像の開き角が大きすぎるプリセットフィルタ、及び小さすぎるプリセットフィルタが選択対象から外れる。
 θLnが所定の範囲内にある場合(ステップS20のYES)、音像までの距離DLnを三次元座標記憶部20が記憶する(ステップS21)。なお、距離DLnはユーザ1から音像までの距離であるため、以下の式(2)で表される。
DLn=(XLn+YLn+ZLn1/2   ・・・(2)
 判定部19によって算出された距離DLnを三次元座標記憶部20が記憶する。そして、n=n+1とインクリメントする(ステップS22)。nをインクリメントしたら、ステップS12に戻る。そして、nがプリセット数に到達するまで、ステップS12~ステップS22までの処理を繰り返し行う。すなわち、2番目~8番目のプリセットフィルタに対して、ステップS12からステップS22までの処理を行う。
 ステップS12において、nがプリセット数よりも大きくなったら(ステップS12のYES)、ステップS23に移行する。プリセットされている全てのプリセットフィルタに対して、同様の処理を行い、距離DLnを算出する。ここで、n=8となっている。したがって、ステップS19、S20で選択対象外となるプリセットフィルタがないとすると、判定部19は、8個の距離DL1~距離DL8を算出する。
 nがプリセット数を越えた場合(ステップS12のYES)、8個の距離DL1~距離DL8の中で値が最大のものを最適フィルタとして選択する(ステップS23)。すなわち、判定部19は、距離DLnが最大となるプリセットフィルタを最適フィルタとして選択する。このようにすることで、最も遠くに音像が定位しているプリセットフィルタを最適フィルタとして選択することができる。このように、判定部19は、三次元座標記憶部20に記憶されている距離DL1~距離DL8を比較して、最適フィルタを選択する。
 Lch用の最適フィルタの選択が終了したら、Rchについても同様の処理を行う。Rchの処理もLchの処理と同様である。Rchの処理では、Rch用のプリセットフィルタを用いて、テスト音源のステレオ信号に対して、頭外定位処理が行われる。そして、ヘッドホン6のハウジング6RからRch信号がユーザ1の右耳に出力される。
 Lchと同様に、Rchの音像に対して、三次元座標算出部17が算出した三次元座標を(XRn,YRn,ZRn)とする。
XRn:ユーザ1からn番目のフィルタによるRch音像へのX軸方向の相対座標
YRn:ユーザ1からn番目のフィルタによるRch音像へのY軸方向の相対座標
ZRn:ユーザ1からn番目のフィルタによるRch音像へのZ軸方向の相対座標
 Rchの場合、ステップS19ではZRnが所定の範囲内にあるか否かを判定する。また、ステップS20では、θRnが所定の範囲内にあるか否かを判定する。ユーザ1の正面を0°としたときの音像定位の水平面内の角度θRnは以下の式(3)で表すことができる。
θRn=tan―1(YRn/XRn)・・・(3)
 なお、θRnは水平面(XY平面)内におけるY軸からの角度になる。Lchと同様に、θRnが大きいと、ステレオ感を強く感じることができる。ただし、θRnがあまり大きくなり過ぎると、いわゆる中抜け状態となり、不自然な印象を招く。従って、20°≦θRn≦45°であることが望ましい。もちろん、開き角の範囲は、上記の値に限られるものではない。なお、LchとRchとで開き角の範囲は左右対称であってもよく、左右非対称であってもよい。
 Rchの場合、ステップS21では、距離DRnを記憶し、ステップS23では距離DRnを比較することで最適フィルタを選択する。ユーザ1からRchの音像までの距離DRnは、以下の(4)式で表すことができる。
DRn=(XRn+YRn+ZRn1/2   ・・・(4)
 上記したように、判定部19は、プリセットフィルタ毎に算出された三次元座標を比較することで、最適フィルタを判定している。これにより、ユーザ1にとって最も頭外定位性能を高いプリセットフィルタを最適フィルタとして選択することができる。もちろん、LchとRchの処理順番を逆にしてもよい。さらには、LchのプリセットフィルタとRchのプリセットフィルタを交互に用いてもよい。
 本実施の形態では、ヘッドホン6に設置されたマーカー15により音像の定位位置を検出している。そして、音像の定位位置の三次元座標に基づいて、最適フィルタを選択している。これにより、予め用意された複数のプリセットフィルタの中から、ユーザに最適なフィルタを簡便に選択することができる。判定部19がプリセットフィルタ毎に算出された定位位置の三次元座標を比較して、最適フィルタを選択している。したがって、ユーザがプリセットフィルタ毎の音像の定位位置を比較することなく、最適フィルタを選択することができるようになる。よって、簡便に最適フィルタを選択することができる。
実施の形態2.
 本実施の形態では、判定部19での処理が実施の形態1と異なっている。具体的には、本実施の形態では、プリセットフィルタ毎に算出された三次元座標を、予め設定された仮想スピーカの三次元座標と比較することで、最適フィルタを判定している。なお、判定部19における処理以外の処理については、実施の形態1と同様であるため、適宜説明を省略する。例えば、実施の形態2における装置構成については、図1、図2で示した構成と同様の構成となっている。
 図5は、本実施の形態にかかる頭外定位処理装置100で実施されるフィルタ選択方法を示すフローチャートである。なお、頭外定位処理装置100での基本的処理は実施の形態1と同様であるため、適宜説明を省略する。例えば、ステップS31~ステップS38、S40は、実施の形態1のステップS11~S18、S22にそれぞれ対応しているため、説明を省略する。
 本実施の形態では、判定部19が音像から仮想スピーカまでの距離DLspnを算出している(ステップS39)。仮想スピーカの三次元座標は、予め設定されている。Lchの仮想スピーカの相対位置の三次元座標を(XLsp,YLsp,ZLsp)とする。音像の相対位置の三次元座標は、実施の形態1で示したように、(XLn、YLn、ZLn)である。n番目にプリセットフィルタによる音像と仮想スピーカとの距離DLspnは以下の式(5)で表すことができる。
DLspn
={(XLn-XLsp)+(YLn-YLsp)+(ZLn-ZLsp)1/2
 ・・・(5)
 判定部19が算出した距離DLspnは、三次元座標記憶部20に記憶される。そして、n=n+1とインクリメントして(ステップS40)、次のプリセットフィルタについても同様の処理を実施する(ステップS31~S39)。nがプリセット数を越えるまで(ステップS32のYES)、ステップS31~S39を繰り返す。判定部19は、プリセットフィルタ毎に距離DLspnを算出する。n=8の場合、三次元座標記憶部20は、8個の距離DLsp1~DLsp8を記憶する。
 そして、判定部19は、距離DLsp1~距離DLsp8の中で値が最小となるプリセットフィルタを最適フィルタとして選択する。このように、本実施の形態では、判定部19が仮想スピーカと最も近い位置に音像が定位するプリセットフィルタを最適フィルタとして選択している。
 Lchの処理が終了したら、Rchについても同じ処理を行う。Rchの仮想スピーカの相対位置の三次元座標を(XRsp,YRsp,ZRsp)とする。Rchの音像の相対位置の三次元座標は、実施の形態1で示したように、(XRn,YRn,RLn)である。n番目にプリセットフィルタによる音像と仮想スピーカとの距離DRspnは以下の式(6)で表すことができる。
DRspn
={(XRn-XRsp)+(YRn-YRsp)+(ZRn-ZRsp)1/2
 ・・・(6)
 判定部19は、プリセットフィルタ毎に距離DRspnを算出する。したがって、三次元座標記憶部20は、n個の距離DRspnを記憶する。そして、判定部19は、n個の距離DRspnの中で値が最小となるプリセットフィルタを最適フィルタとして選択する。本実施の形態では、判定部19が仮想スピーカと最も近い位置に音像が定位するプリセットフィルタを最適フィルタとして選択している。このようにすることで、高い頭外定位性能で、音楽再生信号を再生することができる。仮想スピーカに近い位置に音像を定位することが可能になる。
実施の形態3
 実施の形態2では、予め設定された仮想スピーカの位置に近い音像を選択する方法を示したが、実施の形態3では、ユーザ1が任意に仮想スピーカの位置を設定している。そして、ユーザ1が設定した仮想スピーカの位置に最も近い音像となるプリセットフィルタを最適フィルタとして選択する。
 例えば、ユーザ1の好みによって、仮想スピーカの位置を変えることができる。例えば、仮想スピーカの左右の開き角をより大きくしたり、あるいはユーザ自身の頭からあまり遠くに音像が定位しないように設定したりすることも可能となる。したがって、ユーザ1が望む方向に音像を定位させることができる。
 プリセットフィルタの選択動作を行う前に、マーカー15を装着した指を左右それぞれの定位させたい位置に置いた状態で位置決定ボタンを押す。こうすることで、ユーザ1が仮想スピーカの位置を設定することができる。すなわち、センサユニット16からのマーカー15の位置情報に基づいて、三次元座標算出部17が仮想スピーカの三次元座標(XLsp,YLsp,ZLsp)を算出する。そして、判定部19が仮想スピーカの三次元座標を記憶する。
 その後、実施の形態2と同様に各プリセットのフィルタで処理されたテスト音源を聴きながら、その音像定位の位置をマーカーで示して記憶させ、仮想スピーカとの相対距離のもっとも近いものを、頭外定位性能のもっとも高いフィルタとして選択する。このようにすることで、ユーザ1の好みに応じた仮想スピーカの位置に音像を近づけることができる。
 上記信号処理のうちの一部又は全部は、コンピュータプログラムによって実行されてもよい。上述したプログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD-ROM(Read Only Memory)、CD-R、CD-R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(Random Access Memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
 以上、本発明者によってなされた発明を実施の形態に基づき具体的に説明したが、本発明は上記実施の形態に限られたものではなく、その要旨を逸脱しない範囲で種々変更可能であることは言うまでもない。
 この出願は、2015年8月20日に出願された日本出願特願2015-162406を基礎とする優先権を主張し、その開示の全てをここに取り込む。
 本発明は、例えば、ヘッドホンを用いた頭外定位処理装置に好適である。
 1 ユーザ
 2 マイクユニット
 2L 左マイク
 2R 右マイク
 3L 左耳
 3R 右耳
 5 スピーカユニット
 5L 左スピーカ
 5R 右スピーカ
 6 ヘッドホン
 6L、6R ハウジング
 6C ヘッドバンド
 7 指
 10 処理装置
 11 音源再生部
 12 頭外定位処理部
 13 ヘッドホン再生部
 14 フィルタ選択部
 15 マーカー
 16 センサユニット
 16L1、16L2、16C、16R2、16R1 センサ
 17 三次元座標算出部
 18 入力部
 19 判定部
 20 三次元座標記憶部
 100 頭外定位処理装置

Claims (14)

  1.  テスト音源を再生する音源再生部と、
     複数のプリセットフィルタから頭外定位処理に用いるプリセットフィルタを選択するフィルタ選択部と、
     前記フィルタ選択部によって選択されたプリセットフィルタを用いて、前記テスト音源の信号に対して頭外定位処理を行う頭外定位処理部と、
     前記頭外定位処理部にて頭外定位処理がなされた信号をユーザに出力するヘッドホンと、
     前記頭外定位処理による音像の定位位置を決定するためのユーザ入力を受け付ける入力部と、
     検出対象の位置情報を示す検出信号を生成するセンサユニットと、
     前記センサユニットからの検出信号に基づいて、前記定位位置の三次元座標を算出する三次元座標算出部と、
     前記プリセットフィルタ毎の前記定位位置の前記三次元座標に基づいて、前記複数のプリセットフィルタの中から前記ユーザに最適なフィルタを判定する判定部と、を備えた頭外定位処理装置。
  2.  前記センサユニットは、前記ユーザが指に装着したマーカーを検出し、
     前記三次元座標算出部は、前記マーカーの位置情報に基づいて、前記定位位置の前記三次元座標を算出する請求項1に記載の頭外定位処理装置。
  3.  前記センサユニットがヘッドホンに設置されている請求項1、又は2に記載の頭外定位処理装置。
  4.  前記ヘッドホンは、
     左右のハウジングと、
     前記左右のハウジングを連結するヘッドバンドと、を備え、
     前記センサユニットは、前記左右のハウジング、または前記ヘッドバンドに設置された複数のセンサを備えている請求項3に記載の頭外定位処理装置。
  5.  前記ユーザの指に装着された前記センサユニットが、前記ヘッドホンに設置されたマーカーを検出し、
     前記三次元座標算出部は、前記マーカーの位置情報に基づいて、前記定位位置の前記三次元座標を算出する請求項1に記載の頭外定位処理装置。
  6.  前記判定部は、前記プリセットフィルタ毎の前記定位位置の三次元座標を用いて、前記ユーザと前記定位位置との距離を算出し、
     前記プリセットフィルタ毎の前記ユーザと前記定位位置との距離に基づいて、前記最適なフィルタを判定する請求項1~5のいずれか1項に記載の頭外定位処理装置。
  7.  前記判定部は、前記プリセットフィルタ毎の前記定位位置の三次元座標と、予め設定された仮想スピーカの三次元座標とを用いて、前記仮想スピーカと前記定位位置との距離を算出し、
     前記プリセットフィルタ毎の前記仮想スピーカと前記定位位置との距離に基づいて、前記最適なフィルタを判定する請求項1~5のいずれか1項に記載の頭外定位処理装置。
  8.  複数のプリセットフィルタの中から頭外定位処理に用いるプリセットフィルタを選択し、
     選択された前記プリセットフィルタを用いて頭外定位処理されたテスト音源の信号をヘッドホンから出力し、
     前記テスト音源の音像の定位位置を決定するためのユーザ入力を受け付け、
     前記ユーザ入力によって決定された前記定位位置の位置情報を、センサユニットによって取得し、
     前記位置情報に基づいて、前記定位位置の三次元座標を算出し、
     前記プリセットフィルタ毎の前記定位位置の前記三次元座標に基づいて、前記複数のプリセットフィルタの中から最適なフィルタを選択するフィルタ選択方法。
  9.  前記センサユニットは、ユーザが指に装着したマーカーを検出し、
     前記マーカーの位置情報に基づいて、前記定位位置の前記三次元座標を算出する請求項8に記載のフィルタ選択方法。
  10.  前記センサユニットがヘッドホンに設置されている請求項8、又は9に記載のフィルタ選択方法。
  11.  前記ヘッドホンは、
     左右のハウジングと、
     前記左右のハウジングを連結するヘッドバンドと、を備え、
     前記センサユニットは、前記左右のハウジング、または前記ヘッドバンドに設置された複数のセンサを備えている請求項10に記載のフィルタ選択方法。
  12.  前記ユーザの指に装着された前記センサユニットが、前記ヘッドホンに設置されたマーカーを検出し、
     前記マーカーの位置情報に基づいて、前記定位位置の前記三次元座標を算出する請求項8に記載のフィルタ選択方法。
  13.  前記プリセットフィルタ毎の前記定位位置の三次元座標を用いて、ユーザと前記定位位置との距離を算出し、
     前記プリセットフィルタ毎のユーザと前記定位位置との距離に基づいて、前記最適なフィルタを判定する請求項8~12のいずれか1項に記載のフィルタ選択方法。
  14.  前記プリセットフィルタ毎の前記定位位置の三次元座標と、予め設定された仮想スピーカの三次元座標とを用いて、前記仮想スピーカと前記定位位置との距離を算出し、
     前記プリセットフィルタ毎の前記仮想スピーカと前記定位位置との距離に基づいて、前記最適なフィルタを判定する請求項8~12のいずれか1項に記載のフィルタ選択方法。
PCT/JP2016/003675 2015-08-20 2016-08-09 頭外定位処理装置、及びフィルタ選択方法 WO2017029793A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/895,293 US10412530B2 (en) 2015-08-20 2018-02-13 Out-of-head localization processing apparatus and filter selection method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015162406A JP6578813B2 (ja) 2015-08-20 2015-08-20 頭外定位処理装置、及びフィルタ選択方法
JP2015-162406 2015-08-20

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/895,293 Continuation US10412530B2 (en) 2015-08-20 2018-02-13 Out-of-head localization processing apparatus and filter selection method

Publications (1)

Publication Number Publication Date
WO2017029793A1 true WO2017029793A1 (ja) 2017-02-23

Family

ID=58051583

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/003675 WO2017029793A1 (ja) 2015-08-20 2016-08-09 頭外定位処理装置、及びフィルタ選択方法

Country Status (3)

Country Link
US (1) US10412530B2 (ja)
JP (1) JP6578813B2 (ja)
WO (1) WO2017029793A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020031486A1 (ja) * 2018-08-08 2020-02-13 ソニー株式会社 情報処理装置、情報処理方法、プログラム及び情報処理システム

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6791001B2 (ja) 2017-05-10 2020-11-25 株式会社Jvcケンウッド 頭外定位フィルタ決定システム、頭外定位フィルタ決定装置、頭外定位決定方法、及びプログラム
US11190895B2 (en) 2018-01-19 2021-11-30 Sharp Kabushiki Kaisha Signal processing apparatus, signal processing system, signal processing method, and recording medium for characteristics in sound localization processing preferred by listener
CN110881157B (zh) * 2018-09-06 2021-08-10 宏碁股份有限公司 正交基底修正的音效控制方法及音效输出装置
JP7350698B2 (ja) * 2020-09-09 2023-09-26 株式会社東芝 音響装置及び音響装置のボリューム制御方法
CN115967887B (zh) * 2022-11-29 2023-10-20 荣耀终端有限公司 一种处理声像方位的方法和终端

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002269567A (ja) * 2001-03-13 2002-09-20 Canon Inc 動き検出方法
JP2006180467A (ja) * 2004-11-24 2006-07-06 Matsushita Electric Ind Co Ltd 音像定位装置
JP2007236602A (ja) * 2006-03-08 2007-09-20 Akita Univ 磁気式位置姿勢センサを用いた手指用モーションキャプチャ装置
JP2011242591A (ja) * 2010-05-18 2011-12-01 Fujifilm Corp ヘッドマウントディスプレイ装置
JP2014116722A (ja) * 2012-12-07 2014-06-26 Sony Corp 機能制御装置およびプログラム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1127800A (ja) * 1997-07-03 1999-01-29 Fujitsu Ltd 立体音響処理システム
JP3435141B2 (ja) 2001-01-09 2003-08-11 松下電器産業株式会社 音像定位装置、並びに音像定位装置を用いた会議装置、携帯電話機、音声再生装置、音声記録装置、情報端末装置、ゲーム機、通信および放送システム
JP5015611B2 (ja) * 2005-01-24 2012-08-29 パナソニック株式会社 音像定位制御装置
WO2007004433A1 (ja) * 2005-06-30 2007-01-11 Matsushita Electric Industrial Co., Ltd. 音像定位制御装置
JP4681629B2 (ja) * 2008-05-21 2011-05-11 日本電信電話株式会社 表示デバイスのキャリブレーション方法及び装置
US8767968B2 (en) * 2010-10-13 2014-07-01 Microsoft Corporation System and method for high-precision 3-dimensional audio for augmented reality
WO2012088336A2 (en) * 2010-12-22 2012-06-28 Genaudio, Inc. Audio spatialization and environment simulation
US8718930B2 (en) * 2012-08-24 2014-05-06 Sony Corporation Acoustic navigation method
US9307331B2 (en) * 2013-12-19 2016-04-05 Gn Resound A/S Hearing device with selectable perceived spatial positioning of sound sources

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002269567A (ja) * 2001-03-13 2002-09-20 Canon Inc 動き検出方法
JP2006180467A (ja) * 2004-11-24 2006-07-06 Matsushita Electric Ind Co Ltd 音像定位装置
JP2007236602A (ja) * 2006-03-08 2007-09-20 Akita Univ 磁気式位置姿勢センサを用いた手指用モーションキャプチャ装置
JP2011242591A (ja) * 2010-05-18 2011-12-01 Fujifilm Corp ヘッドマウントディスプレイ装置
JP2014116722A (ja) * 2012-12-07 2014-06-26 Sony Corp 機能制御装置およびプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020031486A1 (ja) * 2018-08-08 2020-02-13 ソニー株式会社 情報処理装置、情報処理方法、プログラム及び情報処理システム
US11785411B2 (en) 2018-08-08 2023-10-10 Sony Corporation Information processing apparatus, information processing method, and information processing system

Also Published As

Publication number Publication date
JP2017041766A (ja) 2017-02-23
US20180176709A1 (en) 2018-06-21
US10412530B2 (en) 2019-09-10
JP6578813B2 (ja) 2019-09-25

Similar Documents

Publication Publication Date Title
JP6578813B2 (ja) 頭外定位処理装置、及びフィルタ選択方法
US7602921B2 (en) Sound image localizer
JP4924119B2 (ja) アレイスピーカ装置
CN102860041A (zh) 对收听者进行位置跟踪的扬声器
JP6791001B2 (ja) 頭外定位フィルタ決定システム、頭外定位フィルタ決定装置、頭外定位決定方法、及びプログラム
JP2017532816A (ja) 音声再生システム及び方法
JP5986426B2 (ja) 音響処理装置、音響処理方法
JP6515720B2 (ja) 頭外定位処理装置、頭外定位処理方法、及びプログラム
JP6613078B2 (ja) 信号処理装置及びその制御方法
JP6701824B2 (ja) 測定装置、フィルタ生成装置、測定方法、及びフィルタ生成方法
US20150086023A1 (en) Audio control apparatus and method
JP6296072B2 (ja) 音響再生装置及びプログラム
JP6981325B2 (ja) 処理装置、処理方法、及びプログラム
CN108605197B (zh) 滤波器生成装置、滤波器生成方法以及声像定位处理方法
JP6500664B2 (ja) 音場再生装置、音場再生方法、及びプログラム
JP2017175405A (ja) 再生装置、及び再生方法
JP6805879B2 (ja) フィルタ生成装置、フィルタ生成方法、及びプログラム
JP7395906B2 (ja) ヘッドホン、頭外定位フィルタ決定装置、及び頭外定位フィルタ決定方法
WO2021059983A1 (ja) ヘッドホン、頭外定位フィルタ決定装置、頭外定位フィルタ決定システム、頭外定位フィルタ決定方法、及びプログラム
JP7404736B2 (ja) 頭外定位フィルタ決定システム、頭外定位フィルタ決定方法、及びプログラム
JP6988321B2 (ja) 信号処理装置、信号処理方法、及びプログラム
JP2010136027A (ja) 音響測定システムおよび音響収録装置
JP2020086143A (ja) 情報処理システム、情報処理方法、測定システム、及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16836790

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16836790

Country of ref document: EP

Kind code of ref document: A1