WO2005025270A1 - 音像制御装置の設計ツールおよび音像制御装置 - Google Patents

音像制御装置の設計ツールおよび音像制御装置 Download PDF

Info

Publication number
WO2005025270A1
WO2005025270A1 PCT/JP2004/013091 JP2004013091W WO2005025270A1 WO 2005025270 A1 WO2005025270 A1 WO 2005025270A1 JP 2004013091 W JP2004013091 W JP 2004013091W WO 2005025270 A1 WO2005025270 A1 WO 2005025270A1
Authority
WO
WIPO (PCT)
Prior art keywords
head
sound
image control
control device
transfer function
Prior art date
Application number
PCT/JP2004/013091
Other languages
English (en)
French (fr)
Inventor
Kenichi Terai
Kazutaka Abe
Isao Kakuhari
Yasuhito Watanabe
Gempo Ito
Original Assignee
Matsushita Electric Industrial Co., Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co., Ltd. filed Critical Matsushita Electric Industrial Co., Ltd.
Priority to US10/554,595 priority Critical patent/US7664272B2/en
Priority to CN2004800109456A priority patent/CN1778143B/zh
Priority to EP04772905A priority patent/EP1667487A4/en
Priority to JP2005513719A priority patent/JPWO2005025270A1/ja
Publication of WO2005025270A1 publication Critical patent/WO2005025270A1/ja

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S1/00Two-channel systems
    • H04S1/002Non-adaptive circuits, e.g. manually adjustable or static, for enhancing the sound image or the spatial distribution
    • H04S1/005For headphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S5/00Pseudo-stereo systems, e.g. in which additional channel signals are derived from monophonic signals by means of phase shifting, time delay or reverberation 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S5/00Pseudo-stereo systems, e.g. in which additional channel signals are derived from monophonic signals by means of phase shifting, time delay or reverberation 
    • H04S5/02Pseudo-stereo systems, e.g. in which additional channel signals are derived from monophonic signals by means of phase shifting, time delay or reverberation  of the pseudo four-channel type, e.g. in which rear channel signals are derived from two-channel stereo signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/01Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]

Definitions

  • the present invention relates to a sound image control device that uses a sound converter such as a speaker or a headphone to localize a sound image at a position other than where the sound converter exists, and a design tool for the sound image control device.
  • a sound converter such as a speaker or a headphone
  • This head-related transfer function is a function that represents how the sound is transmitted to the ear when the speaker (sound source) is emitting sound.
  • HRTF head-related transfer function
  • FIG. 1 (a) is a diagram showing an example of a conventional method for obtaining a head-related transfer function by actual measurement.
  • head-related transfer functions are measured in standard rooms called subjects or dummy heads in an anechoic chamber free of reflections from walls and floors. This is performed using a measuring mannequin having In Fig. 1 (a), a speaker for measurement is installed at a position about 1 m away from the dummy head, and the transfer function from the speaker to the left and right ears of the dummy head is measured.
  • Microphones are installed in the ears (or ear canal) of the dummy head, and these microphones receive specific impulses generated from the speakers.
  • A is the response of the ear far from the speaker (distal ear response)
  • S is the response of the ear near the speaker (proximal ear response).
  • FIG. 1 (b) is a block diagram showing a configuration of a conventional sound image control device.
  • this sound image control device modifies the measured head related transfer function as shown in Fig. 1 (a) using time-domain and frequency-domain signal processing.
  • the resonance frequency of the frequency response characteristics of the proximal ear response and the distal ear response is lowered according to the ratio, and the head has a head larger than the standard size.
  • the delay time is delayed according to the ratio to respond to individual differences among listeners.
  • Japanese Patent Application Laid-Open No. 2001-16697 page 9
  • FIG. 2 is a diagram showing a conventional example of calculating head-related transfer functions for a plurality of sound sources using a three-dimensional head model expressed on a computer.
  • the three-dimensional shape of the head such as a dummy head, is taken into the computer and used as a head model.
  • Each intersection of the mesh drawn on the surface of the head model is called a “node”.
  • Each of these nodes is specified by three-dimensional coordinates.
  • the head-related transfer function is obtained when the sound source is placed at 0 °, 30 °, 60 °, and 90 ° with respect to the right ear of the head model.
  • the potential at each node when the sound source is placed at 0 ° the potential at each node when the sound source is placed at 30 °
  • the potential at each node when the sound source is placed at 60 ° By calculating the potential of the node and the potential of each node when the sound source was placed at 90 °, the sound source was placed in the directions of 0 °, 30 °, 60 °, and 90 °.
  • the head related transfer function can be calculated.
  • the transfer function correction based on the size of the head size adjusts the interaural delay time when the head is treated as a simple sphere.
  • the change in frequency characteristics due to interference between different sounds cannot be reproduced, and the individual differences in the effects of sound image control cannot be reduced.
  • the present invention has been made to solve the above-described problems, and has as its object to accurately obtain a huge variety of transfer functions for changes in azimuth, elevation, and distance under the same conditions.
  • the first transfer function indicating the transfer characteristic of the sound from the sound source to the head receiving point is filtered, and the first transfer function is filtered from the target sound source at a position different from the sound source to the head receiving point.
  • the head related transfer function is calculated by a computer, it is possible to achieve sound generation from an ideal point sound source and complete omnidirectional sound reception, which are impossible with actual measurement. Can also be calculated accurately. This makes it possible to achieve more accurate sound image localization.
  • the rendition of the ear canal or the eardrum is used as the sounding point, a highly accurate transfer function can be obtained even when the acoustic transducer is near the head. Even when used, accurate sound image localization can be obtained.
  • the characteristic function is calculated based on a plurality of types of head models in which the size of each part of the head is different
  • the characteristic function storage means includes: Storing a characteristic function
  • the sound image control device further includes element input means for receiving an input of an element for determining one of the types from a listener
  • the second transfer function generating means includes: The second transfer function is generated by using the characteristic function corresponding to the type determined as above. Therefore, the listener can adapt to the interference of sound due to the size of the head size and individual differences in the shape of the ear canal by inputting the element indicating the type that best matches the shape of the head Thus, individual differences in the effect of sound image control can be reduced.
  • the present invention can be realized not only as a design tool and a sound image control device for such a sound image control device, but also for a characteristic feature of the design tool and the sound image control device for such a sound image control device. It can be realized as a design method and a sound image control method of a sound image control device having steps as means, or as a program for causing a computer to execute those steps. It goes without saying that such a program can be distributed via a recording medium such as CD-ROM or a transmission medium such as the Internet.
  • FIG. 1 (a) is a diagram showing an example of a conventional method for obtaining a head-related transfer function by actual measurement.
  • FIG. 1 (b) is a block diagram showing a configuration of a conventional sound image control device.
  • FIG. 2 is a diagram showing a conventional example of calculating head-related transfer functions for a plurality of sound sources using a three-dimensional head model expressed on a computer.
  • FIG. 3 (a) is a diagram showing an example of an actual dummy head for calculating a head-related transfer function.
  • Fig. 3 (b) is a front view of the head model.
  • FIG. 4 (a) is an enlarged front view of the right pinna of the head model according to the first embodiment.
  • FIG. 4B is an enlarged top view of the right pinna of the head model according to the first embodiment.
  • FIG. 5 is a diagram illustrating an example of a method of calculating a head-related transfer function according to the first embodiment.
  • Fig. 6 (a) is a diagram showing a calculation model of the transfer function from the position of the acoustic transducer to the ear canal insertion liro.
  • Fig. 6 (b) is a diagram showing a calculation model of the transfer function from the position of the target sound image to the rehabilitation of the ear canal.
  • FIG. 7 is a basic block diagram of a sound image control device using a correction filter.
  • FIG. 8 is a diagram illustrating an example in which a listener uses a portable device equipped with an acoustic converter for sound image control using the calculation method according to the first embodiment.
  • FIG. 9 (a) is a graph showing frequency characteristics of the transfer function H1 and the transfer function H4.
  • FIG. 9 (b) is a graph showing the frequency characteristics of the transfer function H2 and the transfer function H3.
  • FIG. 9 (c) is a graph showing the frequency characteristic of the transfer function H5.
  • Fig. 9 (d) shows the frequency characteristics of the transfer function H6. It is a graph.
  • FIG. 10 (a) is a graph showing the frequency characteristic of the characteristic function E1.
  • FIG. 11 is a diagram showing a calculation model of a transfer function from the acoustic transducer to the ear canal entrance of the sound image control device according to the second embodiment.
  • FIG. 12 is a diagram showing basic blocks of a sound image control device using a transfer function obtained from the relationship shown in FIG.
  • FIG. 13 (a) is a front view of the right pinna of the head model 3, and FIG.
  • (b) is a top view of the right pinna of the head model 3.
  • FIG. 14 is a diagram illustrating an example of a calculation model of a transfer function from the acoustic transducer of the sound image control device to the eardrum using the head model 3 of FIG.
  • FIG. 15 is a diagram showing an example of a calculation model of a transfer function from the eardrum to the sound receiving point 10 defined on the target sound source 11.
  • Figure 16 shows the transfer function H obtained from the relationships shown in Figures 14 and 15.
  • FIG. 11 is a diagram showing basic blocks of a sound image control device using H1 to H16.
  • FIG. 17 is a diagram illustrating an example of a calculation model of a transfer function from the acoustic transducer to the eardrum of the sound image control device according to the fourth embodiment.
  • Fig. 18 shows the basic blocks of a sound image controller using the transfer functions H17, H18, H15, and H16 obtained from the relationship shown in Fig. 17.
  • FIG. 18 shows the basic blocks of a sound image controller using the transfer functions H17, H18, H15, and H16 obtained from the relationship shown in Fig. 17.
  • FIG. 19 (a) is a front view of head model 30 for obtaining the transfer function of the sound image control device according to the fifth embodiment.
  • FIG. 19 (b) is a side view of the head model 30.
  • FIG. 20 is a perspective view showing the size of another part of the head model.
  • Figure 21 is a graph showing the variation in ear length and tragus spacing between men and women.
  • FIG. 22 is a table showing a specific classification of a population to which the sound image control device according to the sixth embodiment is provided.
  • FIG. 23 shows a block diagram configured to switch the correction filter characteristics based on the average value of the population and the specific classification.
  • FIG. 24 (a) is a table showing examples of head models M51 to M59 classified into a group having a head width w1.
  • FIG. 24 (b) is a table showing examples of head models M61 to M69 classified into a group having a head width of w2.
  • FIG. 24 (c) is a table showing examples of head models M71 to M79 classified into a group whose head width is w3.
  • Fig. 25 shows a block with a configuration that switches the correction filter characteristics corresponding to the head model according to the specific classification classified into 27 types as shown in Figs. 24 (a) to (c).
  • FIG. 25 shows a block with a configuration that switches the correction filter characteristics corresponding to the head model according to the specific classification classified into 27 types as shown in Figs. 24 (a) to (c).
  • FIG. 26 (a) is a front view showing the pinna part in detail.
  • FIG. 26 (b) [FIG. 26 is a top view showing the pinna in detail.
  • FIG. 27 is a table illustrating still another example of the specific classification of the population to which the sound image control device according to the seventh embodiment is provided.
  • FIG. 28 shows a block diagram in which the correction filter characteristic corresponding to the head model is switched according to the specific classification classified into nine types as shown in FIG.
  • FIG. 29 is a diagram illustrating a processing procedure in the sound image control device when a set of potential data for a plurality of types of head models is stored in the sound image control device.
  • FIG. 30 shows a characteristic function setting process in a case where the sound image control device of the present invention or an audio device including the same is provided with a setting input unit that receives setting inputs of a plurality of elements for determining the type of a head model.
  • FIG. 9 is a diagram showing an example of a procedure.
  • FIG. 31 is a diagram illustrating an example of a procedure when a listener performs a setting input while listening to sound from a speaker in the sound image control device including the setting input unit illustrated in FIG. 30.
  • FIG. 32 is a diagram showing an example of assisting input of the setting input unit shown in FIG. 31 from an image of a person's face taken by a mobile phone.
  • Figure 33 shows an example in which input assistance is performed based on a photograph of the pinna to compensate for the difficulty in capturing the shape of the ear in a normal portrait photograph taken from the front. It is.
  • FIG. 34 is a diagram illustrating an example in which a stereo camera or two shots of the same ear are taken three-dimensionally.
  • FIG. 35 is a diagram illustrating an example of a processing procedure in a case where the sound image control device or the acoustic device including the sound image control device holds the characteristic function of the correction filter for each element input and set.
  • Fig. 36 shows a mobile phone equipped with a sound image control device, which transmits data input from a setting input unit, etc., to a server on the Internet and receives optimal parameters based on the transmitted data.
  • FIG. 36 shows a mobile phone equipped with a sound image control device, which transmits data input from a setting input unit, etc., to a server on the Internet and receives optimal parameters based on the transmitted data.
  • Figure 37 shows an example of a case where a mobile phone equipped with a sound image control device sends image data captured by a built-in camera, etc., to a server on the Internet and receives supply of optimal parameters based on the transmitted image data.
  • FIG. 37 shows an example of a case where a mobile phone equipped with a sound image control device sends image data captured by a built-in camera, etc., to a server on the Internet and receives supply of optimal parameters based on the transmitted image data.
  • FIG. 38 is a diagram illustrating an example of a case where a mobile phone or the like including a sound image control device includes a display unit that displays individual elements of a listener for parameter setting.
  • Fig. 39 (a) is a graph showing the waveform and phase characteristics of the transfer function by the simulation used in the above-mentioned embodiments "! ⁇ 8.
  • (b) is a graph showing the waveform and phase characteristics of the transfer function obtained by actual measurement as in the past.
  • the sound image control device is based on a boundary element method in a calculation model in which a transfer function is inverted by using a three-dimensional head model of a human body shape expressed on a computer and the positions of a sound source and a sound receiving point are reversed.
  • a transfer function is inverted by using a three-dimensional head model of a human body shape expressed on a computer and the positions of a sound source and a sound receiving point are reversed.
  • Non-patent Document 1 J It is introduced in detail.
  • Non-Patent Document 2 Using this boundary element method, for example, “The Acoustical Society of Japan, Autumn Meeting 2001, Lecture Papers (pp. 403-404)” (hereinafter referred to as “Non-Patent Document 2”) The calculation as shown in can be performed.
  • Non-Patent Document 2 a real model corresponding to a three-dimensional model represented on a computer is manufactured with high accuracy, and a transfer function from a sound source to the entrance of the ear canal is calculated using the real model. Good agreement is shown when compared with the results calculated by the boundary element method.
  • the frequency range is 7.3 kHz or less.However, by increasing the accuracy of the model on the computer and making the intervals between nodes smaller, actual measurements and numerical calculations can be performed over the entire human audible band. It is clear that the results of the above agree.
  • FIG. 3 shows a head model for obtaining a transfer function in the sound image control device according to the first embodiment.
  • Figure 3 (a) shows the calculation of the HRTF
  • FIG. 6 is a diagram showing an example of an actual dummy head for the purpose.
  • the actual dummy head shown in Fig. 3 (a) is accurately measured in three dimensions using a laser scanner or the like.
  • the head model is constructed based on data from magnetic resonance images and X-ray computed tomography machines in the medical field.
  • FIG. 3 (b) shows a front view of the head model obtained in this manner, and details of the right pinna of the head indicated by a broken line in this figure are shown below.
  • the potential is calculated for each node of the mesh on the head model shown in FIG.
  • FIG. 4A is an enlarged front view of the right pinna of the head model according to the first embodiment
  • FIG. 4B is a front view illustrating the right pinna of the head model according to the first embodiment. It is the top view which expanded the part.
  • the bottom surfaces of the left and right ear canal insertion lillos 1 and 2 and the entire bottom of the head model are closed by lids.
  • FIG. 5 is a diagram illustrating an example of a method of calculating a head-related transfer function according to the first embodiment.
  • the same head-related transfer function can be obtained even if the pronunciation point and the sound receiving point are switched.
  • one sound source is installed at each of the left and right ear canal entrances of the head model. In this way, since the sound sources are fixed to the left and right ear canal insertion lillos, the potential on each node needs to be calculated once for each sound source, that is, only twice.
  • the microphone for receiving the impulse from the sound source is moved to the desired azimuth, elevation, and distance centered on the head model, and the sound is received from each ear canal entrance relo.
  • the transfer function to the microphone which is a point, is calculated.
  • the transfer function calculated each time the sound receiving point moves is calculated by combining the sound pressure of the potential already determined for each node. And can be calculated.
  • the sound pressure on the sphere can be calculated at one time by using the boundary element method.
  • Fig. 6 (a) shows the calculation model of the transfer function from the position of the acoustic transducer to the entrance of the ear canal
  • Fig. 6 (b) shows the calculation model of the transfer function from the position of the target sound image to the entrance of the ear canal.
  • the head model 3 is the same as the head model shown in FIG. 3 (b).
  • the pronunciation point 4 indicates the pronunciation point defined at the left ear canal entrance of the head model 3
  • the pronunciation point 5 indicates the pronunciation point defined at the right ear canal entrance of the head model 3.
  • the sound receiving points 6 and 7 are sound receiving points such as microphones defined in the acoustic transducers 8 and 9 installed near the head model 3.
  • the acoustic transducer 8 and the sound receiving point 6 are located near the left ear canal of the head model 3, and the acoustic transducer 9 and the sound receiving point 7 are located near the right ear canal of the head model 3.
  • the transfer function from pronunciation point 4 to receiving point 6 is H1
  • the transfer function from pronunciation point 4 to receiving point 7 is H3
  • the transfer function from pronunciation point 5 to receiving point 7 is Is H2
  • the transfer function from pronunciation point 5 to sound reception point 7 is H4.
  • sound receiving point 10 is a sound receiving point defined as target sound source 11 which is a virtual sound transducer.
  • the transfer function from the pronunciation point 4 to the sound receiving point 10 is H5, and the transfer function from the pronunciation point 5 to the sound receiving point 10 is H6.
  • the number of nodes of the head model 3 of the first embodiment is 15052, and the calculation time by sound pressure synthesis from each node is about 1/100 of the potential calculation time. It turned out to be enough.
  • the sound pressure at the sounding point 4 is defined as “1” for the amplitude and “0” for the phase
  • the sound pressure at the sound receiving point 6 becomes the transmission function and H 1 is obtained.
  • the transfer function H3 and the transfer function H5 are obtained from the sound pressures at the sound receiving points 7 and 10.
  • the same sound pressure is defined for the sounding point 5, and the transfer function H2, transfer function H4, and transfer function H6 are determined based on the sound pressures of the receiving points 6, 6, and 10. Is required.
  • FIG. 7 is a basic block diagram of a sound image control device using a correction filter.
  • the correction filter 13 and the correction filter 14 are used for the acoustic converter 8 and the acoustic converter 9 to realize the sound image of the target sound source 11 by using filtering.
  • the characteristics of the correction filter 13 are E1, and the correction filter is If the characteristic of 14 is E 2, the following (Equation 1) holds from the condition that the transfer function from the input terminal 12 to the entrance of the ear canal is equal to the transfer function from the target sound source 11.
  • Equation 1 Therefore, the characteristic function E 1 and the characteristic function E 2 are obtained by the following (Equation 2), which is a modification of (Equation 1).
  • each transfer function H 1 H 6 is a complex number at a discrete frequency obtained by numerical calculation, in order to use the characteristic functions E 1 and E 2 in the frequency domain, the signal at the input port 1 The signal is once transformed into the frequency domain by a Fourier transform (FFT), multiplied by the characteristic function E 1 and the characteristic function E 2, and then the signal is subjected to an inverse fast Fourier transform (IFFT). And output to the acoustic converter 9.
  • FFT Fourier transform
  • IFFT inverse fast Fourier transform
  • each transfer function H 1 H 6 is first converted to a response in the time domain by IFFT, and is disclosed in, for example, Japanese Patent No. 2548103 (hereinafter referred to as “Patent Document 2”). It is also possible to realize the characteristic functions E 1 and E 2 as filter characteristics in the time domain by using such a design technique in the time domain.
  • the sound image by the signal of the input terminal 12 is reliably localized at the position of the target sound source 11. Can be.
  • FIG. 8 is a diagram illustrating an example in which a listener uses a portable device equipped with an acoustic converter for sound image control using the calculation method according to the first embodiment.
  • broken lines 16 are straight lines connecting the left and right ear canals, that is, the sounding points 4 and 5.
  • the dashed line 17 is a straight line that passes through the center 15 of the head and indicates a direction angle of 0 °.
  • An alternate long and short dash line 18 is a straight line connecting the centers of the acoustic transducers 8 and 9 and the center 15 of the head.
  • the acoustic transducer 8 is located at a distance of 0.4 m from the center 15 of the head, at an azimuth angle of 10 ° and an elevation angle of 20 °, and the acoustic transducer 9 is at an azimuth angle of 10 ° and an elevation angle of 1 °. It is located at 20 °.
  • the target sound source 11 has an azimuth angle of 90 °, an elevation angle of 15 °, and a head center of 15 °. It is located at a distance of 0.2 from.
  • FIG. 9 is a diagram showing a calculation example under the conditions shown in FIG. In FIG. 8, since the acoustic transducers 8 and 9 are symmetrical with respect to the head model 3, the transfer functions HI and H4, and the transfer functions H2 and H3 are Each has the same frequency characteristics.
  • FIG. 9A is a graph showing frequency characteristics of the transfer function H1 and the transfer function H4.
  • FIG. 9B is a graph showing frequency characteristics of the transfer function H2 and the transfer function H3.
  • FIG. 9C is a graph showing the frequency characteristic of the transfer function H5.
  • FIG. 9D is a graph showing the frequency characteristic of the transfer function H6.
  • FIG. 10 is a graph showing the frequency characteristics of the characteristic functions E 1 and E 2 obtained from the transfer functions H 1 to H 6 obtained as shown in FIG.
  • FIG. 10 (a) is a graph showing the frequency characteristics of the characteristic function E1.
  • FIG. 10 (b) is a graph showing the frequency characteristics of the characteristic function E2.
  • the listener can clearly perceive the sound image of the target sound source 11 even if the positions of the sound transducers 8 and 9 and the target sound source 11 are close to the head. And correct sound image localization can be obtained.
  • the combination of the correction filters 13 and 14 is used as the target sound source. It is possible if you prepare the same number.
  • the target sound source moves, it is possible to switch the characteristics of the correction filters for a plurality of directions and distances according to the movement path.
  • the transfer function and correction filter characteristics are extremely short due to the sound pressure synthesis from that potential. Can be requested.
  • the transfer function close to the head, where the speaker or microphone affects the sound field in the conventional transfer function measurement must also be determined with high accuracy by numerical calculations in which the size of the sounding point and the sound receiving point can be ignored. Thus, accurate sound image control can be performed by the correction filter characteristics calculated from these.
  • FIG. 11 is a diagram showing a calculation model of a transfer function from the acoustic transducer to the ear canal entrance of the sound image control device according to the second embodiment.
  • the same components as those in FIG. 6 are denoted by the same reference numerals, and description thereof will be omitted.
  • a sound transducer 8 and a sound transducer 9 are installed near both ears of the head model 3, respectively, and a calculation model corresponding to so-called headphone listening is shown. That is, the sound pressure generated at the sound receiving point 7 of the acoustic transducer 9 by the sound generating point 4 installed in the left ear canal can be ignored.
  • the transfer function H7 from the acoustic transducer 8 is obtained as the sound pressure at the sound receiving point 6. Further, the transfer function H 8 from the acoustic converter 9 is obtained as the sound pressure at the sound receiving point 7.
  • FIG. 12 is a diagram showing basic blocks of a sound image control device using a transfer function obtained from the relationship shown in FIG.
  • the correction filters 13 and 14 use an acoustic converter 8 and an acoustic converter 9.
  • This is a correction filter that realizes the target sound source 11 by using E3 as the characteristic of the correction filter 13 and E4 as the characteristic of the correction filter 14.
  • the transfer function from the input terminal 12 to the ear canal liro (left ear canal liro 1, right ear canal liro 2) is from the target sound source 11 to the ear canal entrance (left ear canal liro 1, (Equation 3) holds from the condition that the transfer function is equal to the side ear canal entrance 2).
  • the transfer function from the target sound source 11 is realized by the rehabilitation of the ear canal of the listener, so that an accurate sound image is localized at the position of the target sound source 11. be able to.
  • the transfer function to the target sound source is obtained by setting the sounding point at the eardrum, When positioning a more accurate sound image Will be described.
  • FIG. 13 is a diagram showing a more detailed 3D shape of the right pinna of the head model 3.
  • FIG. 13 (a) is a front view of the right pinna of the head model 3
  • FIG. 13 (b) is a top view of the right pinna of the head model 3.
  • the eardrum 23 is formed from the ear canal liro 1 via the ear canal 21.
  • the third embodiment is the same as the first embodiment except that the end of the auditory canal is closed by the eardrum on both the left and right sides of the head model 3.
  • FIG. 14 is a diagram illustrating an example of a calculation model of a transfer function from the acoustic transducer of the sound image control device to the eardrum using the head model 3 of FIG.
  • an eardrum 22 is formed at the end of the left ear canal 20, and a pronunciation point 4 is defined on the eardrum 22.
  • An eardrum 23 is formed at the end of the right ear canal 21, and a sounding point 5 is defined on the eardrum 23.
  • the transfer functions to the sound receiving points 6 and 7 defined in the acoustic transducers 8 and 9 shown in FIG. 6 (a) are calculated.
  • the transfer function from pronunciation point 4 to sound receiving point 6 is HI1
  • the transfer function from sounding point 4 to sound receiving point 7 is H1
  • the transfer function from sounding point 5 to sound receiving point 6 is Let H 13 be the transfer function from the sounding point 5 to the sound receiving point 7.
  • FIG. 15 is a diagram showing an example of a calculation model of a transfer function from the eardrum to the sound receiving point 10 defined on the target sound source 11.
  • the transfer function from the sounding point 4 to the sound receiving point 10 is H15
  • the transfer function from the sounding point 5 to the sound receiving point 10 is H16.
  • FIG. 16 is a diagram showing basic blocks of a sound image control device using transfer functions H 11 to H 16 obtained from the relationships shown in FIGS. 14 and 15. same
  • the characteristics of the correction filter 13 and the correction filter 14 can be obtained as (Equation 5) as a characteristic E 11 and a characteristic E 12, respectively.
  • Embodiment 2 sound points are set at the left and right auditory canal entrances of head model 3, and sound image localization during listening using headphones is described.
  • the sound point is defined on the eardrum of Model 3 and the localization of the sound image during listening using headphones is explained.
  • FIG. 17 is a diagram illustrating an example of a calculation model of a transfer function from the acoustic transducer to the eardrum of the sound image control device according to the fourth embodiment.
  • the same components as those in FIG. FIG. 17 shows a calculation model in which the acoustic transducer 8 and the acoustic transducer 9 are respectively installed near both ears of the head model 3 and correspond to so-called headphone listening.
  • the transfer function from sounding point 4 to sound receiving point 6 on acoustic transducer 8 is obtained as transfer function HI 7 which is the sound pressure at sound receiving point 6.
  • a transfer function from the sounding point 5 to the sound receiving point 7 on the acoustic converter 9 is obtained as a transfer function H 18 which is a sound pressure at the sound receiving point 7.
  • FIG. 18 shows the transfer function H17 and the transfer function obtained from the relationship shown in Fig. 17.
  • FIG. 4 is a diagram showing basic blocks of a sound image control device using a transfer function H 18, a transfer function H 15, and a transfer function H 16.
  • the characteristics of the correction filter 13 and the correction filter 14 are a characteristic function E 13 and a characteristic function E 14, they can be calculated according to the following (Equation 6).
  • the transfer function from the eardrum of the listener to the target sound source 11 can be calculated, so that the sound image can be accurately localized at the position of the target sound source.
  • the sound image control apparatus transforms a head model for calculating a transfer function into an average value of head sizes of listeners of a population to which the sound image control apparatus is provided. Explain where to reduce individual differences in sound image localization effects among the group of listeners.
  • the dummy head of the head model 3 used in the first to fourth embodiments is formed in a predetermined size and shape.
  • the size of the dummy head, the shape of the ear, the length of the ear, and the tragus The shape of every part of the head model, such as the interval and the length of the face, is captured as data for each node. Therefore, the shape of every part of the head model is reflected in the transfer function calculated using such a head model.
  • FIG. 19 (a) shows the transfer function of the sound image control device in the fifth embodiment.
  • FIG. 19B is a front view of the head model 30 to be obtained, and FIG. 19B is a side view of the head model 30.
  • 31 indicates the width of the head
  • 32 indicates the height of the head
  • 33 indicates the depth of the head.
  • the head width of the dummy head shown in FIG. 3 (a) is W d
  • the head height is H d
  • D d the head depth
  • the average value of those belonging to the population is calculated, and the width of the head is Wa and the height of the head is respectively Is H a and the depth of the head is D a.
  • the dimensions of the head model on the computer shown in Fig. 3 (b) are as follows: head width is WaZWd, head height is HaZHd, and head depth is DaZDd.
  • Deform at the ratio of In other words, even if the size of the dummy head measured first is deviated from the average value of the head size of the population to which the present sound image control device is provided, such a deformation (hereinafter referred to as “morphing process”). By performing), a head model of the average head size of the population can be realized on a computer.
  • each transfer function is obtained by numerical calculation, and the characteristics E 1 a and E 2 a of the correction filter are obtained in the same manner as in the first embodiment. Individual differences in the effect of sound image control on the listeners belonging to the population to which the present sound image control device is provided can be minimized.
  • FIG. 20 is a perspective view showing the size of another part of the head model.
  • the size of the dummy head is changed according to the ratio of the size of the dummy head measured first and the average value of the size of the head of the population. You may make it happen.
  • the head width 3 1 may be the tragus spacing
  • the head height 3 2 may be the total head height
  • the head depth 3 3 may be the head length .
  • Figure 21 is a graph showing the variation in ear length and tragus spacing between men and women.
  • the tragus spacing for men is about 130 mm to 170 mm, while that for women is about 129 mm to 158 mm.
  • the ear length of men is about 53 mm to 78 mm, while that of women is about 50 mm to 70 mm.
  • sound image control devices are often designed using values corresponding to the positions of the stars in the figure, but the sound image control effect is about 90% with average design values.
  • FIG. 22 is a table showing a specific classification of a population to which the sound image control device according to the sixth embodiment is provided.
  • head model 35 shows the male average in the population, the head width is W m, the head height is H m, and the head depth is D m.
  • the head model 36 shows the average of females in the population. The width of the head is W w, the height of the head is H w, The depth of the part is Dw.
  • the head model 37 shows the average of the low-age group (for example, children aged 7 to 15 years) in the population, the width of the head is Wc, and the height of the head is high. Is H c and head depth is D c
  • the lid shown in Fig. 3 (a) is replaced by a lid.
  • the width of the head of the head model 3 is W d and the height of the head is
  • head model 3 5 has a width of mouth and head of WmZWd, a height of head of H mZ H d, and a head height of head model 3 with respect to head model 3.
  • the depth of the part is transformed by the ratio of D m ZD d.
  • the head model 36 changes the head width by Ww / Wd, the head height by HwZHd, and the head depth by DwDd.
  • the head model 37 has a head width W c Wd, a head height He e Hd, and a head depth D c
  • the head model 3 5, the head model 3 6, and the head model thus transformed
  • FIG. 23 shows a block diagram configured to switch the correction filter characteristics based on the average value of these populations and the specific classification.
  • the sound image control apparatus newly stores a characteristic storage memory 40 storing the characteristics of the correction filter between the average value of the population and the specific classification, the average value a of the population, and the specific classification ( Switch 41 for selecting one of male, m, specific classification (female) w, and specific classification (child) c, and characteristic storage memory 40 from switch 41 depending on the state of switch 41
  • a filter setting unit 42 is provided for selecting a correction filter characteristic and setting the correction filter 13 and the correction filter 14.
  • the head model for calculating the transfer function is modified to the size of the head of the listener of a specific classification of the population to which the sound image control device is provided, and the listener A case in which individual differences in sound image localization effects are reduced by selecting a specific class to which the image belongs will be described.
  • FIG. 24 shows a specific classification of a population to which the sound image control device according to the seventh embodiment is provided.
  • the head models are classified into three groups according to the width of the head.
  • FIG. 24 (a) is a table showing examples of head models M51 to M59 classified into a group having a head width w1.
  • FIG. 24 (b) is a table showing an example of head models M61 to M69 classified into a group whose head width is w2.
  • FIG. 24 (c) is a table showing an example of head models M71 to M79 classified into a group whose head width is w3.
  • the head model whose head width is w1 has head heights h1, h2, and h3, and head depths d1, d2, and d. It is classified into 9 types according to 3.
  • the head model whose head width is w2 is classified into nine types according to the above three head heights and three head depths.
  • a head model with a head width of w3 has nine Classified into types.
  • head models M51 to M5 are obtained by deforming head model 3 in advance according to the dimensions of FIGS. 24 (a) to (c). Using M79, each transfer function is obtained by numerical calculation, and the correction filter characteristics E1-51, E2-51, ..., E1-79, and E2-79 are obtained.
  • Fig. 25 shows a configuration in which the correction filter characteristics corresponding to the head model are switched according to the specific classification classified into 27 types as shown in Figs. 24 (a) to (c). A block diagram is shown.
  • the sound image control device calculates correction filter characteristics E 1 — 51, E 2 — 51, calculated for the 27 head models of FIGS. 24 (a) to (c).
  • a characteristic storage memory storing the 79, 3 types of heads 81, 3 types of switches for switching the compensation filter according to the width of the head
  • Switch 82 that switches the correction filter according to the height of the head
  • Switch 83 that switches the correction filter according to the depth of the three types of head 83 and Switch 81
  • the switch A filter setting section 84 is provided for selecting a correction filter characteristic from the characteristic storage memory 80 according to the state of the switch 82 and the switch 83 and setting the correction filter 13 and the correction filter 14.
  • the listener selects the filter that is most suitable for him from the combination of switches 81, 82 and 83, which causes the size of the listener's head to increase. It is possible to reduce individual differences in the effect of sound image control.
  • FIG. 26 shows a population provided with the sound image control device according to the eighth embodiment.
  • FIG. 4 is a diagram showing an auricle defining a specific classification of FIG.
  • FIG. 26 (a) is a front view showing the pinna in detail
  • FIG. 26 (b) is a top view showing the pinna in detail.
  • FIG. 26 is the height of the auricle, and 91 is the width of the auricle expressed as the distance from the head surface to the farthest position.
  • FIG. 27 is a table showing still another example of the specific classification of the population provided with the sound image control device of the seventh embodiment.
  • the head models M91 to M99 classify the height of the pinna into three types, eh1, eh2, and eh3, and the width of the pinna is ed1, ed2, It is defined by classifying into three types of ed 3.
  • each transfer function is calculated by numerical calculation using head models M91 to M99 in which head model 3 is deformed in advance according to the dimensions in Fig. 27. Find and calculate the correction filter characteristics E 1 — 91, E 2 — 91, ..., E 1 — 99, E 2 — 99 and store them in memory.
  • FIG. 28 shows a block diagram in which the correction filter characteristic corresponding to the head model is switched according to the specific classification classified into nine types as shown in FIG.
  • the sound image control device calculates the correction filter characteristics E 191, E 2—91,, E 1—99, and E 9 calculated for the nine types of head models in FIG.
  • E 2 99 Characteristic storage memory in which 9 is stored 9 3, Switches 9 4, 3 for switching the correction filter according to the three types of pinna heights eh 1, eh 2, eh 3 Switch 95, which switches the correction filter according to the type of pinna width ed1, ed2, ed3, and correction corresponding to the state of switches 94, 95
  • a filter setting unit 96 is provided for selecting a filter characteristic from the characteristic storage memory 93 and setting the correction filter 13 and the correction filter 14. The listener selects the most suitable correction filter characteristic from the combination of the switch 94 and the switch 95, thereby controlling the sound image control caused by the height and width of the pinna. Individual differences in effects can be reduced.
  • Embodiments 1 to 8 described above a huge amount of calculation is required to calculate the potential of each node on the head model, so that the calculation of the potential data on the node is performed offline in advance. It is supposed to be done. Then, the obtained potential is temporarily stored in an external database or the like, and then the transfer function is calculated using the potential, and the characteristic function of the correction filter is calculated using an external tool. Therefore, in the above-described sound image control device, the characteristic function of the correction filter is simply stored in a memory such as a ROM and used. That is, at the present stage, the sound image control device mounted on a portable device such as a mobile phone or a headphone stereo cannot keep up with the computational capacity of the sound image control device. Therefore, in the near future, it is conceivable that more processing will be performed by the sound image controller built into the portable device.
  • FIG. 29 is a diagram illustrating a processing procedure in the sound image control device when a set of potential data for a plurality of types of head models is stored in the sound image control device.
  • the listener selects the most suitable head model as shown in Embodiments 5 to 8 while looking at the menu screen of the sound image control device.
  • detailed conditions such as the positional relationship between the speaker and both ears and the positional relationship between the target sound source and both ears may be input.
  • the sound image control device reads the potential data corresponding to the selected head model from the ROM storing the potential data, and generates a predetermined transfer function.
  • This transfer function may be generated as the positional relationship between the loudspeaker and the binaural ears and the positional relationship between the target sound source and the binaural ears are determined in advance.
  • Data such as the positional relationship between the target sound source and both ears may be input first, and the transfer function may be calculated based on the input data.
  • the parameters of the correction filter are calculated from the obtained transfer function.
  • the meter (characteristic function) is calculated and set to the correction filter. In this way, by making it possible to calculate the characteristic function of the correction filter in the sound image control device using the potential data held inside, the correction filter can be flexibly adjusted according to various conditions at each time. By correcting the characteristics of the sound image, the sound image can be localized more accurately.
  • FIG. 30 shows a characteristic function setting process in a case where the sound image control device of the present invention or an audio device including the same is provided with a setting input unit that receives a setting input of a plurality of elements for determining the type of a head model.
  • FIG. 9 is a diagram showing an example of a procedure. Also, as another example, the age and gender of the listener, which is a factor for determining the type of the head model, from a setting input unit provided in a sound image control device or an audio device incorporating the same, etc. A case will be described in which an input such as an inter-ear distance and an ear size is received.
  • the sound image control device determines a set of parameters (characteristic functions) (E 1, E 2) for each element such as the listener's age, gender, interaural distance, and ear size.
  • the parameters (E1, E2) are stored in advance in a table, etc.
  • One set of parameters according to the element is determined, and then the determined set of characteristic functions is read out from the ROM and set in the correction filters 13 and 14.
  • the sound image control is performed.
  • FIG. 31 is a diagram illustrating an example of a procedure when a listener performs a setting input while listening to sound from a speaker in the sound image control device including the setting input unit illustrated in FIG. 30.
  • Setting input shall be accepted in the order of more influential elements.
  • the type of head model for example, age, gender, interaural distance, and ear size
  • Setting input is accepted in the order of ear size setting. In this order, the listener inputs the settings while listening to the sound of the speaker.
  • FIG. 32 is a diagram illustrating an example of assisting the input of the setting input unit illustrated in FIG. 31 from an image of a person's face captured by a mobile phone. For example, from the picture shown in the figure, it is not possible to expect a completely accurate value, but it is necessary to determine the distance between the listener's ears, the distance between the terminal and the user (listener), age, gender, etc. can do.
  • the data that can be determined from the photograph may be such that the set of parameters is determined using the data obtained from the photograph without requiring the listener to input the setting.
  • the sound image controller morphs the head model based on the image captured by the camera built into the mobile phone, calculates the potential at each node, and stores it in memory or the like.
  • the sound image controller can also calculate the head related transfer function using the stored potentials, calculate the characteristic function that is optimal for the person in the photo, and set the calculated characteristic function in the correction filter. It becomes.
  • Fig. 33 shows an example in which input assistance is performed based on a photograph of the pinna to compensate for the difficulty in capturing the shape of the ear in a normal portrait photograph taken from the front. .
  • a photograph of a person taken from the front as shown in Fig. 32 the shape of the person's ears (auricles), the length of the ears, and the head are affected by the photographing angle of the person's hair and ears.
  • the angle of the pinna with respect to the head and the position of the ear with respect to the head cannot be determined from photographs.
  • only the ear of the person is separately photographed and combined with data obtained from a photograph taken from the front in Fig. 32 to assist in setting input for determining the set of correction filter parameters. Is also good.
  • a set of correction filter parameters may be determined only by data obtained from these two photographs.
  • FIG. 34 is a diagram illustrating an example in which a stereo camera or two shots of the same ear are taken three-dimensionally.
  • three-dimensional data of the pinna can be acquired by taking a stereo camera or taking two photographs. This makes it possible to obtain more effective data than the one-shot photograph of the pinna shown in FIG. In this case as well, in combination with the data obtained from the photograph taken from the front in Fig. 32, it can be used as an aid for setting input for determining the set of correction filter parameters. Alternatively, a set of parameters of the correction filter may be determined only by data obtained from two photographs. Of course, it is possible to obtain more accurate data by taking pictures three or more times.
  • FIG. 35 is a diagram illustrating an example of a processing procedure in a case where the sound image control device or the acoustic device incorporating the same holds a characteristic function of a correction filter for each element set and input.
  • the interaural distance A set of parameters corresponding to the interaural distance “150 mm” is read out of the set of parameters (characteristic functions) corresponding to, and set in the “filter for interaural distance” of the correction filter. Is done. For example, after completing the setting input so far, if the recipient feels that the setting has been adjusted properly, the setting input is ended here, and the remaining (setting 4) ears are set.
  • the set of parameters according to the size setting is the differential that was originally set in the "filter for ear size”. OK with the ortho value.
  • the sound image control device sets the filter for age, the filter for gender, and the filter for interaural distance set in the correction filter.
  • ”And“ Ear size filter ” are combined to generate a set of parameters (characteristic functions), which are set in the correction filters 13 and 14. By doing so, it is not necessary to keep all the parameter sets determined by the sets of factors such as age and gender, and the memory capacity of the sound image controller can be saved.
  • Figure 36 shows that a mobile phone equipped with a sound image controller transmits data input from a setting input unit to a server on the Internet, and supplies optimal parameters based on the transmitted data. It is a figure showing an example when receiving.
  • a mobile phone or the like having a sound image control device values such as age, gender, interaural distance, and ear size are input from a setting input unit or the like.
  • the sound image controller connects to a server such as a vendor on the Internet via a communication line such as a mobile phone network, and the age, gender, and Upload data such as inter-ear distance and ear size to the server.
  • the server determines parameters that are determined to be optimal for a listener having the uploaded settings, and transmits the determined set of parameters to a database in the server. And download it to the mobile phone.
  • the sound image control device does not need to hold many sets of parameters, and the load on the memory can be reduced.
  • the server since the server has a large computer system, the database can hold more detailed data for each element.
  • the setting is to increment by 5 years old, such as, while the database in the server may have a setting that assigns a different parameter to each age. it can. Therefore, there is an effect that a mobile phone does not require a large amount of memory and can obtain a more suitable set of parameters.
  • Figure 37 shows a case where a mobile phone or the like equipped with a sound image controller transmits image data captured by a built-in camera or the like to a server on the Internet and receives optimal parameter supply based on the transmitted image data. It is a figure showing an example. As shown in Fig. 37, even if the image data of the photograph taken by the mobile phone is transmitted to the server instead of setting the age, gender, interaural distance, etc. However, computer resources such as memory capacity and CPU processing speed are inferior to servers. Therefore, even if the same image data is analyzed by a cellular phone or the like, it is not possible to obtain such detailed and accurate data as compared with the case of analyzing by the server. On the other hand, as in the case of Fig.
  • the computer system on the server side is provided with sufficient software and the like to obtain more accurate data from the uploaded image data. . Therefore, by doing so, the mobile phone equipped with the sound image control device can acquire a set of parameters with higher accuracy while saving resources as a computer, and can obtain a sound image with higher accuracy. This has the effect of being able to be localized.
  • FIG. 38 is a diagram illustrating an example of a case where a mobile phone or the like including a sound image control device includes a display unit that displays individual elements of a listener for parameter setting.
  • a display unit that displays individual elements of a listener for parameter setting.
  • the user may set his / her own setting element which has determined the set of correction filter parameters (characteristic function).
  • FIG. 39 (a) is a graph showing the waveform and phase characteristics of the transfer function obtained by the simulation used in the first to eighth embodiments.
  • Figure 39 (b) is a graph showing the waveform and phase characteristics of the transfer function obtained by actual measurement as in the past.
  • the input sound for measurement in Figs. 39 (a) and (b) is flat white noise for all frequencies.
  • Fig. 39 (a) in the case of the original HRTF, the sound pressure becomes very small at a certain frequency, even with white noise, as in this simulation.
  • the measured graph in Fig. 39 (b) variation is seen around this frequency. This means that such errors are included in actual measurements.
  • the simulation requires only about 14 taps of the actual measurement for the characteristic function of the correction filter for outputting the input white noise as white noise at the position of the target sound source. .
  • the sound image control device of the present invention is useful as a portable device such as a mobile phone or a PDA equipped with an audio reproducing device. Further, the sound image control device of the present invention is useful as a sound image control device built in a game machine for performing a virtual game or the like.

Abstract

音像制御装置は、音響変換器(8)から耳道入り口(1)、(2)までの音の伝達特性を示す第1の伝達関数H3、H1と、音響変換器(9)から耳道入り口(1)、(2)までの伝達関数H4、H2をフィルタリングして、音源とは異なる位置の目標音源(11)から耳道入り口(1)、(2)までの音の伝達特性を示す第2の伝達関数H6、H5を生成する音像制御装置であって、第1の伝達関数H1、H2、H3、H4をフィルタリング演算するための特性関数E1、E2を格納し、その特性関数E1、E2を用いて、第1の伝達関数H1、H2、H3、H4から、第2の伝達関数H5、H6を生成する補正フィルタ(13)、(14)を備える。

Description

明 細 書 音像制御装置の設計ツールおよび音像制御装置 技術分野
本発明は、 スピーカやヘッ ドホンなどの音響変換器を用いて、 その音 響変換器が存在する以外の位置に音像を定位させる音像制御装置および 音像制御装置の設計ツールに関する。 背景技術
従来、 ス ピーカから耳に伝わる音を頭部伝達関数 (H ead- Re l ated T r a n sf e r Fu nct i on , HRTF ) を用いて表現する方法が知られている。 この 頭部伝達関数は、 スピーカ (音源) が音を出している状態で、 その音が 耳にどのように伝わるかを表す関数である。この頭部伝達関数を用いて、 スピーカなどの音源にフィルタ リ ングを施すことにより、 実際には音源 の存在しない位置に音源があるかのように、 人に感じさせることができ る。 これを、 その位置に 「音像を定位させる」 という。 この頭部伝達関 数は、 実測で得ることもできるし、 計算により求めることもできる。 こ の技術をうまく応用することができれば、 従来、 ヘッ ドホンでは人によ つて音源が頭の中にあるように感じられるといった不具合を解消するこ ともできるし、 例えば、 携帯電話機などに備えられる小型ステレオで、 あたかも大型ステレオで音楽鑑賞しているような臨場感を味わうなどの 効果を得ることも可能になる。
図 1 ( a ) は、 実測によって頭部伝達関数を求める従来の方法の一例 を示す図である。 一般には、 頭部伝達関数の測定は、 壁や床からの反響 がない無響室内で、 被験者もしくはダミーへッ ドとよばれる標準的寸法 を持つ測定用マネキンを用いて行われる。 図 1 ( a ) ではダミーヘッ ド から約 1 m離れた位置に測定用のスピーカを設置してスピーカからダミ 一ヘッ ドの左右の耳までの伝達関数を測定する。 ダミーヘッ ドの耳 (ま たは耳管) の中にはマイクロホンが設置されており、 これらのマイクロ ホンは、 スピーカから発生される特定のインパルスを受音する。 同図に おいて、 Aは、 スピーカから遠い側の耳の応答 (遠位耳応答) であり、 Sは、 スピーカから近い側の耳の応答 (近位耳応答) である。 このよう に、 スピーカからのインパルスに対するマイクロホンの応答を記録しな がら、 ダミーへッ ドを中心と してスピ一力を様々な方位角および仰角で 移動することによって、 様々な位置にある音源と両耳との間の頭部伝達 関数を求めることが可能となる。
図 1 ( b ) は、 従来の音像制御装置の構成を示すブロック図である。 図 1 ( b ) に示すように、 この音像制御装置では、 図 1 ( a ) のように 実測された頭部伝達関数に対して、 時間領域や周波数領域の信号処理を 用いて修正を施している。 すなわち、 入力信号を伝達関数の斜線が施さ れたブロックの近位耳応答と遠位耳応答および両耳間時間遅延の処理を 行いへッ ドホン用の信号を出力している。 ここで標準寸法よリ大きな耳 を有する受聴者の場合は、 その比率に従ってこの近位耳応答と遠位耳応 答との周波数応答特性の共振周波数を低く し、 標準寸法より大きな頭部 を有する受聴者の場合はその比率に従って遅延時間を遅らせることによ リ、 受聴者の個人差に対応している。 以上のことは、 例えば、 特開 2 0 0 1 — 1 6 6 9 7号公報 (第 9ページ) に開示されている。
図 2は、 計算機上において表現される 3次元頭部モデルを用いて複数 の音源に対する頭部伝達関数を算出する従来の例を示す図である。 計算 機上で頭部伝達関数を算出するためには、 ダミーヘッ ドなど、 頭部の 3 次元形状を計算機内に取り込んで、 頭部モデルと して用いる。 同図にお いて頭部モデル表面に描かれた網目 (メ ッシュ) の各交点を 「節点」 と いう。 この各節点は、 3次元座標で特定される。 頭部伝達関数を計算で 求める場合には、 頭部モデル上の各節点におけるポテンシャルを、 音源 (発音点) ごとに算出し、 算出された各節点のポテンシャルを音圧合成 することにより算出する。図 2では、頭部モデルの右耳に対して、 0 ° 、 3 0 ° 、 6 0 ° および 9 0 ° の方向に音源を置いたときの頭部伝達関数 を求めるところを示している。 この場合、 0 ° の位置に音源を置いた場 合の各節点のポテンシャル、 3 0 ° の位置に音源を置いた場合の各節点 のポテンシャル、 6 0 ° の位置に音源を置いた場合の各節点のポテンシ ャル、 および 9 0 ° の位置に音源を置いた場合の各節点のポテンシャル を算出することによって、 0 ° 、 3 0 ° 、 6 0 ° および 9 0 ° の方向に 音源を置いたときの頭部伝達関数を計算することができる。
しかしながら、 前記従来の構成では方位角や仰角の変化を詳細に測定 する場合には、膨大な数の伝達関数を測定する必要がある。これに対し、 ( 1 ) スピーカの位置を変更する都度、 その際の測定条件を一定に保つ ことが困難であり、 ( 2 ) 計測に用いられるマイクロホンは耳道の大きさ に比べて無視できないことや、( 3 ) 頭部近傍で伝達関数を計測する場合 にはスピーカの大きさが音場に影響を及ぼすなどのため、 精度の高い伝 達関数が得られず、 頭部から 1 m以内の近傍にある音響変換器を用いた 場合には、正確な音像制御が困難であるという課題を有している。また、 計算機上において頭部伝達関数を算出する場合であっても、 より多くの 異なる位置に音源をおいて頭部伝達関数を算出したいにもかかわらず、 音源の位置が変更される毎に、 膨大な数の節点に対してポテンシャルを 算出しなければならないという問題がある。
また、 頭部サイズの大きさによる伝達関数の補正は、 頭部を単なる球 と して扱った場合の両耳間遅延時間を調整しているので、 頭部を回折す る音同士の干渉による周波数特性変化は再現されず、 音像制御の効果の 個人差を低減できないという課題を有している。
本発明は、 上記課題を解決するもので、 方位角や仰角および距離の変 化に対する膨大な種類の伝達関数を同一条件で精度よく求めることを目 的と している。
また、 音響変換器が頭部近傍にあっても精度の高い伝達関数を得るこ とにより、 頭部近傍の音響変換器を用いても正確な音像定位が得られる 音像制御装置を提供することを第 2の目的とする。
さらに、 頭部寸法の大きさによる音の干渉や耳道内部の形状の個人差 に適応可能で、 音像制御の効果の個人差を低減できる音像制御装置を提 供することを第 3の目的とする。 ' 発明の開示
この課題を解決するために、 音源から頭部受音点までの音の伝達特性 を示す第 1 の伝達関数をフィルタ リングして、 前記音源とは異なる位置 の目標音源から頭部受音点までの音の伝達特性を示す第 2の伝達関数を 生成する音像制御装置を設計するための音像制御装置の設計ツールであ つて、 前記頭部受音点を発音点とし、 前記音源と前記目標音源とを受音 点と して前記各伝達関数を求める伝達関数生成手段を備える。 これによ リ、 左右の耳道入リロまたは鼓膜を発音点と して各節点のポテンシャル を算出しておく ことにより、 受音点を多数の位置に移動する場合であつ ても、 伝達関数を高速に同一条件で精度よく求めることができる。 また、 頭部伝達関数を計算機で算出するため、 実測では不可能な、 理 想点音源での発音や、 完全無指向性の受音を実現することができ、 近距 離の頭部伝達関数も正確に算出することができる。 これにより、 より正 確な音像定位を実現することが可能となる。 また、 耳道入リ ロまたは鼓膜を発音点と しているので、 音響変換器が 頭部近傍にあっても精度の高い伝達関数を得るこ とによ リ 、 頭部近傍の 音響変換器を用いても正確な音像定位を得るこ とができる。
また、 本発明の音像制御装置において、 前記特性関数は、 頭部各部の サイズが異なる複数のタイ プの頭部モデルに基づいて算出され、 前記特 性関数格納手段は、 前記タイ プごとに前記特性関数を格納し、 前記音像 制御装置は、 さ らに、 前記タイプの 1 つを決定する要素の入力を受聴者 から受け付ける要素入力手段を備え、 前記第 2伝達関数生成手段は、 入 力によ り決定された前記タ イ プに対応する特性関数を用いて、 前記第 2 の伝達関数を生成する。 したがって、 受聴者は、 自分の頭部形状に最も 適合したタイプを示す要素を入力することによ り、 頭部寸法の大きさに よる音の干渉や耳道内部の形状の個人差に適応可能で、 音像制御の効果 の個人差を低減することができる。
なお、 本発明は、 このよ うな音像制御装置の設計ツールおよび音像制 御装置と して実現することができるだけでなく 、 このような音像制御装 置の設計ツールおよび音像制御装置が備える特徴的な手段をステップと する音像制御装置の設計方法および音像制御方法と して実現した り 、 そ れらのステップをコ ンピュータに実行させるプログラムと して実現した りすることもできる。 そして、 そのようなプログラムは、 C D— R O M 等の記録媒体やイ ンターネッ ト等の伝送媒体を介して配信することがで きるのは言うまでもない。
本発明によれば、 音源と頭部モデルとの方位角や仰角および距離の変 化に対する膨大な種類の伝達関数を高速に同一条件で精度よ く 求めるこ とができ、 また、 音響変換器が頭部近傍にあっても精度の高い伝達関数 が得られることによ り、 頭部近傍の音響変換器を用いても正確な音像定 位を得ることができる。 また、 頭部寸法の大きさによる音の干渉や耳道 内部の形状の個人差に適応可能で、 音像制御の個人差を低減することが できる。 図面の簡単な説明
図 1 ( a ) は、 実測によって頭部伝達関数を求める従来の方法の一例 を示す図である。 図 1 ( b ) は、 従来の音像制御装置の構成を示すプロ ック図である。
図 2は、 計算機上において表現される 3次元頭部モデルを用いて複数 の音源に対する頭部伝達関数を算出する従来の例を示す図である。
図 3 ( a ) は、 頭部伝達関数を算出するための実際のダミーヘッ ドの 一例を示す図である。 図 3 ( b ) は、 頭部モデルの正面図である。
図 4 ( a ) は、 本実施の形態 1 の頭部モデルの右側耳介部を拡大した 正面図である。 図 4 ( b ) は、 本実施の形態 1 の頭部モデルの右側耳介 部を拡大した上面図である。
図 5は、 本実施の形態 1 における頭部伝達関数の計算方法の一例を示 す図である。
図 6 ( a ) は音響変換器の位置から耳道入リロまでの伝達関数の計算 モデルを示す図である。 図 6 ( b ) は目標音像の位置から耳道入リロま での伝達関数の計算モデルを示す図である。
図 7は、補正フィルタを用いた音像制御装置の基本ブロック図である。 図 8は、 本実施の形態 1 の計算手法を用いた音像制御のための音響変 換器が実装されたポータブル機器を受聴者が利用する例を示す図である。 図 9 ( a ) は、 伝達関数 H 1 および伝達関数 H 4の周波数特性を示す グラフである。 図 9 ( b ) は、 伝達関数 H 2および伝達関数 H 3の周波 数特性を示すグラフである。 図 9 ( c ) は、 伝達関数 H 5の周波数特性 を示すグラフである。 図 9 ( d ) は、 伝達関数 H 6の周波数特性を示す グラフである。
図 1 0 ( a ) は、 特性関数 E 1 の周波数特性を示すグラフである。 図
1 0 ( b ) は、 特性関数 E 2の周波数特性を示すグラフである。
図 1 1 は、 本実施の形態 2の音像制御装置の音響変換器から耳道入り 口までの伝達関数の計算モデルを示す図である。
図 1 2は、 図 1 1 に示した関係から得られる伝達関数を用いた音像制 御装置の基本ブロックを示す図である。
図 1 3 ( a ) は、 頭部モデル 3の右側耳介部の正面図であり 、 図 1 3
( b ) は 、 頭部モデル 3の右側耳介部の上面図である。
図 1 4は、 図 1 3の頭部モデル 3を用いて音像制御装置の音響変換器 から鼓膜までの伝達関数の計算モデルの一例を示す図である。
図 1 5は、 鼓膜から目標音源 1 1 上に定義された受音点 1 0までの伝 達関数の計算モデルの一例を示す図である。
図 1 6は、 図 1 4および図 1 5に示した関係から得られる伝達関数 H
1 1 〜 H 1 6を用いた音像制御装置の基本ブロックを示す図で
図 1 7は、 本実施の形態 4の音像制御装置の音響変換器から鼓膜まで の伝達関数の計算モデルの一例を示す図である。
図 1 8は、 図 1 7に示した関係から得られる伝達関数 H 1 7および伝 達関数 H 1 8 と伝達関数 H 1 5および伝達関数 H 1 6を用いた音像制御 装置の基本ブロックを示す図である。
図 1 9 ( a ) は、 本実施の形態 5における音像制御装置の伝達関数を 求めるための頭部モデル 3 0の正面図である。 図 1 9 ( b ) は 、 頭部モ デル 3 0の側面図である。
図 2 0は、 頭部モデルの他の部分のサイズを示す斜視図である。
図 2 1 は、 男性と女性とによる耳長と耳珠間隔のばらつきを示すグラ フである。 図 2 2は、 本実施の形態 6における音像制御装置が提供される母集団 の特定分類を示すテーブルである。
図 2 3は、 母集団の平均値と特定分類とによる補正フィルタ特性を切 リ替える構成と したブロック図を示している。
図 2 4 ( a ) は、 頭部の幅が w 1 のグループに分類される頭部モデル M 5 1 〜 M 5 9の例を示すテ一ブルである。 図 2 4 ( b ) は、 頭部の幅 が w 2のグループに分類される頭部モデル M 6 1 ~ M 6 9の例を示すテ 一ブルである。 図 2 4 ( c ) は、 頭部の幅が w 3のグループに分類され る頭部モデル M 7 1 〜 M 7 9の例を示す亍一ブルである。
図 2 5は、 図 2 4 ( a ) 〜 ( c ) のように 2 7のタイプに分類される 特定分類に応じて、 頭部モデルに対応する補正フィルタ特性を切リ替え る構成と したブロック図を示している。
図 2 6 ( a ) は耳介部を詳細に示す正面図である。 図 2 6 ( b ) [ま、 耳介部を詳細に示す上面図である。
図 2 7は、 本実施の形態 7の音像制御装置が提供される母集団の特定 分類のさらに他の例を示すテーブルである。
図 2 8は、 図 2 7のように 9つのタイプに分類される特定分類に応じ て、 頭部モデルに対応する補正フィルタ特性を切り替える構成と したブ ロック図を示している。
図 2 9は、 複数タイプの頭部モデルに対するポテンシャルデータのセ ッ トを音像制御装置に格納しておく場合の音像制御装置での処理手順を 示す図である。
図 3 0は、 本発明の音像制御装置またはこれを備える音響装置に、 頭 部モデルのタイプを決定する複数の要素の設定入力を受け付ける設定入 力部を備えると した場合の特性関数設定処理の手順の一例を示す図であ る。 図 3 1 は、図 3 0に示した設定入力部を備えた音像制御装置において、 受聴者がスピーカからの音を聞きながら設定入力を行う場合の手順の一 例を示す図である。
図 3 2は、 携帯電話機で撮影された人物の顔の画像から、 図 3 1 で示 した設定入力部の入力を補助する一例を示す図である。
図 3 3は、 正面から撮影された通常の人物写真では、 耳の形状が撮影 されにく いという点を補うために耳介部を撮 した写真に基づいて入力 補助を行う例を示した図である。
図 3 4は、 同じ側の耳をステレオカメラまたは 2回撮りにより、 立体 的に撮影する場合の例を示す図である。
図 3 5は、 音像制御装置またはそれを内蔵する音響機器が、 設定入力 される要素ごとに補正フィルタの特性関数を保持している場合の処理手 順の一例を示す図である。
図 3 6は、 音像制御装置を備える携帯電話機等が、 設定入力部などか ら入力されたデータを、 インタ一ネッ ト上のサーバに送信し、 送信した データに基づく最適なパラメータの供給を受ける場合の一例を示す図で め 。
図 3 7は、 音像制御装置を備える携帯電話機等が、 内蔵カメラなどで 撮影した画像データを、 インターネッ ト上のサーバに送信し、 送信した 画像データに基づく最適なパラメータの供給を受ける場合の一例を示す 図である。
図 3 8は、 音像制御装置を備える携帯電話機等において、 パラメータ 設定のための受聴者個人の各要素を表示する表示部を備えた場合の一例 を示す図である。
図 3 9 ( a ) は、 上記実施の形態 "! 〜 8で用いられたシミュレーショ ンによる伝達関数の波形および位相特性を示すグラフである。 図 3 9 ( b ) は、 従来のように実測によって得られた伝達関数の波形および位 相特性を示すグラフである。 発明を実施するための最良の形態
以下、 本発明の実施の形態について、 図 3から図を用いて説明する。 (実施の形態 1 )
本発明の実施の形態 1 の音像制御装置は、 計算機上において表現され た人体形状の 3次元頭部モデルを用いて伝達関数を音源と受音点の位置 を逆にした計算モデルにおいて境界要素法による数値計算手法により求 め、 この伝達関数を用いて音像制御を行うことで、 正確な音像定位を得 る。
境界要素法については、 例えば、 「田中正隆他著 「境界要素法」 4 0 〜 4 2ページ、 1 1 1 〜 1 2 8ページ、 1 9 9 1 年 培風館」(以下、「非 特許文献 1 J という。) に詳しく紹介されている。
この境界要素法を用いて例えば、「日本音響学会 2 0 0 1 年 秋季研 究発表会 講演論文集 (第 4 0 3 〜 4 0 4ページ)」 (以下、 「非特許文献 2」 という。) に示されているような計算を行うことができる。 この非特 許文献 2は、 計算機上に表現された 3次元モデルに相当する実物モデル を高精度に製作し、 その実物モデルを用いて、 音源からこの耳道入り口 までの伝達関数を計算して、境界要素法による計算結果と比較した場合、 良好な一致を示している。 この文献では周波数範囲が 7 . 3 k H z以下 となっているが、 計算機上のモデルの精度を高く し、 節点の間隔をより 小さくすることで、 人間の可聴帯域全体にわたって、 実測と数値計算の 結果が一致することは明らかである。
図 3は、 本実施の形態 1 における音像制御装置における伝達関数を求 める頭部モデルを示している。 図 3 ( a ) は、 頭部伝達関数を算出する ための実際のダミーヘッ ドの一例を示す図である。 まず、 図 3 ( a ) に 示す実際のダミーヘッ ドをレーザスキャナ装置などを用いて正確に 3次 元計測を行う。 また、 頭部モデルについては医療分野における磁気共鳴 画像や X線コンピュータ断層撮影機などのデータに基づいて構成する。 図 3 ( b ) は、 このようにして得られた頭部モデルの正面図を示してお リ、 この図内の破線部で示した頭部の右側耳介部の詳細を以下に示す。 本実施の形態では、 音源ごとに、 図 3 ( b ) に示した頭部モデル上のメ ッシュの各節点につきポテンシャルが算出される。 図 4 ( a ) は、 本実 施の形態 1 の頭部モデルの右側耳介部を拡大した正面図であり、 図 4 ( b ) は、 本実施の形態 1 の頭部モデルの右側耳介部を拡大した上面図 である。 なお、 本実施の形態の頭部モデルにおいて、 左右の耳道入リロ 1 、 2および頭部モデル全体の底面は、 蓋により閉じられている。 以下 では、 上記に示した頭部モデルを用いて、 頭部伝達関数の具体的な計算 モデルについて説明する。
図 5は、 本実施の形態 1 における頭部伝達関数の計算方法の一例を示 す図である。 頭部伝達関数の測定方法および算出方法においては、 発音 点と受音点とが入れ替わっても、同じ頭部伝達関数を得ることができる。 これを利用して、 本実施の形態 1 では、 図 5に示すように、 頭部モデル の左右の耳道入り口に 1 つずつ音源を設置する。 このようにすれば、 音 源は、 左右の耳道入リロに固定されているので、 各節点上のポテンシャ ルを算出するのはそれぞれの音源につき一回ずつ、 すなわち、 2回だけ でよい。 そして、 音源からのインパルスを受音するためのマイクロホン を、 頭部モデルを中心と した所望の方位角、 仰角および距離の位置に移 動しながら、 発音点である各耳道入リロから受音点であるマイクロホン までの伝達関数を算出する。 受音点が移動する都度算出される伝達関数 は、 各節点につき、 すでに求められているポテンシャルの音圧合成によ り、 算出することができる。 球面上の音圧は境界要素法を用いることに より、 一回で計算することができる。
以下では、 伝達関数の算出方法について、 よ り具体的に説明する。 図 6 ( a ) は音響変換器の位置から耳道入り口までの伝達関数の計算モデ ルを示し、 図 6 ( b ) は目標音像の位置から耳道入り口までの伝達関数 の計算モデルを示す図である。 図 6において、 頭部モデル 3は図 3 ( b ) に示した頭部モデルと同じものである。 発音点 4は、 頭部モデル 3の左 側耳道入り口に定義された発音点を示し、 発音点 5は、 頭部モデル 3の 右側耳道入り口に定義された発音点を示している。 受音点 6および受音 点 7は、 頭部モデル 3の近傍に設置された音響変換器 8および音響変換 器 9に定義されるマイクロホンなどの受音点である。 音響変換器 8 と受 音点 6とは、 頭部モデル 3の左側耳道に近く位置し、 音響変換器 9 と受 音点 7 とは、 頭部モデル 3の右側耳道に近く位置する。 図 6 ( a ) にお いて、 発音点 4から受音点 6までの伝達関数は H 1 、 発音点 4から受音 点 7までの伝達関数は H 3、 発音点 5から受音点 7までの伝達関数は H 2、 発音点 5から受音点 7までの伝達関数は H 4である。 図 6 ( b ) に おいて、 受音点 1 0は、 仮想的な音響変換器である目標音源 1 1 に定義 される受音点である。 発音点 4から受音点 1 0までの伝達関数は H 5、 発音点 5から受音点 1 0までの伝達関数は H 6である。
ここで、 各発音点 4および発音点 5から独立に定常周波数の音響放射 がされると定義して、 境界要素法の定常解析を行う。 つまり、 発音点か らの音響放射による頭部モデル 3の境界面のポテンシャルを求め、 続い てそのポテンシャルによる空間の任意の点の音圧を外部問題と して求め る。 この手法を用いて、 定常周波数ごとに図 6における発音点 4による 頭部モデル境界面の各節点のポテンシャルを一度計算すれば受音点 6、 受音点 7、 受音点 1 0の音圧は、 各節点からの音圧合成により求めるこ とができる。 また、 発音点 5による受音点 6、 受音点 7、 受音点 1 0の 音圧も、 同様にして求めることができる。
本実施の形態 1 の頭部モデル 3の節点数は 1 5 0 5 2個であり、 各節 点からの音圧合成による計算時間はポテンシャルの計算時間に比べて約 1 0 0 0分の 1 で済むことがわかった。 ここで例えば、 発音点 4の音圧 を、 振幅を 「 1 」、 位相を 「 0」 に定義すれば、 受音点 6の音圧が伝達関 数となり H 1 が求められる。 同様にして、 受音点 7、 受音点 1 0の音圧 により伝達関数 H 3、 伝達関数 H 5が求められる。 さらに、 発音点 5に 同様の音圧の定義を行い、 受音点 6、 受音点 7、 受音点 1 0の音圧によ り伝達関数 H 2、 伝達関数 H 4、 伝達関数 H 6が求められる。
図 7は、補正フィルタを用いた音像制御装置の基本プロック図である。 図 7において、 補正フィルタ 1 3、 補正フィルタ 1 4は音響変換器 8、 音響変換器 9にフィルタ リングを用いて目標音源 1 1 の音像を実現する 補正フィルタ 1 3の特性を E 1 、 補正フィルタ 1 4の特性を E 2とする と、 入力端子 1 2から耳道入り口までの伝達関数が目標音源 1 1 からの 伝達関数に等しいという条件から、 以下の (数 1 ) が成り立つ。
【数 1 】
Figure imgf000015_0001
Figure imgf000015_0002
従って、 特性関数 E 1 、 特性関数 E 2は (数 1 ) を変形した、 以下の (数 2 ) により求められる。
【数 2】
Figure imgf000016_0001
各伝達関数 H 1 H 6は数値計算による離散的な周波数における複素 数であるため、 特性関数 E 1 、 特性関数 E 2を周波数領域で利用するた めには、 入力端子 1 2の信号を高速フーリエ変換 ( F F T ) により一旦 周波数領域に変換して、 特性関数 E 1 、 特性関数 E 2の乗算を行い、 そ の後、 信号を逆高速フーリエ変換 ( I F F T ) し、 時間信号として音響 変換器 8および音響変換器 9に出力する。 または、 各伝達関数 H 1 H 6をまず I F F T して時間領域の応答に変換し、 例えば、 特許第 2 5 4 8 1 0 3号公報 (以下、 「特許文献」 2 という。) に開示されているよう な時間領域での設計手法を用いて特性関数 E 1 、 特性関数 E 2を時間領 域でのフィルタ特性として実現することも可能である。
以上のように、 特性 E 1 の補正フィルタ 1 3、 特性 E 2の補正フィル タ 1 4を実現することによって、 入力端子 1 2の信号による音像を目標 音源 1 1 の位置に確実に定位させることができる。
図 8は、 本実施の形態 1 の計算手法を用いた音像制御のための音響変 換器が実装されたポータブル機器を受聴者が利用する例を示す図である。 同図において、 破線 1 6は、 左右の耳道すなわち、 発音点 4と発音点 5 とを結ぶ直線である。 また、 一点鎖線 1 7は、 頭部中心 1 5を通り、 方 ' 位角 0 ° を示す直線である。 一点鎖線 1 8は、 音響変換器 8および音響 変換器 9の中心と頭部中心 1 5とを結ぶ直線である。 ここで、 音響変換 器 8は頭部中心 1 5から距離 0 . 4 m、 方位角一 1 0 ° 、 仰角一 2 0 ° の位置にあり、 音響変換器 9は方位角 1 0 ° 、 仰角一 2 0 ° の位置にあ る。 また、 目標音源 1 1 は、 方位角 9 0 ° 、 仰角 1 5 ° 、 頭部中心 1 5 から距離 0 . 2の位置にある。
図 9は、 図 8に示した条件下での計算例を示す図である。 図 8におい て、 音響変換器 8および音響変換器 9は頭部モデル 3に対して左右対称 の角度であるため、 伝達関数 H I と伝達関数 H 4、 伝達関数 H 2と伝達 関数 H 3は、 それぞれ同じ周波数特性となる。 図 9 ( a ) は、 伝達関数 H 1 および伝達関数 H 4の周波数特性を示すグラフである。 図 9 ( b ) は、伝達関数 H 2および伝達関数 H 3の周波数特性を示すグラフである。 図 9 ( c ) は、伝達関数 H 5の周波数特性を示すグラフである。図 9 ( d ) は、 伝達関数 H 6の周波数特性を示すグラフである。
図 9のように求められた各伝達関数 H 1 〜 H 6を、 (数 2 ) に当てはめ ることにより、 補正フィルタ 1 3の特性関数 E 1 および補正フィルタ 1 4の特性関数 E 2を算出することができる。 図 1 0は、 図 9のように得 られた伝達関数 H 1 〜 H 6から得られた特性関数 E 1 、 特性関数 E 2の 周波数特性を示すグラフである。 図 1 0 ( a ) は、 特性関数 E 1 の周波 数特性を示すグラフである。 図 1 0 ( b ) は、 特性関数 E 2の周波数特 性を示すグラフである。
以上の構成により、 音響変換器 8および音響変換器 9の位置、 および 目標音源 1 1 が頭部に近い位置にあっても、 受聴者は目標音源 1 1 の音 像を明確に知覚することができ、 正しい音像定位を得ることができる。 なお、 以上は目標音源が 1 つの場合で、 なおかつ、 固定されている場合 について説明したが、 目標音源が複数個の場合は、 補正フィルタ 1 3お よび補正フィルタ 1 4の組み合わせを、 目標音源の個数分用意すれば可 能である。 また、 目標音源が移動する場合には、 その移動経路に従った 複数個の方向、 距離の補正フィルタの特性を切り替えることによって可 能である。
このように、本実施の形態 1 によれば、目標音源 1 1 に複数の方位角、 仰角、 距離を設定しても、 すでに頭部モデル 3の耳道入り口の発音点に よるポテンシャルを計算しているので、 そのポテンシャルからの音圧合 成により伝達関数および補正フィルタ特性は極めて短時間に求めること ができる。 さらに、 従来の伝達関数測定でスピーカやマイクロホンが音 場に影響を及ぼすような頭部に近接した伝達関数も、 発音点と受音点の 大きさが無視できる数値計算により、 高精度に求めることができ、 それ らから計算される補正フィルタ特性により、 正確な音像制御を行うこと ができる。
(実施の形態 2 ) .
本実施の形態 2では、 実施の形態 1 に示した音像制御装置をヘッ ドホ ンを用いた受聴に応用し、 へッ ドホンを用いた受聴の場合についても正 確な音像定位を得る場合について説明する。
図 1 1 は、 本実施の形態 2の音像制御装置の音響変換器から耳道入り 口までの伝達関数の計算モデルを示す図である。なお、図 1 1 において、 図 6と同じ構成要素については同じ符号を用い、 説明を省略する。 図 1 1 では、 音響変換器 8および音響変換器 9を、 それぞれ頭部モデル 3の 両耳の近傍に設置し、 いわゆるへッ ドホン受聴に相当する計算モデルを 示している。 すなわち、 左側耳道に設置した発音点 4により、 音響変換 器 9の受音点 7に生じる音圧については無視できる。 同様に、 右側耳道 に設置した発音点 5により、 音響変換器 8の受音点 6に生じる音圧につ いても無視できる。 従って、 実施の形態 1 と同様にして、 音響変換器 8 からの伝達関数 H 7が受音点 6の音圧と して求められる。 また、 音響変 換器 9からの伝達関数 H 8が受音点 7の音圧と して求められる。
図 1 2は、 図 1 1 に示した関係から得られる伝達関数を用いた音像制 御装置の基本ブロックを示す図である。 同図において、 補正フィルタ 1 3および補正フィルタ 1 4は、 音響変換器 8および音響変換器 9を用い て目標音源 1 1 を実現する補正フィルタであり、 補正フィルタ 1 3の特 性を E 3、 補正フィルタ 1 4の特性を E 4とする。 この場合、 入力端子 1 2から耳道入リロ (左側耳道入リロ 1 、 右側耳道入リロ 2 ) までの伝 達関数が、 目標音源 1 1 から耳道入り口 (左側耳道入リロ 1 、 お側耳道 入り口 2 )までの伝達関数と等しいという条件から、(数 3 )が成り立つ。
【数 3】
Figure imgf000019_0002
従って、 特性関数 Ε 3および特性関数 4は (数 3 ) を変形して得ら れる (数 4 ) から求められる。
【数 4】
Figure imgf000019_0001
以上の構成により、 ヘッ ドホンを用いた受聴においても、 目標音源 1 1 からの伝達関数を受聴者の耳道入リロで実現することにより、 目標音 源 1 1 の位置に正確な音像を定位させることができる。
(実施の形態 3 )
実施の形態 1 および 2においては、 発音点を耳道入リロに設置した場 合について説明したが、 本実施の形態 3では、 発音点を鼓膜に設置して 目標音源までの伝達関数を求め、 より正確な音像を定位させる場合につ いて説明する。
図 1 3は、 頭部モデル 3の右側耳介部のより詳細な 3 D形状を示す図 である。 図 1 3 ( a ) は、 頭部モデル 3の右側耳介部の正面図であり、 図 1 3 ( b ) は、 頭部モデル 3の右側耳介部の上面図である。 同図に示 すように、 耳道入リロ 1 から耳道 2 1 を経由して、 鼓膜 2 3が形成され ている。 本実施の形態 3では、 頭部モデル 3の左右ともに、 耳道の終端 が鼓膜により閉じられたモデルとなっている以外は実施の形態 1 と同様 である。
図 1 4は、 図 1 3の頭部モデル 3を用いて音像制御装置の音響変換器 から鼓膜までの伝達関数の計算モデルの一例を示す図である。 同図にお いて、 左側耳道 2 0の終端には鼓膜 2 2が形成され、 この鼓膜 2 2上に 発音点 4が定義されている。 また、 右側耳道 2 1 の終端には鼓膜 2 3が 形成され、鼓膜 2 3上には発音点 5が定義されている。ここで、図 6 ( a ) に示した音響変換器 8および音響変換器 9に定義された受音点 6および 受音点 7への伝達関数を計算する。 ここでは、 発音点 4から受音点 6ま での伝達関数を H I 1 、発音点 4から受音点 7までの伝達関数を H 1 2、 発音点 5から受音点 6までの伝達関数を H 1 3、 発音点 5から受音点 7 までの伝達関数を H 1 4とする。
図 1 5は、 鼓膜から目標音源 1 1 上に定義された受音点 1 0までの伝 達関数の計算モデルの一例を示す図である。 同図に示すように、 発音点 4から受音点 1 0までの伝達関数は H 1 5、 発音点 5から受音点 1 0ま での伝達関数は H 1 6とする。 これらの伝達関数 H I "! 〜 H I 6は、 す でに計算されている節点上のポテンシャルを音圧合成することにより求 められる。
図 1 6は、 図 1 4および図 1 5に示した関係から得られる伝達関数 H 1 1 〜 H 1 6を用いた音像制御装置の基本ブロックを示す図である。 同 図において、 補正フィルタ 1 3および補正フィルタ 1 4の特性をそれぞ れ、特性 E 1 1 、特性 E 1 2と して、(数 5 )により求めることができる。
【数 5】
Figure imgf000021_0001
以上の構成により、 目標音源 1 1 'から受聴者の鼓膜までの伝達関数を 実現することにより、 目標音源 1 1 の位置により正確な音像を定位させ ることができる。
(実施の形態 4 )
実施の形態 2では、 頭部モデル 3の左右耳道入リ口に発音点を設定し て、 へッ ドホンを用いた受聴における音像の定位について説明したが、 本実施の形態 4では、 頭部モデル 3の鼓膜上に発音点を定義し、 ヘッ ド ホンを用いた受聴における音像の定位について説明する。
図 1 7は、 本実施の形態 4の音像制御装置の音響変換器から鼓膜まで の伝達関数の計算モデルの一例を示す図である。 同図において、 図 1 4 と同じ構成要素については同じ符号を用い、説明を省略する。図 1 7は、 音響変換器 8および音響変換器 9をそれぞれ頭部モデル 3の両耳の近傍 に設置し、いわゆるヘッ ドホン受聴に相当する計算モデルを示している。 ここでは、 実施の形態 2と同様にして、 発音点 4から音響変換器 8上の 受音点 6までの伝達関数は、 受音点 6の音圧である伝達関数 H I 7 と し て求められる。 また、 発音点 5から音響変換器 9上の受音点 7への伝達 関数は、 受音点 7の音圧である伝達関数 H 1 8 と して求められる。
図 1 8は、 図 1 7に示した関係から得られる伝達関数 H 1 7および伝 達関数 H 1 8と伝達関数 H 1 5および伝達関数 H 1 6を用いた音像制御 装置の基本ブロックを示す図である。 同図において、 補正フィルタ 1 3 および補正フィルタ 1 4の特性を、 特性関数 E 1 3、 特性関数 E 1 4と すると、 以下の (数 6 ) に従って計算することができる。
【数 6】
Figure imgf000022_0001
以上の構成により、 ヘッ ドホン受聴においても、 受聴者の鼓膜から目 標音源 1 1 までの伝達関数を算出することができるので、 目標音源の位 置に、 音像を正確に定位させることができる。
(実施の形態 5 )
本実施の形態 5の音像制御装置は、伝達関数を計算する頭部モデルを、 音像制御装置が提供される母集団の受聴者の頭部の大きさの平均値に変 形させることにより、 母集団の受聴者による音像定位効果の個人差を低 減する場 について説明する。
実施の形態 1 〜 4で用いられた頭部モデル 3のダミーヘッ ドは、 所定 のサイズおよび形状で作成されており、 このダミーへッ ドのサイズや、 耳の形、 耳の長さ、 耳珠間隔、 顔の長さなど、 頭部モデルのあらゆる部 分の形状は、 各節点のデータと して取り込まれている。 従って、 このよ うな頭部モデルを用いて算出された伝達関数には、 頭部モデルのあらゆ る部分の形状が反映されている。
図 1 9 ( a ) は、 本実施の形態 5における音像制御装置の伝達関数を 求めるための頭部モデル 3 0の正面図であり、 図 1 9 ( b ) は、 頭部モ デル 3 0の側面図である。 図 1 9 ( a ) において、 3 1 は頭部の幅、 3 2は頭部の高さ、 3 3は頭部の奥行きを示している。 ここで、 図 3 ( a ) で示したダミーへッ ドの頭部の幅が W d、 頭部の高さが H d、 頭部の奥 行きが D dであるとする。 また、 本実施の形態の音像制御装置が提供さ れる母集団の頭部の統計データから、 母集団に属するそれらの平均値を 算出し、 それぞれ頭部の幅が W a、 頭部の高さが H a、 頭部の奥行きが D aであるとする。
図 3 ( b ) で示した計算機上の頭部モデルの寸法を、 それぞれ、 頭部 の幅を W a Z W d、 頭部の高さを H a Z H d、 頭部の奥行きを D a Z D dの比率で変形させる。 すなわち、 最初に計測したダミーヘッ ドの寸法 力 本音像制御装置が提供される母集団の頭部寸法の平均値からずれて いても、 このよ うな変形 (以下、 これを Γモーフイング処理」 と呼ぶ。) を行うことによって、 計算機上において母集団の頭部寸法平均値の頭部 モデルを実現することができる。
このようにして変形された頭部モデル 3 0を用いて、 各伝達関数を数 値計算によって求め、実施の形態 1 と同様に補正フィルタの特性 E 1 a 、 特性 E 2 aを求めることによって、 本音像制御装置が提供される母集団 に属する受.聴者に対する音像制御の効果の個人差を最も少なくすること ができる。
ただし、 頭部モデルに対してこのようなモーフイング処理を行った場 合には、 再度、 各節点のポテンシャルを算出しなおす必要がある。 しか し、 あらかじめ各節点のポテンシャルの再計算を行っておき、 節点毎の ポテンシャルをメ モリ等に格納しておけば、 伝達関数の計算は容易であ リ、 目標音源を実現するための補正フィルタの特性を容易に算出するこ とができる。 なお、 上記では頭部の幅、 高さおよび奥行きなどを母集団の頭部の統 計データから得られる平均値に合わせて修正する場合について説明した が、 必ずしもこれに限定されない。 図 2 0は、 頭部モデルの他の部分の サイズを示す斜視図である。 例えば、 同図に示すように、 ダミーヘッ ド の耳長ゃ耳珠間隔などのサイズを、 最初に計測したダミーヘッ ドの寸法 と、 母集団の頭部の寸法の平均値との比率に合わせて変形させるように してもよい。 また、 頭部の幅 3 1 は耳珠間隔であってもよく、 頭部の高 さ 3 2は全頭高であってもよく、 頭部の奥行き 3 3は頭長であってもよ い。
(実施の形態 6 )
本実施の形態 6では、 伝達関数を計算する頭部モデルを、 その音像制 御装置が提供される母集団の特定分類に属する受聴者の頭部の大きさの 平均値に変形させることにより、 受聴者が特定分類を選択することによ り、 音像定位効果の個人差を低減する場合について説明する。
図 2 1 は、 男性と女性とによる耳長と耳珠間隔のばらつきを示すグラ フである。 同図に示すように、 男性の耳珠間隔は約 1 3 0 m m〜 1 7 0 m mであるのに対し、 女性の場合は約 1 2 9 m m〜 1 5 8 m m程度であ る。 また、 男性の耳長は約 5 3 m m〜 7 8 m mであるのに対し、 女性の 場合は約 5 0 m m〜 7 O m m程度である。 このため、 図中の星印の位置 に相当する値を用いて音像制御装置が設計されることが多いが、 平均的 な設計値では音像制御効果は 9 0 %程度である。
図 2 2は、 本実施の形態 6における音像制御装置が提供される母集団 の特定分類を示すテーブルである。 図 2 2において、 頭部モデル 3 5は 母集団における男性平均を示しており、 頭部の幅が W m、 頭部の高さが H m、 頭部の奥行きが D mである。 また、 頭部モデル 3 6は母集団にお ける女性の平均を示しており、 頭部の幅が W w、 頭部の高さが H w、 頭 部の奥行きが D wである。 また、 頭部モデル 3 7は母集団における低年 齢層 (例えば、 年齢が 7才から 1 5才の小人) の平均を示しておリ 、 頭 部の幅が W c、 頭部の高さが H c、 頭部の奥行きが D cでめる
こ こで、 実施の形態 5と同様にして、 図 3 ( a ) で示したダ — » ―へ、リ ドによる.頭部モデル 3の頭部の幅が W d、 頭部の高さが H d、 ロ, 部の奥 行きが D dのとき、 頭部モデル 3 5は頭部モデル 3に対して、 口,卣部の幅 を WmZWd、 頭部の高さを H mZ H d、 頭部の奥行きを D m Z D dの 比率で変形させる。 頭部モデル 3 6は頭部モデル 3に対して、 頭部の幅 を Ww/W d、 頭部の高さを H wZH d、 頭部の奥行きを D w D dの 比率で変形させる。 また頭部モデル 3 7は 、 頭部モデル 3に対して、 頭 部の幅を W c Wd、 頭部の高さを H e H d、 頭部の奥行きを D c
D dの比率で変形させる。
このように変形された頭部モデル 3 5、 頭部モデル 3 6 、 頭部モデル
3 7を用いて、 各伝達関数を数値計算によつて求め、 実施の形態 1 と同 様に補正フィルタ特性 E 1 m、 特性 E 2 m 、 特性 E 1 w、 特性 E 2 w、 特性 E 1 c、 特性 E 2 cを求める。 図 2 3は、 これらの母集団の平均値 と特定分類とによる補正フィルタ特性を切 り替える構成と したブロ ック 図を示している。 図 2 3において、 音像制御装置は、 新たに、 母集団の 平均値と特定分類との補正フィルタの特性を格納している特性格納メ モ リ 4 0、 母集団の平均値 a、 特定分類 (男性) m、 特定分類 (女性) w、 特定分類 (小人) cのいずれかを選択するためのスィ ッチ 4 1 、 スイ ツ チ 4 1 の状態に応じて特性格納メ モ リ 4 0から補正フィルタ特性を選択 して、 補正フィルタ 1 3および補正フィルタ 1 4に設定するフィルタ設 定部 4 2を備える。これによ り、スィ ッチ 4 1 で母集団の平均を示す「 a」 を選択した場合は、 平均値の補正特性 E 1 a、 E 2 aが補正フィルタ 1 3および補正フィルタ 1 4に設定される。 また、 スィ ッチ 4 1 で特定分 類 (男性) を示す 「m」 を選択した場合は、 男性の補正特性 E 1 m、 E 2 mが補正フィルタ 1 3および補正フィルタ 1 4に設定される。同様に、 スィ ッチ 4 1 で特定分類 (女性) を示す Γ w」 を選択した場合は、 女性 の補正特性 E "1 w、 E 2 wが、 スィッチ 4 1 で特定分類 (小人) を示す Γ c」 を選択した場合は、 小人の補正特性 E 1 c 、 E 2 cが補正フィル タ 1 3および補正フィルタ 1 4のそれぞれの特性と して設定される。 受 聴者はこの 4種類から、自分に適合したフィルタを選択することにより、 受聴者による音像制御の効果の個人差を最も少なくすることができる。 (実施の形態 7 )
本実施の形態 7では、 伝達関数を計算する頭部モデルを、 音像制御装 置が提供される母集団の特定分類の受聴者の頭部の大きさに変形させて おき、 受聴者が自分の属する特定分類を選択することにより、 音像定位 効果の個人差を低減する場合について説明する。
図 2 4は、 本実施の形態 7の音像制御装置が提供される母集団の特定 分類を示している。 実施の形態 7の特定分類で、 頭部モデルは、 頭部の 幅に応じて 3つのグループに分類される。 図 2 4 ( a ) は、 頭部の幅が w 1 のグループに分類される頭部モデル M 5 1 〜 M 5 9の例を示すテー ブルである。 図 2 4 ( b ) は、 頭部の幅が w 2のグループに分類される 頭部モデル M 6 1 〜 M 6 9の例を示すテーブルである。図 2 4 ( c )は、 頭部の幅が w 3のグループに分類される頭部モデル M 7 1 〜 M 7 9の例 を示すテーブルである。 図 2 4 ( a ) において、 頭部の幅が w 1 である 頭部モデルは、 さらに、 頭部の高さ h 1 、 h 2、 h 3と、 頭部の奥行き d 1 、 d 2、 d 3とにより 9つのタイプに分類される。 図 2 4 ( b ) で は、 頭部の幅が w 2である頭部モデルが、 上記の 3つの頭部の高さと、 3つの頭部の奥行きとにより 9つのタイプに分類される。 図 2 4 ( c ) では、 頭部の幅が w 3である頭部モデルが、 上記と同様にして、 9つの タイ プに分類される。 ここで、 本実施の形態では、 実施の形態 6 と同様 にして、 あらかじめ、 頭部モデル 3 を図 2 4 ( a ) 〜 ( c ) の寸法に従 つて変形させた頭部モデル M 5 1 〜M 7 9 を用いて、 各伝達関数を数値 計算によって求め、 補正フィルタ特性 E 1 — 5 1 、 E 2— 5 1 、 〜、 E 1 一 7 9、 E 2— 7 9 を求める。
図 2 5は、 図 2 4 ( a ) 〜 ( c ) のよ うに 2 7 のタイ プに分類される 特定分類に応じて、 頭部モデルに対応する補正フィルタ特性を切 り替え る構成と したブロ ック図を示している。 図 2 5において、 音像制御装置 は、 図 2 4 ( a ) 〜 ( c ) の 2 7個の頭部モデルに対して算出された補 正フィルタ特性 E 1 — 5 1 、 E 2 — 5 1 、 〜、 E 1 _ 7 9、 E 2 - 7 9 が格納されている特性格納メモリ 8 0、 3種類の頭部の幅に応じて補正 フィルタの切り替えを行うスィ ッチ 8 1 、 3種類の頭部の高さに応じて 補正フィルタの切り替えを行うスィ ッチ 8 2、 3種類の頭部の奥行きに 応じて補正フィルタの切り替えを行うスィ ッチ 8 3 およびスィ ッチ 8 1 、 スィ ッチ 8 2、 スィ ッチ 8 3の状態に応じて補正フィルタ特性を特性格 納メモリ 8 0から選択して、 補正フィルタ 1 3 および補正フィルタ 1 4 に設定するフィルタ設定部 8 4 を備える。 受聴者はこのスィ ッチ 8 1 、 スィ ッチ 8 2およびスィ ッチ 8 3の組み合わせから、 自分に最も適合し たフィルタ.を選択することによ り、 受聴者の頭部のサイズに起因する音 像制御の効果の個人差を少なく することができる。
(実施の形態 8 )
本実施の形態 8では、 音像制御装置の伝達関数を計算するための頭部 モデルを、 その音像制御装置が提供される母集団の特定分類の受聴者の 耳介部の大きさに変形させ、 受聴者が自分に適合した特定分類を選択す ることによ り、音像定位効果の個人差を提言する場合について説明する。 図 2 6は、 本実施の形態 8 における音像制御装置が提供される母集団 の特定分類を定義する耳介部を示す図である。 図 2 6 ( a ) は耳介部を 詳細に示す正面図であり、 図 2 6 ( b ) は、 耳介部を詳細に示す上面図 である。 図 2 6において 9 0は耳介部の高さ、 9 1 は頭部表面から最も 離れた位置までの距離で表す耳介部の幅を示している。 図 2 7 は、 本実 施の形態 7の音像制御装置が提供される母集団の特定分類のさ らに他の 例を示すテーブルである。図 2 7 において頭部モデル M 9 1 ~ M 9 9 は、 耳介部の高さを e h 1 、 e h 2、 e h 3の 3種類に分類し、 耳介部の幅 を e d 1 、 e d 2、 e d 3の 3種類に分類するこ とによ り定義される。 この場合も、 実施の形態 6 と同様に、 あらかじめ頭部モデル 3 を図 2 7 の寸法に従って変形させた頭部モデル M 9 1 〜 M 9 9 を用いて各伝達関 数を数値計算によつて求め、補正フィルタ特性 E 1 — 9 1 、 E 2 — 9 1 、 〜、 E 1 — 9 9、 E 2— 9 9 を求め、 メモリ に保持しておく 。
図 2 8は、 図 2 7 のよ うに 9つのタイ プに分類される特定分類に応じ て、 頭部モデルに対応する補正フィルタ特性を切り替える構成と したブ ロ ック図を示している。 図 2 8において音像制御装置は、 図 2 7の 9つ のタイプの頭部モデルに対して算出された補正フィルタ特性 E 1 一 9 1 、 E 2— 9 1 、 〜、 E 1 — 9 9、 E 2 — 9 9が格納されている特性格納メ モリ 9 3 、 3種類の耳介部の高さ e h 1 、 e h 2、 e h 3 に応じて補正 フィルタの切り替えを行うスィ ッチ 9 4、 3種類の耳介部の幅 e d 1 、 e d 2、 e d 3に応じて補正フィルタの切り替えを行うスィ ッチ 9 5、 およびスィ ッチ 9 4、 スィ ッチ 9 5の状態に応じて対応する補正フィル タ特性を特性格納メモリ 9 3から選択して、 補正フィルタ 1 3および補 正フィルタ 1 4に設定するフィルタ設定部 9 6 を備える。 受聴者は、 こ のスィ ツチ 9 4およびスィ ツチ 9 5の組み合わせから、 自分に最も適合 した補正フィルタ特性を選択することによ り 、 自分の耳介部の高さや幅 に起因する音像制御の効果の個人差を低減することができる。 なお、 上記実施の形態 1 〜 8では、 頭部モデル上の各節点のポテンシ ャルを算出するために、 膨大な計算量を必要とするので、 節点上のポテ ンシャルデータの算出はあらかじめオフラインで行うものと している。 そして、 得られたポテンシャルは、 一旦、 外部のデータベースなどに格 納した上、 これを用いて伝達関数を算出して、 補正フィルタの特性関数 を算出するまでを外部のツールで実行している。 従って、 上記音像制御 装置では、 補正フィルタの特性関数が R O Mなどのメモリに格納されて 利用されているだけである。 これは、 すなわち、 現在の段階では、 携帯 電話機やへッ ドホンステレオなどの携帯機器に実装される音像制御装置 では、 これだけの計算量に音像制御装置の計算能力が追いつかないため である。 従って、 近い将来、 携帯機器に内蔵される音像制御装置におい て、 より多くの処理を行わせることも考えられる。
図 2 9は、 複数タイプの頭部モデルに対するポテンシャルデータのセ ッ トを音像制御装置に格納しておく場合の音像制御装置での処理手順を 示す図である。 例えば、 まず、 条件設定と して、 受聴者が、 音像制御装 置のメニュー画面を見ながら、 実施の形態 5 〜 8に示したような、 自分 に最も適した頭部モデルを選択する。 また、 ここで、 スピーカと両耳と の位置関係、 および目標音源と両耳との位置関係などの詳細な条件が入 力される してもよい。 これにより、 音像制御装置は、 選択された頭部 モデルに対応したポテンシャルデータを、 ポテンシャルデータが格納さ れている R O Mから読み込み、 所定の伝達関数を生成する。 この伝達関 数は、 スピーカと両耳との位置関係、 および目標音源と両耳との位置関 係があらかじめ定められているものと して生成されてもよいし、 受聴者 によって、 条件設定として最初に目標音源と両耳との位置関係などのデ ータの入力が行われ、 入力されたデータに基づいて伝達関数が計算され ると してもよい。 次いで、 得られた伝達関数から、 補正フィルタのパラ メータ (特性関数) が算出され、 補正フィルタに設定される。 このよう に、 内部に保持しているポテンシャルデータを用いて、 音像制御装置内 で補正フィルタの特性関数までを算出できるようにすることによって、 その時々の多様な条件に応じて、 柔軟に補正フィルタの特性を修正し、 よリ正確に音像を定位させることが可能になる。
図 3 0は、 本発明の音像制御装置またはこれを備える音響装置に、 頭 部モデルのタイプを決定する複数の要素の設定入力を受け付ける設定入 力部を備えるとした場合の特性関数設定処理の手順の一例を示す図であ る。 また、 他の例と して、 音像制御装置またはこれを内蔵する音響装置 などに備えられた設定入力部から、 頭部モデルのタイプを決定するよう な要素となる受聴者の年齢、 性別、 両耳間距離、 耳の大きさなどの入力 を受け付ける構成と した場合について説明する。 この場合、 音像制御装 置は、 受聴者の年齢、 性別、 両耳間距離、 耳の大きさなどのそれぞれの 要素について一組のパラメータ (特性関数) の組 ( E 1 、 E 2 ) が決定 されるように、 パラメータ ( E 1 、 E 2 ) をテーブルなどにしてあらか じめ保持しておく。 これにより、 例えば、 年齢 「 3 0才」、 性別 「女性」、 両耳間距離 「 1 5 0 m m J、 耳の大きさ r 5 5 m m j などの要素が入力さ れた場合には、これらの要素に応じたパラメータの組が 1 つ決定される。 次いで、 決定された特性関数の組が R O Mから読み出され、 補正フィル タ 1 3および補正フィルタ 1 4に設定される。 このように音像制御装置 に設定入力部を備えておく ことにより、 様々な設定要素に応じた特性関 数を設定することができ、 各受聴者に、 より適合した補正フィルタを設 定することができる。
図 3 1 は、図 3 0に示した設定入力部を備えた音像制御装置において、 受聴者がスピーカからの音を聞きながら設定入力を行う場合の手順の一 例を示す図である。この場合、例えば、頭部モデルのタイプを決定する、 よ り有力な要素の順に設定入力を受け付けるものとする。 頭部モデルの タイ プを決定する際に、 例えば、 年齢、 性別、 両耳間距離、 耳の大きさ の順に、 有力である場合には、 (設定 1 ) 年齢設定— (設定 2 ) 性別設定 → (設定 3 ) 両耳間距離設定— (設定 4 ) 耳の大きさ設定の順に、 設定 の入力が受け付けられる。 この順番に従って、 受聴者は、 スピーカの音 を聞きながら、設定の入力を行う。例えば、年齢「 3 0才」、性別「女性」、 両耳間距離「 1 5 0 m m」までの設定入力を終えたと ころで、受聴者が、 設定が十分正し く 調整されたと感じた場合にはここで設定入力を終了 し、 残りの (設定 4 ) 耳の大きさ設定は、 デフォルトの値で O Kとする。 こ れによ り、 設定入力された要素に従って、 パラメータの組が 1 つ決定さ れる。 次いで、 決定された特性関数の組が R O Mから読み出され、 補正 フィルタ 1 3 および補正フィルタ 1 4に設定される。 このよ うにするこ とによって、 受聴者は必要以上に余分な入力操作を行う必要がなく 、 個 人にと って満足な正確さで音像を定位させることができるという効果が ある。
さ らに、 最近では、 携帯電話機などの携帯機器にカメ ラが搭載されて おり、 手軽に人物の写真を撮影することができるようになつている。 こ のため今日では、 デジタルカメ ラで撮影された人物画像から、 その人の 頭部モデル _の寸法を得る技術なども開発されている。 図 3 2は、 携帯電 話機で撮影された人物の顔の画像から、 図 3 1 で示した設定入力部の入 力を補助する一例を示す図である。例えば、同図に示すような写真から、 完全に正確な値を期待することはできないが、 受聴者の両耳間距離や、 端末とユーザ (受聴者) との距離、 年齢、 性別などを判定することがで きる。 このよ うに、 写真から判定可能なデータは、 わざわざ受聴者の設 定入力を求めず、 写真から得られたデータを用いて、 パラメータの組を 決定するものと してもよい。 また、 将来、 携帯機器の高性能化によ り、 携帯機器の計算能力が飛躍的に向上した場合には、 携帯電話機の内蔵力 メラの機能も飛躍的に向上していることが考えられる。このような場合、 携帯電話機内蔵のカメラで撮影された画像に基づいて、 音像制御装置が 頭部モデルをモーフイングし、 各節点におけるポテンシャルを算出して メモ リ等に格納する。 音像制御装置は、 さらに、 格納されているポテン シャルを用いて頭部伝達関数を算出し、 写真の人物に最適な特性関数を 算出し、 算出された特性関数を補正フィルタに設定することも可能とな る。
図 3 3は、 正面から撮影された通常の人物写真では、 耳の形状が撮影 されにくいという点を補うために耳介部を撮影した写真に基づいて入力 補助を行う例を示した図である。 図 3 2に示したような正面から撮影さ れた人物写真では、人物の髪の毛や耳に対する撮影角度が原因となって、 その人物の耳 (耳介) の形状や、 耳の長さ、 頭部に対する耳介の角度お よび頭部に対する耳の位置などが、 写真からは判別できない場合が多く 発生する。 このため、 別途、 その人物の耳だけを撮影し、 図 3 2の正面 から撮影した写真から得られたデータと組み合わせて、 補正フィルタの パラメータの組を決定するための設定入力の補助と してもよい。 もちろ ん、 この 2つの写真から得られるデータのみで補正フィルタのパラメ一 タの組を決定すると してもよい。
図 3 4は、 同じ側の耳をステレオカメラまたは 2回撮りにより、 立体 的に撮影する場合の例を示す図である。 同図に示すように、 ステレオ力 メラもしくは 2回写真を撮ることにより、 耳介部の 3次元的なデータを 取得することができる。 これにより、 図 3 3に示した 1 回撮影による耳 介部の写真よりも、より有効なデータを得ることができる。この場合も、 図 3 2の正面から撮影した写真から得られたデータと組み合わせて、 補 正フィルタのパラメータの組を決定するための設定入力の補助と しても よいし、 2つの写真から得られるデータのみで補正フィルタのパラメ一 タの組を決定すると してもよい。 もちろん、 3回以上、 写真をとること によ り、 さ らに正確なデータ を取得することも可能である。
なお、 本発明の音像制御装置は、 図 3 0や図 3 1 に示した例とは異な リ、 設定入力される要素の組み合わせすべてについて補正フィルタの特 性関数を保持しておく 必要はなく 、 要素ごとに補正フィルタの特性関数 を保持しておく ものと してもよい。 図 3 5は、 音像制御装置またはそれ を内蔵する音響機器が、 設定入力される要素ごとに補正フィルタの特性 関数を保持している場合の処理手順の一例を示す図である。 なお、 ここ でも、 (設定 1 ) 年齢設定— (設定 2 ) 性別設定— (設定 3 ) 両耳間距離 設定— (設定 4 ) 耳の大きさ設定の順に、 設定の入力が受け付けられ、 受聴者は、 この順番に従って、 スピーカからの音を聞きながら設定入力 を行う場合について説明する。 例えば、 受聴者が年齢 Γ 3 0才 J という 入力を行う と、 年齢に対応したパラメータ (特性関数) の組のうちから 年齢 Γ 3 0才」 に対応するパラメータの組が読み出され、 補正フィルタ の 「年齢対応用フィルタ j にセッ 卜される。 次いで、 受聴者が性別 「女 性 J という入力を行う と、 性別に対応したパラメータ (特性関数) の組 のうちから性別 「女性」 に対応するパラメータの組が読み出され、 補正 フィルタの 「性別対応用フィルタ j にセッ トされる。 さ らに、 受聴者が 両耳間距離 「 1 5 0 m m」 という入力を行う と、 両耳間距離に対応した パラメータ (特性関数) の組のうちから両耳間距離 「 1 5 0 m m」 に対 応するパラメータの組が読み出され、 補正フィルタの 「両耳間距離対応 用フィルタ」 にセッ トされる。 例えば、 これまでの設定入力を終えたと ころで、 受聰者が、 設定が十分正し く 調整されたと感じた場合には、 こ こで設定入力を終了 し、 残りの (設定 4 ) 耳の大きさ設定によるパラメ 一タの組は、 元々 「耳の大きさ対応用フィルタ」 に設定されていたデフ オル トの値で O Kとする。 受聴者からの設定入力が O Kと されると、 音 像制御装置は、 補正フィルタ内部に設定されている 「年齢対応用フィル 夕」、 「性別対応用フィルタ」、 「両耳間距離対応用フィルタ」 および 「耳 の大きさ対応用フィルタ」 などにセッ トされた特性関数を合成し、 一組 のパラメータ (特性関数) の組を生成し、 補正フィルタ 1 3 および補正 フィルタ 1 4に設定する。 このよ うにするこ とによって、 年齢、 性別な どの要素の組によって決定されるパラメータの組のすべてを保持してお く 必要がなく 、 音像制御装置のメモリ容量を節約することができる。 図 3 6は、 音像制御装置を備える携帯電話機等が、 設定入力部などか ら入力されたデータ を、 イ ンタ一ネッ ト上のサーバに送信し、 送信した データ に基づく最適なパラメータの供給を受ける場合の一例を示す図で ある。 同図に示すように、 まず、 音像制御装置を備える携帯電話機等で は、 設定入力部などから年齢、 性別、 両耳間距離、 耳の大きさなどの値 を入 する。 受聴者が設定入力を完了すると、 音像制御装置は、 携帯電 話網などの通信回線を介して、 イ ンタ一ネッ ト上のベンダなどのサーバ に接続し、 設定入力された年齢、 性別、 両耳間距離、 耳の大きさなどの データ をサーバにアップロー ドする。 サーバは、 アップロー ドされた設 定値に基づき、 アップロー ドされた設定値を持つ受聴者に、 最適と判断 されるパラメータ を決定すると ともに、 決定されたパラメータの組をサ ーバ内のデータベースから読み出 して携帯電話機にダウンロー ドさせる。 このようにするこ とによって、 音像制御装置では多く のパラメータの組 を保持している必要がなく 、 メモリの負荷を低減することができる。 ま た、 サーバの側では、 大型コ ンピュータ システムを備えているので、 デ —タベースには、 それぞれの要素についてよ り詳細なデータ を保持して おく ことができる。例えば、携帯電話機に内蔵された音像制御装置では、 年齢設定については、 1 0才、 1 5才、 2 0才、 2 5才、 3 0才、 ' ■ - などのよ うに、 5才ずつイ ンク リ メ ン トするよ うな設定となるのに対し、 サーバ内のデータベースでは、 1 才ごとに異なるパラメータ を割り 当て るような設定を保持しておく ことができる。 従って、 携帯電話機では多 く のメモリ を必要と しない上、 よ り適合性の高いパラメータの組を得る ことができるという効果がある。
図 3 7 は、 音像制御装置を備える携帯電話機等が、 内蔵カメ ラなどで 撮影した画像データ を、 インターネッ ト上のサーバに送信し、 送信した 画像データに基づく最適なパラメータの供給を受ける場合の一例を示す 図である。 図 3 7 に示すよ うに、 年齢、 性別、 両耳間距離などの設定入 力の代わりに、 携帯電話機で撮影された写真の画像データ を、 サーバに 送信すると した場合であっても、 携帯電話機等においては、 メ モ リ容量 や C P Uの処理速度等のコ ンピュータ資源の点では、 サーバに比べて劣 つている。 従って、 携帯電話機等では、 同じ画像データ を解析する場合 でも、 サーバで解析する場合に比べて、 それほど詳細かつ正確なデータ を得ることができない。 それに対し、 図 3 6の場合と同様に、 サーバ側 のコンピュータ システムには、 アップロー ドされた画像データから、 よ リ正確なデータ を取得することができるソフ トウェアなどが十分に備え られている。 従って、 このようにすることによって、 音像制御装置を備 える携帯電話機の側では計算機と しての資源を節約しつつ、 よ り精度の 高いパラメータの組を取得し、 よ り精度の高い音像を定位させるこ とが できるという効果がある。
図 3 8は、 音像制御装置を備える携帯電話機等において、 パラメータ 設定のための受聴者個人の各要素を表示する表示部を備えた場合の一例 を示す図である。 携帯電話機の待ち受け画面には通常時には必ずしも表 示されなく てもよいアイコ ンなどがあるが、 例えば、 待ち受け中に、 音 像制御装置を利用 して音楽等を受聴している場合、図 3 8 に示すように、 表示部の下部に補正フィルタのパラメータ (特性関数) の組を決定した 自分個人の設定要素を表示するよ うにしてもよい。
同図では、 例えば、 受聴者が年齢 「 3 0代」 で、 性別が 「男性」 で、 両耳間距離が 「 1 5 c m」、 耳の大きさが Γ 5 c m」 であることが表示さ れている。 このように、 現在の設定状態を表示することによ り、 受聴者 は、 音像の定位の具合が気に入らない場合などには、 異なる値を用いて 微調整することも可能になるという効果がある。
図 3 9 ( a ) は、 上記実施の形態 1 〜 8で用いられたシミ ュ レーショ ンによる伝達関数の波形および位相特性を示すグラフである。 図 3 9 ( b ) は、 従来のように実測によって得られた伝達関数の波形および位 相特性を示すグラフである。 なお、 図 3 9 ( a ) および ( b ) の測定の ための入力音は、 全周波数に対してフラ ッ トなホワイ トノ イズである。 図 3 9 ( a ) に示すように、 本来の H R T Fであれば、 ホワイ トノ イズ であってもこのシミ ュ レーショ ンのように、 ある周波数で音圧が非常に 小さ く なつて しまうのに対し、 図 3 9 ( b ) の実測のグラフではこの周 波数付近でのばらつきが見られる。 これは、 すなわち、 実測ではこのよ うな誤差が含まれて しまう ことを意味している。 また、 図 3 9 ( b ) の 実測では、 周波数低域部の H R T Fに誤差による方向依存性が認められ る。 従って、 入力されるホワイ トノ イズを、 目的音源の位置でホワイ ト ノ イズと して出力させるための補正フィルタの特性関数には、 シミュ レ ーショ ンでは実測の約 1 4のタ ップで済む。
このよ うに、 本実施の形態 1 〜 8 によれば、 伝達関数を実測ではなく シミ ュ レーショ ンによって求めているので、 補正フィルタ を設計する際 の演算量が非常に少なく て済み、 この結果、 消費電力を低く 抑えること ができるという効果がある。 産業上の利用可能性
本発明の音像制御装置は、 音響再生装置を備える携帯電話機、 P D A などの携帯機器と して有用である。 また、 本発明の音像制御装置は、 バ 一チャルゲームなどを行うゲーム機に内蔵される音像制御装置と して有 用である。

Claims

1 - 音源から頭部受音点までの音の伝達特性を示す第 1 の伝達関数を フィルタ リングして、 前記音源とは異なる位置の目標音源から頭部受音 点までの音の伝達特性を示す第 2の伝達関数を生成する音像制御装置を 設計するための音像制御装置の設計ツールであって、
前記頭部受音点を発音点と し、 前記音源と前記目標音源とを受音点と して前記各伝達関数を求める伝達関数生成手段
を備えることを特徴とする音像制御装置の設計ツール。 囲
2 . 前記頭部受音点である前記発音点は、 ダミーヘッ ドを用いた 3次 元頭部モデルの外耳道入リ口近傍である
ことを特徴とする請求の範囲 1 記載の音像制御装置の設計ツール。
3 . 前記頭部受音点である前記発音点は、 ダミーヘッ ドを用いた 3次 元頭部モデルの鼓膜である
ことを特徴とする請求の範囲 1 記載の音像制御装置の設計ツール。
4 . 前記伝達関数生成手段は、
左右の前記発音点毎に、 3次元頭部モデルの表面上に設定されたメ ッ シュの各節点におけるポテンシャルを算出するポテンシャル算出部と、 前記ポテンシャル算出部に保持されたポテンシャルを合成して、 前記 第 1 の伝達関数を生成する第 1伝達関数生成部と、
前記ポテンシャル算出部に保持されたポテンシャルを合成して、 前記 第 2の伝達関数を生成する第 2伝達関数生成部と
を備えることを特徴とする請求の範囲 1 記載の音像制御装置の設計ッ ール。
5 . 前記音像制御装置の設計ツールは、 さらに、
前記第 1 の伝達関数をフィルタ リングして、 前記第 2の伝達関数に変 換するためのフィルタ リング特性関数を算出する特性関数算出部と、 算出された前記フィルタ リング特性関数を、 前記音像制御装置のフィ ルタに設定する特性関数設定手段と
を備えることを特徴とする請求の範囲 4記載の音像制御装置の設計ッ ール。
6 . 前記頭部モデルは、 各部のサイズが異なる複数のタイプを備え、 前記ポテンシャル算出部は、 前記タイプごとにポテンシャルを算出す る
ことを特徴とする請求の範囲 4記載の音像制御装置の設計ツール。
7 . 前記タイプの 1 つは、 頭部モデルの各部のサイズが、 あらかじめ 定められた集団における人体寸法の統計値の平均値に定められている ことを特徴とする請求の範囲 6記載の音像制御装置の設計ツール。
8 . 前記タイプは、 頭部モデルの各部のサイズが、 少なく ともあらか じめ定められた集団における性別の異なる人体寸法の統計値に定められ ている
ことを特徴とする請求の範囲 6記載の音像制御装置の設計ツール。
9 . 前記タイプは、 頭部モデルの各部のサイズが、 少なく ともあらか じめ定められた集団における年齢の異なる人体寸法の統計値に定められ ている
ことを特徴とする請求の範囲 6記載の音像制御装置の設計ツール。
1 0 . 前記タイプは、 頭部モデルの各部のサイズが、 少なく ともあら かじめ定められた集団における何段階かに区切られた人体寸法の頭部の 幅、 頭部の高さ、 または頭部の奥行きのいずれかごとに定められている ことを特徴とする請求の範囲 6記載の音像制御装置の設計ツール。
1 1 . 前記タイプは、 頭部モデルの各部のサイズが、 少なく ともあら かじめ定められた集団における何段階かに区切られた耳介の外形を表す 耳介各部の寸法に応じて定められている
ことを特徴とする請求の範囲 6記載の音像制御装置の設計ツール。
1 2 . 前記音像制御装置の設計ツールは、 さらに、
前記第 1 の伝達関数をフィルタ リングして、 前記第 2の伝達関数に変 換するためのフィルタ リング特性関数を、 前記タイプごとに算出するタ ィプ别特性関数算出部と、
算出された前記フィルタ リング特性関数を、 前記タイプごとに前記音 像制御装置 ,の前記音像制御装置のメモリに格納するタィプ别特性関数設 定手段と
を備えることを特徴とする請求の範囲 6記載の音像制御装置の設計ッ ール
1 3 . 前記伝達関数生成手段は、
左右の前記発音点毎に、 3次元頭部モデルの表面上に設定されたメ ッ シュの各節点におけるポテンシャルを算出するポテンシャル算出部を備 え、
前記音像制御装置の設計ツールは、 さらに、 算出された前記ポテンシ ャルデータを、 前記音像制御装置のメモリに格納するポテンシャル格納 手段と
を備えることを特徴とする請求の範囲 1 記載の音像制御装置の設計ッ —ル。
1 4 . 音源から頭部受音点までの音の伝達特性を示す第 1 の伝達関数 をフィルタ リ ングして、 前記音源とは異なる位置の目標音源から頭部受 音点までの音の伝達特性を示す第 2の伝達関数を生成する音像制御装置 であって、
前記第 1 の伝達関数をフィルタ リング演算するための特性関数を格納 している特性関数格納手段と、
前記特性関数格納手段に格納されている前記特性関数を用いて、 前記 第 1 の伝達関数から、 前記第 2の伝達関数を生成する第 2伝達関数生成 手段と
を備えることを特徴とする音像制御装置。
1 5 . 煎記特性関数は、 頭部各部のサイズが異なる複数のタイプの頭 部モデルに基づいて算出され、
前記特性関数格納手段は、 前記タイプごとに前記特性関数を格納し、 前記音像制御装置は、 さらに、
前記タイプの 1 つを決定する要素の入力を受聴者から受け付ける要素 入力手段を備え、
前記第 2伝達関数生成手段は、 入力により決定された前記タイプに対 応する特性関数を用いて、 前記第 2の伝達関数を生成する ことを特徴とする請求の範囲 1 4記載の音像制御装置。
1 6 . 前記タイプの 1 つは、 頭部モデルの各部のサイズが、 あらかじ め定められた集団における人体寸法の統計値の平均値に定められている ことを特徴とする請求の範囲 1 5記載の音像制御装置。
1 7 . 前記タイプは、 頭部モデルの各部のサイズが、 少なく ともあら かじめ定められた集団における性別の異なる人体寸法の統計値に定めら れている
ことを特徴とする請求の範囲 1 5記載の音像制御装置。
1 8 . 前記タイプは、 頭部モデルの各部のサイズが、 少なく ともあら かじめ定められた集団における年齢の異なる人体寸法の統計値に定めら れている
ことを特徴とする請求の範囲 1 5記載の音像制御装置。
1 9 . 前記タイプは、 頭部モデルの各部のサイズが、 少なく ともあら かじめ定められた集団における何段階かに区切られた人体寸法の頭部の 幅、 頭部の高さ、 または頭部の奥行きのいずれかごとに定められている ことを特徴とする請求の範囲 1 5記載の音像制御装置。
2 0 . 前記タイプは、 頭部モデルの各部のサイズが、 少なく ともあら かじめ定められた集団における何段階かに区切られた耳介の外形を表す 耳介各部の寸法に応じて定められている
ことを特徴とする請求の範囲 1 5記載の音像制御装置。
2 1 . 画像を撮影するデジタルカメラと、 電気信号を音に変換する音 響変換器と、 前記音響変換器である音源から頭部受音点までの音の伝達 特性を示す第 1 の伝達関数をフィルタ リ ングして、 前記音源とは異なる 位置の目標音源から頭部受音点までの音の伝達特性を示す第 2の伝達関 数を生成する音像制御装置とを備える携帯機器であって、
前記音像制御装置は、 前記第 1 の伝達関数をフィルタ リング演算する ための特性関数を、 頭部各部のサイズが異なる複数のタイプごとに保持 し、
前記携帯機器は、 さらに、
前記デジタルカメラによって撮影された受聴者の人物写真から、 前記 受聴者の頭部の各部のサイズを解析するサイズ解析手段を備え、 前記音像制御装置は、 解析された頭部のサイズに基づいて、 前記タイ プの 1 つを決定し、 決定されたタイプの特性関数を用いて前記第 1 の伝 達関数をフィルタ リングして、 前記第 2の伝達関数によって伝達される 音を前記音響変換器に発生させる
ことを特徴とする携帯機器。
PCT/JP2004/013091 2003-09-08 2004-09-02 音像制御装置の設計ツールおよび音像制御装置 WO2005025270A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US10/554,595 US7664272B2 (en) 2003-09-08 2004-09-02 Sound image control device and design tool therefor
CN2004800109456A CN1778143B (zh) 2003-09-08 2004-09-02 声像控制装置的设计工具及声像控制装置
EP04772905A EP1667487A4 (en) 2003-09-08 2004-09-02 AUDIO PICTURE DEVICE DEVICE TOOL AND AUDIO PICTURE CONTROLLER
JP2005513719A JPWO2005025270A1 (ja) 2003-09-08 2004-09-02 音像制御装置の設計ツールおよび音像制御装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2003-315393 2003-09-08
JP2003315393 2003-09-08

Publications (1)

Publication Number Publication Date
WO2005025270A1 true WO2005025270A1 (ja) 2005-03-17

Family

ID=34269828

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2004/013091 WO2005025270A1 (ja) 2003-09-08 2004-09-02 音像制御装置の設計ツールおよび音像制御装置

Country Status (6)

Country Link
US (1) US7664272B2 (ja)
EP (1) EP1667487A4 (ja)
JP (1) JPWO2005025270A1 (ja)
KR (1) KR20060059866A (ja)
CN (1) CN1778143B (ja)
WO (1) WO2005025270A1 (ja)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009508385A (ja) * 2005-09-13 2009-02-26 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 3次元音声を生成する方法及び装置
US8137836B2 (en) 2006-10-24 2012-03-20 Samsung Sdi Co., Ltd. Lithium rechargeable battery with resin molding part and outer covers
JP2013524711A (ja) * 2010-04-12 2013-06-17 アルカミス データベース内の知覚的に最適なhrtfフィルタを形態学的パラメータに従って選択するための方法
JP2013168924A (ja) * 2011-12-30 2013-08-29 Gn Resound As 頭部伝達関数を決定するシステムおよび方法
CN103987002A (zh) * 2013-03-23 2014-08-13 卫晟 全息录音技术
CN104284286A (zh) * 2013-07-04 2015-01-14 Gn瑞声达A/S 个体hrtf的确定
WO2017047309A1 (ja) * 2015-09-14 2017-03-23 ヤマハ株式会社 耳形状解析方法、耳形状解析装置および耳形状モデル生成方法
WO2017047116A1 (ja) * 2015-09-14 2017-03-23 ヤマハ株式会社 耳形状解析装置、情報処理装置、耳形状解析方法、および情報処理方法
WO2017195616A1 (ja) * 2016-05-11 2017-11-16 ソニー株式会社 情報処理装置および方法
WO2018235880A1 (ja) * 2017-06-22 2018-12-27 花王株式会社 温熱具
KR20190130845A (ko) * 2018-05-15 2019-11-25 한국표준과학연구원 양이 응답 측정을 위한 더미헤드 장치 및 시스템
JP2019536395A (ja) * 2016-11-13 2019-12-12 エンボディーヴィーアール、インコーポレイテッド 耳介の画像を撮像し、耳介の画像を用いて人間の聴覚の解剖学的構造の特徴を示すためのシステムおよび方法

Families Citing this family (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006180467A (ja) * 2004-11-24 2006-07-06 Matsushita Electric Ind Co Ltd 音像定位装置
FR2880755A1 (fr) * 2005-01-10 2006-07-14 France Telecom Procede et dispositif d'individualisation de hrtfs par modelisation
WO2007048900A1 (fr) * 2005-10-27 2007-05-03 France Telecom Individualisation de hrtfs utilisant une modelisation par elements finis couplee a un modele correctif
US8483416B2 (en) * 2006-07-12 2013-07-09 Phonak Ag Methods for manufacturing audible signals
KR101368859B1 (ko) * 2006-12-27 2014-02-27 삼성전자주식회사 개인 청각 특성을 고려한 2채널 입체 음향 재생 방법 및장치
DK2109934T3 (en) * 2007-01-04 2016-08-15 Cvf Llc CUSTOMIZED SELECTION OF AUDIO PROFILE IN SOUND SYSTEM
KR100954385B1 (ko) * 2007-12-18 2010-04-26 한국전자통신연구원 개인화된 머리전달함수를 이용한 3차원 오디오 신호 처리장치 및 그 방법과, 그를 이용한 고현장감 멀티미디어 재생시스템
US8489371B2 (en) * 2008-02-29 2013-07-16 France Telecom Method and device for determining transfer functions of the HRTF type
US8428269B1 (en) * 2009-05-20 2013-04-23 The United States Of America As Represented By The Secretary Of The Air Force Head related transfer function (HRTF) enhancement for improved vertical-polar localization in spatial audio systems
US20120183161A1 (en) * 2010-09-03 2012-07-19 Sony Ericsson Mobile Communications Ab Determining individualized head-related transfer functions
DE102011003450A1 (de) * 2011-02-01 2012-08-02 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Erzeugung von benutzerangepassten Signalverarbeitungsparametern
US20130177166A1 (en) * 2011-05-27 2013-07-11 Sony Ericsson Mobile Communications Ab Head-related transfer function (hrtf) selection or adaptation based on head size
US9025779B2 (en) * 2011-08-08 2015-05-05 Cisco Technology, Inc. System and method for using endpoints to provide sound monitoring
EP2611216B1 (en) * 2011-12-30 2015-12-16 GN Resound A/S Systems and methods for determining head related transfer functions
KR101977329B1 (ko) 2012-07-30 2019-05-13 삼성전자주식회사 음성 신호 출력 제어 방법 및 장치
CN103634561A (zh) * 2012-08-21 2014-03-12 徐丙川 会议通信装置和系统
WO2014146668A2 (en) * 2013-03-18 2014-09-25 Aalborg Universitet Method and device for modelling room acoustic based on measured geometrical data
JP5762505B2 (ja) * 2013-10-23 2015-08-12 京セラ株式会社 耳型部、人工頭部及びこれらを用いた測定システムならびに測定方法
CN104064191B (zh) * 2014-06-10 2017-12-15 北京音之邦文化科技有限公司 混音方法及装置
US9424828B2 (en) * 2014-08-01 2016-08-23 Bose Corporation System and method of microphone placement for noise attenuation
CN104135653A (zh) * 2014-08-15 2014-11-05 魏鹏 一种声源定位与视频联动平台
EP3001701B1 (en) 2014-09-24 2018-11-14 Harman Becker Automotive Systems GmbH Audio reproduction systems and methods
CN104581602B (zh) * 2014-10-27 2019-09-27 广州酷狗计算机科技有限公司 录音数据训练方法、多轨音频环绕方法及装置
KR20160122029A (ko) * 2015-04-13 2016-10-21 삼성전자주식회사 스피커 정보에 기초하여, 오디오 신호를 처리하는 방법 및 장치
US9838646B2 (en) * 2015-09-24 2017-12-05 Cisco Technology, Inc. Attenuation of loudspeaker in microphone array
US9591427B1 (en) * 2016-02-20 2017-03-07 Philip Scott Lyren Capturing audio impulse responses of a person with a smartphone
JP6701824B2 (ja) * 2016-03-10 2020-05-27 株式会社Jvcケンウッド 測定装置、フィルタ生成装置、測定方法、及びフィルタ生成方法
CN107786936A (zh) * 2016-08-25 2018-03-09 中兴通讯股份有限公司 一种声音信号的处理方法及终端
US20180115854A1 (en) * 2016-10-26 2018-04-26 Htc Corporation Sound-reproducing method and sound-reproducing system
US10701506B2 (en) 2016-11-13 2020-06-30 EmbodyVR, Inc. Personalized head related transfer function (HRTF) based on video capture
EP3588987A4 (en) * 2017-02-24 2020-01-01 JVC KENWOOD Corporation FILTER GENERATION DEVICE, FILTER GENERATION METHOD AND PROGRAM
JP7047850B2 (ja) * 2017-12-19 2022-04-05 株式会社ソシオネクスト 音響システム、音響制御装置及び制御プログラム
WO2019138647A1 (ja) * 2018-01-11 2019-07-18 ソニー株式会社 音響処理装置と音響処理方法およびプログラム
WO2019146254A1 (ja) * 2018-01-29 2019-08-01 ソニー株式会社 音響処理装置、音響処理方法及びプログラム
CN108430003B (zh) * 2018-03-30 2020-01-14 Oppo广东移动通信有限公司 音效补偿方法和装置、可读存储介质、终端
EP3827603A1 (en) 2018-07-25 2021-06-02 Dolby Laboratories Licensing Corporation Personalized hrtfs via optical capture
US11115773B1 (en) * 2018-09-27 2021-09-07 Apple Inc. Audio system and method of generating an HRTF map
US10957299B2 (en) * 2019-04-09 2021-03-23 Facebook Technologies, Llc Acoustic transfer function personalization using sound scene analysis and beamforming
JP7342451B2 (ja) * 2019-06-27 2023-09-12 ヤマハ株式会社 音声処理装置および音声処理方法
US11778408B2 (en) 2021-01-26 2023-10-03 EmbodyVR, Inc. System and method to virtually mix and audition audio content for vehicles
WO2023143727A1 (en) * 2022-01-28 2023-08-03 Huawei Technologies Co., Ltd. Devices and methods for personalized binaural audio rendering

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2548103B2 (ja) * 1982-05-26 1996-10-30 松下電器産業株式会社 音響再生装置
JPH09298800A (ja) * 1996-05-08 1997-11-18 Hitachi Ltd 音響音声再生装置
JP2001016697A (ja) * 1999-05-29 2001-01-19 Central Res Lab Ltd 原頭部関連伝達関数を修正する方法および装置
JP2001285998A (ja) * 2000-03-29 2001-10-12 Oki Electric Ind Co Ltd 頭外音像定位装置
JP2002095098A (ja) * 2000-09-19 2002-03-29 Matsushita Electric Ind Co Ltd 音響再生装置
JP2002095097A (ja) * 2000-09-19 2002-03-29 Oki Electric Ind Co Ltd 適応信号処理システム
JP2003102099A (ja) * 2001-07-19 2003-04-04 Matsushita Electric Ind Co Ltd 音像定位装置
JP2003230199A (ja) * 2002-02-04 2003-08-15 Yamaha Corp バーチャルスピーカアンプ
JP2004526364A (ja) * 2001-03-05 2004-08-26 ビーイーフォー リミッテッド 3次元音響環境をシミュレートするための方法とシステム

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DK0912077T3 (da) * 1994-02-25 2002-02-18 Henrik Moller Binaural syntese, head-related transfer functions samt anvendelser deraf
JP3266020B2 (ja) * 1996-12-12 2002-03-18 ヤマハ株式会社 音像定位方法及び装置
GB9726338D0 (en) * 1997-12-13 1998-02-11 Central Research Lab Ltd A method of processing an audio signal
GB9805534D0 (en) * 1998-03-17 1998-05-13 Central Research Lab Ltd A method of improving 3d sound reproduction
US6996244B1 (en) * 1998-08-06 2006-02-07 Vulcan Patents Llc Estimation of head-related transfer functions for spatial sound representative
US6223090B1 (en) * 1998-08-24 2001-04-24 The United States Of America As Represented By The Secretary Of The Air Force Manikin positioning for acoustic measuring
EP1028583A1 (en) * 1999-02-12 2000-08-16 Hewlett-Packard Company Digital camera with sound recording
JP2001067463A (ja) * 1999-06-22 2001-03-16 Nadeisu:Kk 異なる視点からの複数のフェイシャル画像に基づき新たな視点からのフェイシャル画像を生成するフェイシャル画像生成装置及び方法並びにその応用装置及び記録媒体
JP3624771B2 (ja) * 1999-12-08 2005-03-02 三菱ふそうトラック・バス株式会社 車体の吸遮音性能計測装置
JP2002043224A (ja) 2000-07-18 2002-02-08 Applied Materials Inc アダプター、チャンバ及びプラズマ処理装置
EP1368986B1 (en) 2001-03-02 2011-12-28 3Shape A/S Method for modelling customised earpieces
US6956955B1 (en) * 2001-08-06 2005-10-18 The United States Of America As Represented By The Secretary Of The Air Force Speech-based auditory distance display
US6961439B2 (en) * 2001-09-26 2005-11-01 The United States Of America As Represented By The Secretary Of The Navy Method and apparatus for producing spatialized audio signals

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2548103B2 (ja) * 1982-05-26 1996-10-30 松下電器産業株式会社 音響再生装置
JPH09298800A (ja) * 1996-05-08 1997-11-18 Hitachi Ltd 音響音声再生装置
JP2001016697A (ja) * 1999-05-29 2001-01-19 Central Res Lab Ltd 原頭部関連伝達関数を修正する方法および装置
JP2001285998A (ja) * 2000-03-29 2001-10-12 Oki Electric Ind Co Ltd 頭外音像定位装置
JP2002095098A (ja) * 2000-09-19 2002-03-29 Matsushita Electric Ind Co Ltd 音響再生装置
JP2002095097A (ja) * 2000-09-19 2002-03-29 Oki Electric Ind Co Ltd 適応信号処理システム
JP2004526364A (ja) * 2001-03-05 2004-08-26 ビーイーフォー リミッテッド 3次元音響環境をシミュレートするための方法とシステム
JP2003102099A (ja) * 2001-07-19 2003-04-04 Matsushita Electric Ind Co Ltd 音像定位装置
JP2003230199A (ja) * 2002-02-04 2003-08-15 Yamaha Corp バーチャルスピーカアンプ

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"nen shuki kenkyu happyokai koen ronbunshu -I- (JP)", THE ACOUSTICAL SOCIETY OF JAPAN (ASJ), 2 October 2001 (2001-10-02), pages 403 - 404, XP002985764 *
See also references of EP1667487A4 *

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009508385A (ja) * 2005-09-13 2009-02-26 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 3次元音声を生成する方法及び装置
US8137836B2 (en) 2006-10-24 2012-03-20 Samsung Sdi Co., Ltd. Lithium rechargeable battery with resin molding part and outer covers
JP2013524711A (ja) * 2010-04-12 2013-06-17 アルカミス データベース内の知覚的に最適なhrtfフィルタを形態学的パラメータに従って選択するための方法
JP2013168924A (ja) * 2011-12-30 2013-08-29 Gn Resound As 頭部伝達関数を決定するシステムおよび方法
CN103987002A (zh) * 2013-03-23 2014-08-13 卫晟 全息录音技术
CN104284286B (zh) * 2013-07-04 2019-01-04 Gn瑞声达A/S 个体hrtf的确定
CN104284286A (zh) * 2013-07-04 2015-01-14 Gn瑞声达A/S 个体hrtf的确定
WO2017047309A1 (ja) * 2015-09-14 2017-03-23 ヤマハ株式会社 耳形状解析方法、耳形状解析装置および耳形状モデル生成方法
WO2017047116A1 (ja) * 2015-09-14 2017-03-23 ヤマハ株式会社 耳形状解析装置、情報処理装置、耳形状解析方法、および情報処理方法
US10390167B2 (en) 2015-09-14 2019-08-20 Yamaha Corporation Ear shape analysis device and ear shape analysis method
WO2017195616A1 (ja) * 2016-05-11 2017-11-16 ソニー株式会社 情報処理装置および方法
US10798516B2 (en) 2016-05-11 2020-10-06 Sony Corporation Information processing apparatus and method
JP2019536395A (ja) * 2016-11-13 2019-12-12 エンボディーヴィーアール、インコーポレイテッド 耳介の画像を撮像し、耳介の画像を用いて人間の聴覚の解剖学的構造の特徴を示すためのシステムおよび方法
WO2018235880A1 (ja) * 2017-06-22 2018-12-27 花王株式会社 温熱具
JPWO2018235880A1 (ja) * 2017-06-22 2020-05-21 花王株式会社 温熱具
JP7062650B2 (ja) 2017-06-22 2022-05-06 花王株式会社 温熱具
TWI788374B (zh) * 2017-06-22 2023-01-01 日商花王股份有限公司 溫熱器具
KR20190130845A (ko) * 2018-05-15 2019-11-25 한국표준과학연구원 양이 응답 측정을 위한 더미헤드 장치 및 시스템
KR102053995B1 (ko) * 2018-05-15 2019-12-12 한국표준과학연구원 양이 응답 측정을 위한 더미헤드 장치 및 시스템

Also Published As

Publication number Publication date
US20060274901A1 (en) 2006-12-07
EP1667487A1 (en) 2006-06-07
CN1778143A (zh) 2006-05-24
KR20060059866A (ko) 2006-06-02
EP1667487A4 (en) 2010-07-14
JPWO2005025270A1 (ja) 2006-11-16
US7664272B2 (en) 2010-02-16
CN1778143B (zh) 2010-11-24

Similar Documents

Publication Publication Date Title
WO2005025270A1 (ja) 音像制御装置の設計ツールおよび音像制御装置
US10939225B2 (en) Calibrating listening devices
US11706582B2 (en) Calibrating listening devices
CN108885690B (zh) 用于产生头相关传递函数滤波器的方法、设备和计算机可读介质
US8270616B2 (en) Virtual surround for headphones and earbuds headphone externalization system
CN106664501A (zh) 基于所通知的空间滤波的一致声学场景再现的系统、装置和方法
CN111295896B (zh) 在扬声器的任意集合上的基于对象的音频的虚拟渲染
WO2006067893A1 (ja) 音像定位装置
US7921016B2 (en) Method and device for providing 3D audio work
JP6730568B2 (ja) 立体音再生装置およびプログラム
JP2021523392A (ja) シミュレーションを使用した頭部伝達関数の個人化
Kates et al. Externalization of remote microphone signals using a structural binaural model of the head and pinna
Harder et al. A framework for geometry acquisition, 3-D printing, simulation, and measurement of head-related transfer functions with a focus on hearing-assistive devices
US20220279304A1 (en) Method and system for head-related transfer function adaptation
Vorländer Virtual acoustics: opportunities and limits of spatial sound reproduction
Duraiswami et al. Capturing and recreating auditory virtual reality
CN111213390B (zh) 声音转换器
Dodds et al. Full Reviewed Paper at ICSA 2019
Otani et al. Dynamic crosstalk cancellation for spatial audio reproduction
WO2023143727A1 (en) Devices and methods for personalized binaural audio rendering
CN117202001A (zh) 一种基于骨导设备的声像虚拟外化方法

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 2005513719

Country of ref document: JP

AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2004772905

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 1020057018071

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 20048109456

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 2006274901

Country of ref document: US

Ref document number: 10554595

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 1020057018071

Country of ref document: KR

WWP Wipo information: published in national office

Ref document number: 2004772905

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 10554595

Country of ref document: US