WO2017163940A1 - 音響処理方法および音響処理装置 - Google Patents

音響処理方法および音響処理装置 Download PDF

Info

Publication number
WO2017163940A1
WO2017163940A1 PCT/JP2017/009799 JP2017009799W WO2017163940A1 WO 2017163940 A1 WO2017163940 A1 WO 2017163940A1 JP 2017009799 W JP2017009799 W JP 2017009799W WO 2017163940 A1 WO2017163940 A1 WO 2017163940A1
Authority
WO
WIPO (PCT)
Prior art keywords
head
acoustic signal
range
sound source
point
Prior art date
Application number
PCT/JP2017/009799
Other languages
English (en)
French (fr)
Inventor
司 末永
太 白木原
Original Assignee
ヤマハ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ヤマハ株式会社 filed Critical ヤマハ株式会社
Priority to EP17769984.0A priority Critical patent/EP3435690B1/en
Priority to CN201780017507.XA priority patent/CN108781341B/zh
Publication of WO2017163940A1 publication Critical patent/WO2017163940A1/ja
Priority to US16/135,644 priority patent/US10708705B2/en
Priority to US16/922,529 priority patent/US10972856B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • H04S7/303Tracking of listener position or orientation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S1/00Two-channel systems
    • H04S1/007Two-channel systems in which the audio signals are in digital form
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/01Multi-channel, i.e. more than two input channels, sound reproduction with two speakers wherein the multi-channel information is substantially preserved
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/11Positioning of individual sound objects, e.g. moving airplane, within a sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/01Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/02Systems employing more than two channels, e.g. quadraphonic of the matrix type, i.e. in which input signals are combined algebraically, e.g. after having been phase shifted with respect to each other

Definitions

  • the present invention relates to a technique for processing an acoustic signal representing sound such as musical sound and voice.
  • Patent Document 1 discloses a configuration in which a head-related transfer characteristic from one point sound source located around a listening point to the listener's ear position at the listening point is imparted to the acoustic signal.
  • an object of the present invention is to make a listener perceive a spatial expansion of a virtual sound source.
  • the acoustic processing method sets a size of a virtual sound source, and a range corresponding to the set size among a plurality of points whose positions with respect to a listening point are different.
  • a second acoustic signal is generated by assigning a plurality of head-related transfer characteristics corresponding to each point in the first acoustic signal.
  • the acoustic processing method sets a size of a virtual sound source, and for each of the plurality of sizes of the virtual sound source, a range according to the size among a plurality of points at different positions with respect to a listening point
  • a composite transfer characteristic corresponding to the set size is acquired from a plurality of composite transfer characteristics generated by combining a plurality of head transfer characteristics corresponding to each point in the area, and the acquired combined transfer characteristic is used as the first sound.
  • a 2nd acoustic signal is produced
  • the acoustic processing device is within a range corresponding to the size set by the setting processing unit among a plurality of points whose positions with respect to the listening point are different from the setting processing unit that sets the size of the virtual sound source.
  • generates a 2nd acoustic signal by providing the several acoustic transmission characteristic corresponding to each point of this to a 1st acoustic signal is comprised.
  • the acoustic processing device includes a setting processing unit configured to set a size of a virtual sound source, and a size of a plurality of sizes of the virtual sound source, of a plurality of points at different positions with respect to a listening point.
  • a characteristic acquisition unit that acquires a combined transfer characteristic corresponding to the size set by the setting processing unit from a plurality of combined transfer characteristics generated by combining a plurality of head transfer characteristics corresponding to each point within a range according to And a characteristic applying unit that generates the second acoustic signal by applying the combined transfer characteristic acquired by the characteristic acquiring unit to the first acoustic signal.
  • FIG. 1 is a configuration diagram of a sound processing apparatus according to a first embodiment of the present invention. It is explanatory drawing of a head transmission characteristic and a virtual sound source. It is a block diagram of a signal processing part. It is a flowchart of a sound image localization process. It is explanatory drawing of the relationship between a target range and a virtual sound source. It is explanatory drawing of the relationship between a target range and the weight value of each head transmission characteristic. It is a block diagram of the signal processing part in 2nd Embodiment. It is explanatory drawing of operation
  • FIG. 1 is a configuration diagram of a sound processing apparatus 100 according to the first embodiment of the present invention.
  • the sound processing apparatus 100 according to the first embodiment is realized by a computer system including a control device 12, a storage device 14, and a sound emission device 16.
  • the acoustic processing device 100 can be realized by a portable information communication terminal such as a mobile phone or a smartphone, a portable game device, or a portable or stationary information processing device such as a personal computer.
  • the control device 12 is configured by a processing circuit such as a CPU (Central Processing Unit), for example, and comprehensively controls each element of the sound processing device 100.
  • the control apparatus 12 of 1st Embodiment produces
  • the sound signal Y is a stereo time signal including a right channel sound signal YR and a left channel sound signal YL.
  • the storage device 14 stores a program executed by the control device 12 and various data used by the control device 12.
  • a known recording medium such as a semiconductor recording medium or a magnetic recording medium, or a combination of a plurality of types of recording media can be used as the storage device 14.
  • the sound emitting device 16 is an acoustic device (for example, stereo headphones or stereo earphones) worn on both ears of the listener, and sounds according to the acoustic signal Y generated by the control device 12 are emitted to the ear holes of the listener. To do. A listener who has listened to the reproduced sound from the sound emitting device 16 perceives localization of a virtual sound source (hereinafter referred to as “virtual sound source”).
  • virtual sound source hereinafter referred to as “virtual sound source”.
  • the control device 12 executes a program stored in the storage device 14 to generate a plurality of functions (an acoustic generation unit 22, a setting processing unit 24, and a signal for generating the acoustic signal Y).
  • the processing unit 26A is realized.
  • a configuration in which the functions of the control device 12 are distributed to a plurality of devices, or a configuration in which a dedicated electronic circuit realizes part or all of the functions of the control device 12 may be employed.
  • the acoustic generation unit 22 generates an acoustic signal X (an example of the first acoustic signal) representing various types of sounds generated by the virtual sound source (sound image).
  • the acoustic signal X of the first embodiment is a monaural time signal.
  • sound generated by a character such as a monster that exists in the virtual space, or a structure (for example, a factory) or a natural object (for example, a waterfall or a sea) installed in the virtual space.
  • the sound generation unit 22 generates a sound signal X representing a sound effect or the like generated at any time in conjunction with the progress of the video game.
  • a signal supply device (not shown) connected to the sound processing device 100 can also generate the sound signal X.
  • the signal supply device is, for example, a playback device that reads the acoustic signal X from various recording media, or a communication device that receives the acoustic signal X from another device via a communication network.
  • the setting processing unit 24 sets conditions for the virtual sound source.
  • the setting processing unit 24 of the first embodiment sets the position P and the size Z of the virtual sound source.
  • the position P is, for example, a relative position of the virtual sound source with respect to the listening point in the virtual space, and is specified by, for example, a coordinate value of a three-axis orthogonal coordinate system set in the virtual space.
  • the size Z is the size of the virtual sound source in the virtual space.
  • the setting processing unit 24 designates the position P and the size Z of the virtual sound source as needed in conjunction with the generation of the acoustic signal X by the acoustic generation unit 22.
  • the signal processing unit 26A generates an acoustic signal Y from the acoustic signal X generated by the acoustic generation unit 22.
  • the signal processing unit 26A of the first embodiment executes signal processing (hereinafter referred to as “sound image localization processing”) using the virtual sound source position P and size Z set by the setting processing unit 24.
  • the signal processing unit 26A performs the acoustic signal X so that a virtual sound source of size Z that generates the sound of the acoustic signal X (that is, a planar or stereoscopic sound image) is localized at the position P with respect to the listener.
  • the sound signal Y is generated by the sound image localization processing for.
  • FIG. 2 is an explanatory diagram of the head-related transfer characteristic H.
  • the head-related transfer characteristic H for the right ear and the left ear for each of a plurality of points p set on a curved surface (hereinafter referred to as “reference plane”) F located around the listening point p0. are stored in the storage device 14.
  • the reference plane F is, for example, a hemispherical surface with the listening point p0 as the center.
  • One point p on the reference plane F is defined by the azimuth angle and the elevation angle with respect to the listening point p0.
  • a virtual sound source V is set in a space outside the reference plane F (opposite the listening point p0).
  • the head-related transfer characteristic H for the right ear corresponding to any one point p on the reference plane F indicates that the sound generated from the point sound source located at the point p is the sound of the right ear of the listener at the listening point p0. This is a transfer characteristic until the ear position eR is reached.
  • the head-related transfer characteristic H for the left ear corresponding to any one point p is the ear position of the listener's left ear at the listening point p0 when the sound generated from the point sound source located at the point p is heard. It is a transfer characteristic until it reaches eL.
  • the ear position eR and the ear position eL mean, for example, the point of the ear hole of each ear of the listener located at the listening point p0.
  • the head-related transfer characteristic H of the first embodiment is represented by a time-domain head impulse response (HRIR: Head-Related Impulse Response). That is, the head-related transfer characteristic H is expressed by time-series data of samples representing the waveform of the head impulse response.
  • HRIR Head-Related Impulse Response
  • FIG. 3 is a configuration diagram of the signal processing unit 26A in the first embodiment.
  • the signal processing unit 26 ⁇ / b> A of the first embodiment includes a range setting unit 32, a characteristic synthesis unit 34, and a characteristic providing unit 36.
  • the range setting unit 32 sets a target range A corresponding to the virtual sound source V.
  • the target range A of the first embodiment is a variable range according to the position P and the size Z of the virtual sound source V set by the setting processing unit 24.
  • the head-related transfer characteristics (hereinafter referred to as “composite transfer characteristics”) Q reflecting the N head-related transfer characteristics H are generated.
  • the characteristic providing unit 36 generates the acoustic signal Y by adding the combined transfer characteristic Q generated by the characteristic combining unit 34 to the acoustic signal X. That is, the acoustic signal Y reflecting the N head-related transfer characteristics H according to the position P and the size Z of the virtual sound source V is generated.
  • FIG. 4 is a flowchart of sound image localization processing executed by the signal processing unit 26A (the range setting unit 32, the characteristic synthesis unit 34, and the characteristic addition unit 36).
  • the sound image localization process of FIG. 4 is executed in response to the supply of the sound signal X by the sound generation unit 22 and the setting of the virtual sound source V by the setting processing unit 24. Sound image localization processing is executed in parallel or sequentially for each of the listener's right ear (right channel) and left ear (left channel).
  • the range setting unit 32 sets the target range A (SA1).
  • the target range A is a variable range defined on the reference plane F according to the position P and the size Z of the virtual sound source V set by the setting processing unit 24 as illustrated in FIG.
  • the range setting unit 32 of the first embodiment defines a range in which the virtual sound source V is projected on the reference plane F as the target range A. Since the relative relationship with respect to the virtual sound source V differs between the ear position eR and the ear position eL, the target range A is individually set for the right ear and the left ear.
  • FIG. 5 is an explanatory diagram of the relationship between the target range A and the virtual sound source V.
  • FIG. 5 shows a planar state in which the virtual space is observed from above in the vertical direction.
  • the range setting unit 32 of the first embodiment sees the virtual sound source V in the reference plane F with the ear position eL of the left ear of the listener located at the listening point p0 as the projection center.
  • the projected range is defined as the target range A of the left ear. That is, the closed region surrounded by the locus of the intersection of the straight line that passes through the left ear position eL and touches the surface of the virtual sound source V and the reference plane F is defined as the target range A of the left ear.
  • the range setting unit 32 defines, as the right ear target range A, a range obtained by perspectively projecting the virtual sound source V on the reference plane F with the ear position eR of the listener's right ear as the projection center. Therefore, the position and area of the target range A vary according to the position P and the size Z of the virtual sound source V. For example, if the position P of the virtual sound source V is the same, the area of the target range A increases as the size Z of the virtual sound source V increases. If the size Z of the virtual sound source V is the same, the area of the target range A decreases as the position P of the virtual sound source V is farther from the listening point p0. The number N of points p in the target range A also varies according to the position P and size Z of the virtual sound source V.
  • the range setting unit 32 includes N heads corresponding to different points p in the target range A among the plurality of head transfer characteristics H stored in the storage device 14.
  • the transfer characteristic H is selected (SA2). Specifically, N right ear head transfer characteristics H corresponding to different points p in the target range A for the right ear and different points p in the target range A for the left ear N head-related transfer characteristics H for the left ear are selected.
  • the target range A is a variable range according to the position P and the size Z of the virtual sound source V
  • the number N of head-related transfer characteristics H selected by the range setting unit 32 is the position P of the virtual sound source V. And a variable value corresponding to the size Z.
  • the number N of head-related transfer characteristics H selected by the range setting unit 32 increases, and the position P of the virtual sound source V becomes the listening point p0.
  • the number N of the head-related transfer characteristics H selected by the range setting unit 32 decreases as the distance from the target is smaller (the area of the target range A is smaller). Since the target range A is set individually for the right ear and the left ear, the number N of head-related transfer characteristics H can be different for the right ear and the left ear.
  • the characteristic combining unit 34 generates the combined transfer characteristic Q by combining the N head transfer characteristics H selected from the target range A by the range setting unit 32 (SA3). Specifically, the characteristic synthesizer 34 generates a combined transfer characteristic Q for the right ear by combining the N head transfer characteristics H for the right ear, and the N head transfer characteristics H for the left ear. To generate a composite transfer characteristic Q for the left ear.
  • the characteristic combining unit 34 of the first embodiment generates a combined transfer characteristic Q by a weighted average of N head transfer characteristics H. Therefore, the combined transfer characteristic Q is expressed by a head impulse response in the time domain, like the head transfer characteristic H.
  • FIG. 6 is an explanatory diagram of the weighted value ⁇ used for the weighted average of the N head-related transfer characteristics H.
  • the weight value ⁇ of the head-related transfer characteristic H at the point p is set according to the position of the point p within the target range A. Specifically, the weight value ⁇ is maximized at a point p close to the center (for example, the centroid) of the target range A, and the weight value ⁇ is smaller as the point p is closer to the periphery of the target range A.
  • the head transmission characteristic H at the point p closer to the center of the target range A is reflected more dominantly, and the influence of the head transmission characteristic H at the point p near the periphery of the target range A is relatively reduced.
  • a characteristic Q is generated.
  • the distribution of the weight value ⁇ within the target range A is expressed by various functions (for example, a distribution function such as a normal distribution, a periodic function such as a sine curve, or a window function such as a Hanning window).
  • the characteristic providing unit 36 generates the acoustic signal Y by adding the combined transfer characteristic Q generated by the characteristic combining unit 34 to the acoustic signal X (SA4). Specifically, the characteristic imparting unit 36 generates the right channel acoustic signal YR by convolving the right-ear synthesized transfer characteristic Q with the acoustic signal X in the time domain, and generates the left-ear synthesized transfer characteristic Q. The left channel acoustic signal YL is generated by convolution with the acoustic signal X in the time domain.
  • the signal processing unit 26A of the first embodiment assigns a plurality of head-related transfer characteristics H corresponding to different points p in the target range A to the acoustic signal X to generate the acoustic signal Y.
  • Functions as an element that generates The sound signal Y generated by the signal processing unit 26 ⁇ / b> A is supplied to the sound emitting device 16, so that reproduced sound is emitted to both ears of the listener.
  • N head-related transfer characteristics H corresponding to different points p are given to the acoustic signal X
  • the localization of the virtual sound source V having a spatial extension is acoustically detected. It is possible to make the listener perceive the reproduced sound of the signal Y.
  • N head-related transfer characteristics H within a variable target range A corresponding to the size Z of the virtual sound source V are given to the acoustic signal X, virtual sound sources V having a plurality of different sizes are provided. It is possible to make the listener perceive.
  • the combined transfer characteristic Q is generated by a weighted average of N head transfer characteristics H using a weight value ⁇ set according to the position of each point p in the target range A. Therefore, it is possible to impart various synthetic transfer characteristics Q to the acoustic signal X with different degrees of reflection of the head transfer characteristics H according to the position of the point p within the target range A.
  • a range obtained by perspectively projecting the virtual sound source V on the reference plane F with the ear position (eR or eL) corresponding to the listening point p0 as the projection center is set as the target range A.
  • the area of the target range A (and the number N of head-related transfer characteristics H in the target range A) changes. Therefore, it is possible to make the listener perceive a change in the distance from the virtual sound source V.
  • Second Embodiment A second embodiment of the present invention will be described. Regarding the elements whose functions or functions are the same as those of the first embodiment in each configuration exemplified below, the detailed description of each is appropriately omitted by using the reference numerals used in the description of the first embodiment.
  • FIG. 7 is a configuration diagram of the signal processing unit 26A in the sound processing apparatus 100 according to the second embodiment.
  • the signal processing unit 26A of the second embodiment adds a delay correction unit 38 to the same elements (range setting unit 32, characteristic synthesis unit 34, and characteristic addition unit 36) as in the first embodiment.
  • This is the configuration.
  • the point that the range setting unit 32 sets the variable target range A according to the position P and the size Z of the virtual sound source V is the same as in the first embodiment.
  • the delay correction unit 38 corrects the delay amount for each of the N head-related transfer characteristics H within the target range A set by the range setting unit 32.
  • FIG. 8 is an explanatory diagram of correction by the delay correction unit 38 of the second embodiment. As illustrated in FIG. 8, the plurality of points p on the reference plane F are located at the same distance from the listening point p0. On the other hand, the listener's ear position e (eR or eL) is located away from the listening point p0. Therefore, the distance d between the ear position e and the point p is different for each point p on the reference plane F.
  • the distance d (d1 to d6) between each of the six points p (p1 to p6) in the target range A illustrated in FIG. 8 and the ear position eL of the left ear one end side of the target range A
  • the distance d1 between the point p1 and the ear position eL located at the minimum is the distance d1
  • the distance d6 between the point p6 located on the other end side of the target range A and the ear position eL is the maximum.
  • the head-related transfer characteristic H at each point p is accompanied by a delay of a delay amount ⁇ according to the distance d between the point p and the ear position e (for example, a delay from the impulse sound in the head impulse response). That is, the delay amount ⁇ is different for N head-related transfer characteristics H corresponding to each point p in the target range A. Specifically, the delay amount ⁇ 1 at the head transmission characteristic H at the point p1 located on one end side of the target range A is minimized, and the delay at the point p6 located at the other end side of the target range A at the head transmission characteristic H. The quantity ⁇ 6 is maximized.
  • the delay correction unit 38 of the second embodiment for each of the N head-related transfer characteristics H corresponding to different points p in the target range A, the point p and the ear position e.
  • the delay amount ⁇ of the head-related transfer characteristic H is corrected according to the distance d.
  • the delay amount ⁇ of each head transmission characteristic H is corrected so that the delay amount ⁇ approaches (ideally matches) among the N head transmission characteristics H within the target range A. Is done.
  • the delay correcting unit 38 shortens the delay amount ⁇ 6 for the head-related transfer characteristic H at the point p6 where the distance d6 to the ear position eL is large within the target range A, and the distance to the ear position eL within the target range A.
  • the delay amount ⁇ 1 is extended.
  • the delay amount ⁇ is corrected by the delay amount correction unit for each of the N head transmission characteristics H for the right ear and the N head transmission characteristics H for the left ear.
  • the same effect as in the first embodiment is realized.
  • the delay amount ⁇ of the head-related transfer characteristic H is corrected according to the distance d between each point p in the target range A and the ear position e (eR or eL)
  • the target range A It is possible to reduce the influence of the difference in the delay amount ⁇ in the plurality of head-related transfer characteristics H. That is, the time difference between the sounds arriving from each position of the virtual sound source V is reduced. Therefore, the listener can perceive the natural localization of the virtual sound source V.
  • the signal processing unit 26A of the first embodiment is replaced with the signal processing unit 26B of FIG.
  • the signal processing unit 26 ⁇ / b> B according to the third embodiment includes a range setting unit 32, a characteristic providing unit 52, and a signal synthesis unit 54.
  • the range setting unit 32 variably sets the target range A corresponding to the position P and the size Z of the virtual sound source V for each of the right ear and the left ear, and N in the target range A
  • the head-related transfer characteristics H are selected from the storage device 14.
  • the characteristic imparting unit 52 imparts each of the N head-related transmission characteristics H selected by the range setting unit 32 in parallel to the acoustic signal X, thereby providing N systems of acoustic signals XA for each of the left ear and the right ear. Generate about.
  • the signal synthesis unit 54 generates the acoustic signal Y by synthesizing (for example, adding) the N types of acoustic signals XA generated by the characteristic providing unit 52.
  • the signal synthesizing unit 54 generates the right channel acoustic signal YR by synthesizing the N types of acoustic signals XA generated by the characteristic imparting unit 52 for the right ear, and the characteristic imparting unit 52 generates the left ear for the left ear.
  • the left channel acoustic signal YL is generated by synthesizing the N systems of acoustic signals XA.
  • each of the N head-related transfer characteristics H needs to be individually folded with respect to the acoustic signal X.
  • a combined transfer characteristic Q generated by combining (for example, weighted average) of N head transfer characteristics H is convolved with the acoustic signal X. Therefore, the first embodiment is more advantageous from the viewpoint of reducing the processing load necessary for the convolution operation.
  • the configuration of the second embodiment may be employed in the third embodiment.
  • the signal processing unit 26A of the first embodiment that synthesizes the N head-related transfer characteristics H and then assigns it to the sound signal X, and the plurality of sound signals XA that give the head-related transfer characteristics H to the sound signal X are combined.
  • the signal processing unit 26B according to the third embodiment is comprehensively expressed as an element (signal processing unit) that generates the acoustic signal Y by giving a plurality of head-related transfer characteristics H to the acoustic signal X.
  • the signal processing unit 26A of the first embodiment is replaced with the signal processing unit 26C of FIG.
  • the storage device 14 of the fourth embodiment has different sizes Z of the virtual sound source V (“Large (L)” and “Small” in the following description) for each of the right and left ears.
  • a plurality of combined transfer characteristics q (qL and qS) corresponding to two types of S) ” are stored for each point p on the reference plane F.
  • the combined transfer characteristic q corresponding to any one type of size Z of the virtual sound source V is a transfer characteristic obtained by combining a plurality of head transfer characteristics H within the target range A corresponding to the size Z.
  • the combined transfer characteristic q is generated by a weighted average of a plurality of head transfer characteristics H. Further, as illustrated in the second embodiment, the combined transfer characteristic q can be generated by correcting the delay amount of each head-related transfer characteristic H and then combining the corrected amounts.
  • the combined transfer characteristic qS corresponding to an arbitrary point p is included in the target range AS including the point p and corresponding to the virtual sound source V of “small” size Z.
  • This is a transfer characteristic obtained by synthesizing NS head transfer characteristics H.
  • the combined transfer characteristic qL is a transfer characteristic obtained by combining NL head transfer characteristics H within the target range AL corresponding to the virtual sound source V of “large” size Z.
  • the target range AL is larger than the target range AS. Therefore, the number NL of head-related transfer characteristics H reflected in the combined transfer characteristic qL exceeds the number NS of head-related transfer characteristics H reflected in the combined transfer characteristic qS (NL> NS).
  • a plurality of combined transfer characteristics q (qL and qS) corresponding to different sizes Z of the virtual sound source V are prepared in advance for each point p on the reference plane F for each of the right ear and the left ear. And stored in the storage device 14.
  • the signal processing unit 26C of the fourth embodiment is an element that generates the acoustic signal Y from the acoustic signal X by the sound image localization processing illustrated in FIG. 11, and as illustrated in FIG. 10, the characteristic acquisition unit 62 and the characteristic imparting unit 64.
  • the sound image localization processing of the fourth embodiment is signal processing for causing the listener to perceive the virtual sound source V under the conditions (position P and size Z) set by the setting processing unit 24, as in the first embodiment.
  • the characteristic acquisition unit 62 generates a combined transfer characteristic Q corresponding to the position P and the size Z of the virtual sound source V set by the setting processing unit 24 from the plurality of combined transfer characteristics q stored in the storage device 14 (SB1). .
  • a composite transfer characteristic Q for the right ear is generated from a plurality of composite transfer characteristics q for the right ear stored in the storage device 14, and a composite transfer characteristic Q for the left ear is generated from a plurality of composite transfer characteristics q of the left ear.
  • the characteristic providing unit 64 generates the acoustic signal Y by adding the composite transfer characteristic Q generated by the characteristic acquisition unit 62 to the acoustic signal X (SB2).
  • the characteristic imparting unit 64 generates the right channel acoustic signal YR by convolving the right-ear synthesized transfer characteristic Q with the acoustic signal X and generates the left-ear synthesized transfer characteristic Q as the acoustic signal X.
  • the left channel acoustic signal YL is generated by convolving the signal.
  • combination transfer characteristic Q to the acoustic signal X is the same as that of 1st Embodiment.
  • the characteristic acquisition unit 62 performs the size of the virtual sound source V by interpolation processing using the combined transfer characteristic qS and the combined transfer characteristic qL of one point p corresponding to the position P of the virtual sound source V set by the setting processing unit 24.
  • a composite transfer characteristic Q corresponding to Z is generated.
  • the combined transfer characteristic Q is generated by the calculation (interpolation calculation) of the following formula (1) using the constant ⁇ corresponding to the size Z of the virtual sound source V.
  • the constant ⁇ is a non-negative number of 1 or less that varies depending on the size Z (0 ⁇ ⁇ ⁇ 1).
  • the composite transfer characteristic Q reflecting the plurality of head transfer characteristics H corresponding to different points p is given to the acoustic signal X, similarly to the first embodiment. It is possible to make the listener of the reproduced sound of the sound signal Y perceive the localization of the virtual sound source V having a spatial expansion. Further, since the combined transfer characteristic Q corresponding to the size Z of the virtual sound source V set by the setting processing unit 24 is acquired from the plurality of combined transfer characteristics q, as in the first embodiment, a plurality of different sizes Z of different sizes Z are obtained. It is possible to make the listener perceive the virtual sound source V.
  • the size corresponding to the size Z set by the setting processing unit 24 is determined from the plurality of combined transfer characteristics q generated by combining the plurality of head transfer characteristics H for each of the plurality of sizes of the virtual sound source V. Since the combined transfer characteristic Q to be acquired is acquired, it is not necessary to combine (for example, weighted average) a plurality of head transfer characteristics H at the stage of acquiring the combined transfer characteristic Q. Therefore, the processing load necessary for obtaining the combined transfer characteristic Q can be reduced as compared with a configuration (for example, the first embodiment) in which N head transfer characteristics H are combined every time the combined transfer characteristic Q is used. There is.
  • the fourth embodiment two types of combined transfer characteristics q (qL or qS) corresponding to different sizes Z of the virtual sound source V are illustrated, but the combined transfer characteristics q prepared for one point p
  • the number of types can be 3 or more.
  • a configuration in which the composite transfer characteristic q is prepared for each point p for all possible numerical values of the size Z of the virtual sound source V may be employed.
  • the setting processing unit 24 sets the composite transfer characteristic q of the point p corresponding to the position P of the virtual sound source V.
  • a combined transfer characteristic q corresponding to the size Z of the virtual sound source V is selected as the combined transfer characteristic Q and given to the acoustic signal X. Therefore, the interpolation calculation between the plurality of combined transfer characteristics q is omitted.
  • the combined transfer characteristic q is prepared for each of the plurality of points p on the reference plane F.
  • a configuration in which the combined transfer characteristic q is prepared for each point p selected at a predetermined interval among a plurality of points p on the reference plane F may be employed.
  • a configuration in which the combined transfer characteristic q corresponding to the small size Z of the virtual sound source is prepared for a large number of points p (for example, a configuration in which the combined transfer characteristic qS is prepared for a large number of points p compared to the combined transfer characteristic qL) is preferable. It is.
  • the configuration in which the plurality of head-related transfer characteristics H are combined by weighted average is exemplified, but the method of combining the plurality of head-related transfer characteristics H is not limited to the above examples.
  • the method of combining the plurality of head-related transfer characteristics H is not limited to the above examples.
  • the first embodiment and the second embodiment it is possible to generate the combined transfer characteristic Q by a simple average of N head transfer characteristics H.
  • the fourth embodiment it is possible to generate the combined transfer characteristic q by a simple average of a plurality of head transfer characteristics H.
  • the target range A is individually set for the right ear and the left ear, but a common target range A can be set for the right ear and the left ear. is there.
  • the range setting unit 32 it is possible for the range setting unit 32 to set the target range A for both the right and left ears as a range obtained by perspectively projecting the virtual sound source V on the reference plane F with the listening point p0 as the projection center.
  • the composite transfer characteristic Q for the right ear is generated by combining the head transfer characteristics H for the right ear corresponding to N points p in the target range A
  • the composite transfer characteristic Q for the left ear is the target It is generated by synthesizing the head transfer characteristic H for the left ear corresponding to N points p within the range A.
  • the range obtained by perspectively projecting the virtual sound source V onto the reference plane F is exemplified as the target range A.
  • the method for defining the target range A is not limited to the above examples.
  • a range obtained by projecting the virtual sound source V in parallel to the reference plane F along a straight line connecting the position P of the virtual sound source V and the listening point p0 can be set as the target range A.
  • the area of the target range A does not change even if the distance between the listening point p0 and the virtual sound source V changes.
  • the range obtained by perspectively projecting the virtual sound source V onto the reference plane F as shown in the examples of the above embodiments is used.
  • the configuration set as the range A is preferable.
  • the delay correction unit 38 corrects the delay amount ⁇ of each head-related transfer characteristic H.
  • the delay amount corresponding to the distance between the listening point p0 and the virtual sound source V (position P) is targeted. It is also possible to add the N head transmission characteristics H in the range A in common. For example, a configuration in which the delay amount of each head-related transfer characteristic H is increased as the distance between the listening point p0 and the virtual sound source V is increased.
  • the head-related transfer characteristic H is expressed by the time-domain head impulse response is illustrated, but the head is expressed by a frequency-domain head-related transfer function (HRTF: Head-Related Transfer Function). It is also possible to express the transfer characteristic H.
  • HRTF Head-Related Transfer Function
  • the head-related transfer characteristic H is given to the acoustic signal X in the frequency domain.
  • the head-related transfer characteristic H is a concept including both the time-domain head impulse response and the frequency-domain head related transfer function.
  • the sound processing apparatus 100 can be realized by a server device that communicates with a terminal device (for example, a mobile phone or a smartphone) via a mobile communication network or a communication network such as the Internet.
  • a terminal device for example, a mobile phone or a smartphone
  • the setting processing unit 24 sets the position P and the size Z of the virtual sound source according to the operation information received from the terminal device.
  • the signal processing unit 26 (26A, 26B, or 26C) is configured to output the acoustic signal so that a virtual sound source of size Z that emits the sound of the acoustic signal X is localized at the position P with respect to the listener, as in the above-described embodiments.
  • An acoustic signal Y is generated by sound image localization processing for X.
  • the sound processing device 100 transmits the sound signal Y to the terminal device.
  • the terminal device reproduces the sound represented by the a
  • the sound processing device 100 exemplified in each of the above-described embodiments is realized by the cooperation of the control device 12 and a program.
  • the program according to the first mode is a setting for variably setting the size Z of the virtual sound source V on a computer (for example, one or more processing circuits) such as the control device 12.
  • a plurality of head-related transfer characteristics H corresponding to each point p in the target range A according to the size Z set by the setting processing unit 24 among the plurality of points p whose positions with respect to the processing unit 24 and the listening point p0 are different.
  • To the acoustic signal X to function as a signal processing unit (26A or 26B) that generates the acoustic signal Y.
  • a program corresponding to the second mode is a setting processing unit 24 that variably sets the size Z of the virtual sound source V on a computer (for example, one or a plurality of processing circuits) such as the control device 12. For each of a plurality of sizes Z of the virtual sound source V, a plurality of head-related transfer characteristics corresponding to each point p within the target range A according to the size Z among a plurality of points p whose positions with respect to the listening point p0 are different.
  • a characteristic acquisition unit 62 that acquires a combined transfer characteristic Q corresponding to the size Z set by the setting processing unit 24 from a plurality of combined transfer characteristics q generated by combining H, and a combined transfer acquired by the characteristic acquisition unit 62
  • the characteristic imparting unit 64 that generates the acoustic signal Y is caused to function.
  • the programs exemplified above can be provided in a form stored in a computer-readable recording medium and installed in the computer.
  • the recording medium is, for example, a non-transitory recording medium, and an optical recording medium (optical disk) such as a CD-ROM is a good example, but a known arbitrary one such as a semiconductor recording medium or a magnetic recording medium This type of recording medium can be included.
  • the non-transitory recording medium includes an arbitrary recording medium excluding a transient propagation signal (transitory, “propagating signal”) and does not exclude a volatile recording medium. It is also possible to distribute the program to a computer in the form of distribution via a communication network.
  • a preferred aspect of the present invention can also be specified as an operation method (acoustic processing method) of the acoustic processing apparatus 100 exemplified in the above-described embodiments.
  • a computer a single computer or a system composed of a plurality of computers sets the size Z of the virtual sound source V variably, A plurality of head-related transfer characteristics H corresponding to each point p within the target range A corresponding to the set size Z among a plurality of points p whose positions with respect to the listening point p0 are different are given to the acoustic signal X, and the acoustic signal Y Is generated.
  • a computer sets the size Z of the virtual sound source V variably, and a plurality of virtual sound sources V are set. Is generated by synthesizing a plurality of head-related transfer characteristics H corresponding to each point p within the target range A corresponding to the size Z among a plurality of points p having different positions with respect to the listening point p0. A composite transfer characteristic Q corresponding to the set size Z is acquired from the plurality of combined transfer characteristics q, and the acquired composite transfer characteristic Q is added to the acoustic signal X to generate the acoustic signal Y.
  • the sound processing method according to a preferred aspect (aspect 1) of the present invention sets the size of the virtual sound source, and at each point within the range according to the set size among a plurality of points having different positions with respect to the listening point.
  • a second acoustic signal is generated by applying a plurality of corresponding head-related transfer characteristics to the first acoustic signal.
  • the plurality of head-related transfer characteristics corresponding to different points are given to the first acoustic signal, the localization of the spatially expanded virtual sound source can be given to the listener of the reproduced sound of the second acoustic signal. It can be perceived.
  • the listener can perceive virtual sound sources having a plurality of different sizes.
  • aspect 2 In a preferred example of aspect 1 (aspect 2), the generation of the second acoustic signal is performed by setting the range according to the size of the virtual sound source and a plurality of points corresponding to different points in the set range. Synthesizing the head-related transfer characteristics of the head, and generating the second acoustic signal by applying the synthesized head-related transfer characteristics to the first acoustic signal.
  • the head-related transfer characteristic generated by combining the plurality of head-related transfer characteristics within the range is given to the first acoustic signal.
  • Aspect 4 In a preferred example (Aspect 4) of Aspect 2 or Aspect 3, in the synthesis of the plurality of head-related transfer characteristics, the plurality of heads are used using a weight value set according to the position of each point within the range. The weighted average of the part transfer characteristics.
  • the weight value set according to the position of each point in the range is used for the weighted average of the plurality of head transfer characteristics, the reflection of the head transfer characteristics is reflected according to the position in the range.
  • Various characteristics with different degrees can be imparted to the first acoustic signal.
  • ⁇ Aspect 5> In a preferred example (Aspect 5) of any one of Aspects 2 to 4, in the setting of the range, the ear position corresponding to the listening point or the reference plane including the plurality of points with the listening point as a projection center
  • the range is set by perspective projection of the virtual sound source.
  • the range since the range is set by perspectively projecting the virtual sound source on the reference plane with the listening point or the ear position as the projection center, the area of the target range (and further depending on the distance between the listening point and the virtual sound source) The number of head-related transfer characteristics within the target range) changes. Therefore, it is possible to make the listener perceive a change in the distance from the virtual sound source.
  • the range is individually set for each of the right ear and the left ear, and the right ear corresponding to each point in the range set for the right ear
  • For the left ear corresponding to each point within the range set for the left ear by generating the second acoustic signal of the right channel by adding the plurality of head-related transfer characteristics for the first acoustic signal
  • the second acoustic signal of the left channel is generated by applying the plurality of head related transfer functions to the first acoustic signal.
  • the ranges are individually set for the right ear and the left ear, it is possible to generate the second acoustic signal that allows the listener to clearly perceive the localization of the virtual sound source.
  • the common range is set for the right ear and the left ear, and the plurality of head transmissions for the right ear corresponding to each point in the range
  • the second acoustic signal of the right channel is generated by applying a characteristic to the first acoustic signal, and the plurality of head-related transmission characteristics for the left ear corresponding to each point in the range are represented by the first acoustic signal.
  • ⁇ Aspect 8> In a preferred example (aspect 8) of any one of Aspects 2 to 7, the generation of the second acoustic signal is performed for each of a plurality of head-related transmission characteristics corresponding to different points in the range and the points. Including correcting a delay amount of the head-related transfer characteristic according to a distance from the ear position at the listening point, and combining the plurality of head-related transfer characteristics after the correction in combining the plurality of head-related transfer characteristics To do.
  • the delay amount of the head-related transfer characteristics is corrected according to the distance between each point in the range and the ear position, so that the influence of the difference in delay amounts in a plurality of head-related transfer characteristics within the range is reduced. Is possible. Therefore, the listener can perceive the natural localization of the virtual sound source.
  • the acoustic processing method according to a preferred aspect (aspect 9) of the present invention sets a size of a virtual sound source, and according to the size of a plurality of sizes of the virtual sound source, among a plurality of points whose positions with respect to a listening point are different.
  • a combined transfer characteristic corresponding to the set size is acquired from a plurality of combined transfer characteristics respectively generated by combining a plurality of head transfer characteristics corresponding to each point within the range, and the acquired combined transfer characteristic is obtained.
  • a 2nd acoustic signal is produced
  • the composite transfer characteristic reflecting a plurality of head transfer characteristics within a range corresponding to the size of the virtual sound source is added to the first acoustic signal, the listener can perceive virtual sound sources of different sizes. Is possible. Furthermore, since the composite transfer characteristic corresponding to the set size among a plurality of composite transfer characteristics corresponding to different sizes of the virtual sound source is given to the first acoustic signal, a plurality of heads are obtained at the stage of obtaining the composite transfer characteristic. There is no need to synthesize transfer characteristics. Therefore, there is an advantage that the processing load necessary for obtaining the combined transfer characteristic can be reduced as compared with the configuration in which a plurality of head transfer characteristics are combined every time the combined transfer characteristic is used.
  • the sound processing apparatus has a setting processing unit that sets the size of the virtual sound source, and a size set by the setting processing unit among a plurality of points whose positions relative to the listening point are different. And a signal processing unit that generates a second acoustic signal by providing the first acoustic signal with a plurality of head-related transfer characteristics corresponding to each point within the corresponding range.
  • the plurality of head-related transfer characteristics corresponding to different points are given to the first acoustic signal, the localization of the spatially expanded virtual sound source can be given to the listener of the reproduced sound of the second acoustic signal. It can be perceived.
  • a sound processing apparatus includes: a setting processing unit that sets a size of a virtual sound source; and a plurality of points at different positions with respect to a listening point for each of the plurality of sizes of the virtual sound source.
  • a combined transfer characteristic corresponding to the size set by the setting processing unit is acquired from a plurality of combined transfer characteristics generated by combining a plurality of head transfer characteristics corresponding to each point within the range according to the size
  • a characteristic acquisition unit that generates the second acoustic signal by applying the combined transfer characteristic acquired by the characteristic acquisition unit to the first acoustic signal.
  • the composite transfer characteristic reflecting a plurality of head transfer characteristics within a range corresponding to the size of the virtual sound source is added to the first acoustic signal, the listener can perceive virtual sound sources of different sizes. Is possible. Furthermore, since the composite transfer characteristic corresponding to the set size among a plurality of composite transfer characteristics corresponding to different sizes of the virtual sound source is given to the first acoustic signal, a plurality of heads are obtained at the stage of obtaining the composite transfer characteristic. There is no need to synthesize transfer characteristics. Therefore, there is an advantage that the processing load necessary for obtaining the combined transfer characteristic can be reduced as compared with the configuration in which a plurality of head transfer characteristics are combined every time the combined transfer characteristic is used.
  • DESCRIPTION OF SYMBOLS 100 ... Acoustic processing apparatus, 12 ... Control apparatus, 14 ... Memory

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Stereophonic System (AREA)
  • Multimedia (AREA)

Abstract

音響処理装置は、仮想音源のサイズを設定する設定処理部と、受聴点に対する位置が相違する複数の地点のうち設定処理部が設定したサイズに応じた範囲内の各地点に対応する複数の頭部伝達特性を音響信号に付与して音響信号を生成する信号処理部とを具備する。

Description

音響処理方法および音響処理装置
 本発明は、楽音や音声等の音響を表す音響信号を処理する技術に関する。
 頭部伝達関数を音響信号に畳込んで再生することで、仮想的な音源(すなわち音像)の定位を受聴者に知覚させることが可能である。例えば特許文献1には、受聴点の周囲に位置する1個の点音源から当該受聴点における受聴者の耳位置までの頭部伝達特性を音響信号に付与する構成が開示されている。
特開昭59-44199号公報
 しかし、特許文献1の技術では、受聴点の周囲の1個の点音源に対応した頭部伝達特性が音響信号に付与されるから、空間的な拡がりのある音像を受聴者に知覚させることはできない。以上の事情を考慮して、本発明は、仮想音源の空間的な拡がりを受聴者に知覚させることを目的とする。
 以上の課題を解決するために、本発明の第1態様に係る音響処理方法は、仮想音源のサイズを設定し、受聴点に対する位置が相違する複数の地点のうち前記設定したサイズに応じた範囲内の各地点に対応する複数の頭部伝達特性を第1音響信号に付与することで第2音響信号を生成する。
 本発明の第2態様に係る音響処理方法は、仮想音源のサイズを設定し、前記仮想音源の複数のサイズの各々について、受聴点に対する位置が相違する複数の地点のうち当該サイズに応じた範囲内の各地点に対応する複数の頭部伝達特性の合成で生成された複数の合成伝達特性から、前記設定したサイズに対応する合成伝達特性を取得し、前記取得した合成伝達特性を第1音響信号に付与することで第2音響信号を生成する。
 本発明の第3態様に係る音響処理装置は、仮想音源のサイズを設定する設定処理部と、受聴点に対する位置が相違する複数の地点のうち前記設定処理部が設定したサイズに応じた範囲内の各地点に対応する複数の頭部伝達特性を第1音響信号に付与することで第2音響信号を生成する信号処理部とを具備する。
 本発明の第4態様に係る音響処理装置は、仮想音源のサイズを設定する設定処理部と、前記仮想音源の複数のサイズの各々について、受聴点に対する位置が相違する複数の地点のうち当該サイズに応じた範囲内の各地点に対応する複数の頭部伝達特性の合成で生成された複数の合成伝達特性から、前記設定処理部が設定したサイズに対応する合成伝達特性を取得する特性取得部と、前記特性取得部が取得した合成伝達特性を第1音響信号に付与することで第2音響信号を生成する特性付与部とを具備する。
本発明の第1実施形態に係る音響処理装置の構成図である。 頭部伝達特性および仮想音源の説明図である。 信号処理部の構成図である。 音像定位処理のフローチャートである。 対象範囲と仮想音源との関係の説明図である。 対象範囲と各頭部伝達特性の加重値との関係の説明図である。 第2実施形態における信号処理部の構成図である。 第2実施形態における遅延補正部の動作の説明図である。 第3実施形態における信号処理部の構成図である。 第4実施形態における信号処理部の構成図である。 第4実施形態における音像定位処理のフローチャートである。
<第1実施形態>
 図1は、本発明の第1実施形態に係る音響処理装置100の構成図である。図1に例示される通り、第1実施形態の音響処理装置100は、制御装置12と記憶装置14と放音装置16とを具備するコンピュータシステムで実現される。例えば、携帯電話機もしくはスマートフォン等の携帯型の情報通信端末,携帯型のゲーム装置,またはパーソナルコンピュータ等の携帯型もしくは据置型の情報処理装置で音響処理装置100を実現することが可能である。
 制御装置12は、例えばCPU(Central Processing Unit)等の処理回路で構成され、音響処理装置100の各要素を統括的に制御する。第1実施形態の制御装置12は、楽音または音声等の各種の音響を表す音響信号Y(第2音響信号の例示)を生成する。音響信号Yは、右チャネルの音響信号YRと左チャネルの音響信号YLとを含むステレオの時間信号である。記憶装置14は、制御装置12が実行するプログラムと制御装置12が使用する各種のデータとを記憶する。例えば半導体記録媒体もしくは磁気記録媒体等の公知の記録媒体、または複数種の記録媒体の組合せが記憶装置14として使用され得る。
 放音装置16は、受聴者の両耳に装着される音響機器(例えばステレオヘッドホンまたはステレオイヤホン)であり、制御装置12が生成する音響信号Yに応じた音響を受聴者の両耳孔に放音する。放音装置16からの再生音を受聴した受聴者は、仮想的な音源(以下「仮想音源」という)の定位を知覚する。なお、制御装置12が生成した音響信号Yをデジタルからアナログに変換するD/A変換器の図示は便宜的に省略した。
 図1に例示される通り、制御装置12は、記憶装置14に記憶されたプログラムを実行することで、音響信号Yを生成するための複数の機能(音響生成部22,設定処理部24および信号処理部26A)を実現する。なお、制御装置12の機能を複数の装置に分散した構成、または、制御装置12の機能の一部または全部を専用の電子回路が実現する構成も採用され得る。
 音響生成部22は、仮想音源(音像)が発音する各種の音響を表す音響信号X(第1音響信号の例示)を生成する。第1実施形態の音響信号Xはモノラルの時間信号である。例えば音響処理装置100をビデオゲームに適用した構成では、仮想空間に存在するモンスター等のキャラクタが発音する音声、または、仮想空間内に設置された構造物(例えば工場)もしくは自然物(例えば滝または海)が発音する効果音等を表す音響信号Xを、音響生成部22がビデオゲームの進行に連動して随時に生成する。なお、音響処理装置100に接続された信号供給装置(図示略)が音響信号Xを生成することも可能である。信号供給装置は、例えば各種の記録媒体から音響信号Xを読出す再生装置、または、他装置から通信網を介して音響信号Xを受信する通信装置である。
 設定処理部24は、仮想音源の条件を設定する。第1実施形態の設定処理部24は、仮想音源の位置PおよびサイズZを設定する。位置Pは、例えば仮想空間内における受聴点に対する仮想音源の相対的な位置であり、例えば仮想空間内に設定された3軸直交座標系の座標値で指定される。サイズZは、仮想空間内における仮想音源の大きさである。設定処理部24は、音響生成部22による音響信号Xの生成に連動して仮想音源の位置PおよびサイズZを随時に指定する。
 信号処理部26Aは、音響生成部22が生成した音響信号Xから音響信号Yを生成する。第1実施形態の信号処理部26Aは、設定処理部24が設定した仮想音源の位置PおよびサイズZを使用した信号処理(以下「音像定位処理」という)を実行する。具体的には、音響信号Xの音響を発音するサイズZの仮想音源(すなわち平面的ないし立体的な音像)が受聴者に対して位置Pに定位するように、信号処理部26Aは音響信号Xに対する音像定位処理で音響信号Yを生成する。
 図1に例示される通り、第1実施形態の記憶装置14は、音像定位処理に使用される複数の頭部伝達特性Hを記憶する。図2は、頭部伝達特性Hの説明図である。図2に例示される通り、受聴点p0の周囲に位置する曲面(以下「基準面」という)F上に設定された複数の地点pの各々について右耳用の頭部伝達特性Hと左耳用の頭部伝達特性Hとが記憶装置14に記憶される。基準面Fは、例えば受聴点p0を中心とする半球面である。受聴点p0に対する方位角と仰角とで基準面F上の1個の地点pが規定される。図2に例示される通り、基準面Fの外側(受聴点p0の反対側)の空間に仮想音源Vが設定される。
 基準面F上の任意の1個の地点pに対応する右耳用の頭部伝達特性Hは、当該地点pに位置する点音源から発音された音響が受聴点p0における受聴者の右耳の耳位置eRに到達するまでの伝達特性である。同様に、任意の1個の地点pに対応する左耳用の頭部伝達特性Hは、当該地点pに位置する点音源から発音された音響が受聴点p0における受聴者の左耳の耳位置eLに到達するまでの伝達特性である。耳位置eRおよび耳位置eLは、例えば受聴点p0に位置する受聴者の各耳の耳孔の地点を意味する。第1実施形態の頭部伝達特性Hは、時間領域の頭部インパルス応答(HRIR:Head-Related Impulse Response)で表現される。すなわち、頭部インパルス応答の波形を表すサンプルの時系列データで頭部伝達特性Hは表現される。
 図3は、第1実施形態における信号処理部26Aの構成図である。図3に例示される通り、第1実施形態の信号処理部26Aは、範囲設定部32と特性合成部34と特性付与部36とを含んで構成される。範囲設定部32は、仮想音源Vに対応する対象範囲Aを設定する。図2に例示される通り、第1実施形態の対象範囲Aは、設定処理部24が設定した仮想音源Vの位置PおよびサイズZに応じた可変の範囲である。
 図3の特性合成部34は、記憶装置14に記憶された複数の頭部伝達特性Hのうち、範囲設定部32が設定した対象範囲A内の相異なる地点pに対応するN個(Nは2以上の自然数)の頭部伝達特性Hを合成することで、N個の頭部伝達特性Hを反映した頭部伝達特性(以下「合成伝達特性」という)Qを生成する。特性付与部36は、特性合成部34が生成した合成伝達特性Qを音響信号Xに付与することで音響信号Yを生成する。すなわち、仮想音源Vの位置PおよびサイズZに応じたN個の頭部伝達特性Hが反映された音響信号Yが生成される。
 図4は、信号処理部26A(範囲設定部32,特性合成部34および特性付与部36)が実行する音像定位処理のフローチャートである。例えば音響生成部22による音響信号Xの供給と設定処理部24による仮想音源Vの設定とを契機として図4の音像定位処理が実行される。受聴者の右耳(右チャネル)および左耳(左チャネル)の各々について音像定位処理が並列または順次に実行される。
 音像定位処理を開始すると、範囲設定部32は対象範囲Aを設定する(SA1)。対象範囲Aは、図2に例示される通り、設定処理部24が設定した仮想音源Vの位置PおよびサイズZに応じて基準面Fに画定された可変の範囲である。第1実施形態の範囲設定部32は、仮想音源Vを基準面Fに投影した範囲を対象範囲Aとして画定する。仮想音源Vに対する相対的な関係は耳位置eRと耳位置eLとで相違するから、対象範囲Aは右耳と左耳とで個別に設定される。
 図5は、対象範囲Aと仮想音源Vとの関係の説明図である。鉛直方向の上方から仮想空間を観察した平面的な状態が図5では便宜的に図示されている。図2および図5に例示される通り、第1実施形態の範囲設定部32は、受聴点p0に位置する受聴者の左耳の耳位置eLを投影中心として基準面Fに仮想音源Vを透視投影した範囲を左耳の対象範囲Aとして画定する。すなわち、左耳の耳位置eLを通過するとともに仮想音源Vの表面に接する直線と基準面Fとの交点の軌跡で包囲された閉領域が左耳の対象範囲Aとして画定される。同様に、範囲設定部32は、受聴者の右耳の耳位置eRを投影中心として基準面Fに仮想音源Vを透視投影した範囲を右耳の対象範囲Aとして画定する。したがって、仮想音源Vの位置PおよびサイズZに応じて対象範囲Aの位置および面積は変動する。例えば、仮想音源Vの位置Pが同じであれば、仮想音源VのサイズZが大きいほど対象範囲Aの面積は増大する。また、仮想音源VのサイズZが同じであれば、仮想音源Vの位置Pが受聴点p0から遠いほど対象範囲Aの面積は減少する。対象範囲A内の地点pの個数Nも仮想音源Vの位置PおよびサイズZに応じて変動する。
 以上の手順で対象範囲Aを設定すると、範囲設定部32は、記憶装置14に記憶された複数の頭部伝達特性Hのうち対象範囲A内の相異なる地点pに対応するN個の頭部伝達特性Hを選択する(SA2)。具体的には、右耳用の対象範囲A内の相異なる地点pに対応するN個の右耳用の頭部伝達特性Hと、左耳用の対象範囲A内の相異なる地点pに対応するN個の左耳用の頭部伝達特性Hとが選択される。前述の通り、対象範囲Aは、仮想音源Vの位置PおよびサイズZに応じた可変の範囲であるから、範囲設定部32が選択する頭部伝達特性Hの個数Nは仮想音源Vの位置PおよびサイズZに応じた可変値である。例えば、仮想音源VのサイズZが大きい(対象範囲Aの面積が大きい)ほど、範囲設定部32が選択する頭部伝達特性Hの個数Nは増加し、仮想音源Vの位置Pが受聴点p0から遠い(対象範囲Aの面積が小さい)ほど、範囲設定部32が選択する頭部伝達特性Hの個数Nは減少する。なお、対象範囲Aは右耳と左耳とで個別に設定されるから、頭部伝達特性Hの個数Nは右耳と左耳とで相違し得る。
 特性合成部34は、範囲設定部32が対象範囲Aから選択したN個の頭部伝達特性Hを合成することで合成伝達特性Qを生成する(SA3)。具体的には、特性合成部34は、右耳用のN個の頭部伝達特性Hの合成で右耳用の合成伝達特性Qを生成し、左耳用のN個の頭部伝達特性Hの合成で左耳用の合成伝達特性Qを生成する。第1実施形態の特性合成部34は、N個の頭部伝達特性Hの加重平均により合成伝達特性Qを生成する。したがって、合成伝達特性Qは、頭部伝達特性Hと同様に、時間領域の頭部インパルス応答で表現される。
 図6は、N個の頭部伝達特性Hの加重平均に使用される加重値ωの説明図である。図6に例示される通り、対象範囲A内の地点pの位置に応じて当該地点pにおける頭部伝達特性Hの加重値ωが設定される。具体的には、対象範囲Aの中心(例えば図心)に近い地点pで加重値ωは最大となり、対象範囲Aの周縁に近い地点pほど加重値ωは小さい数値となる。したがって、対象範囲Aの中心に近い地点pの頭部伝達特性Hほど優勢に反映されるとともに対象範囲Aの周縁に近い地点pの頭部伝達特性Hの影響は相対的に低減された合成伝達特性Qが生成される。対象範囲A内における加重値ωの分布は各種の関数(例えば正規分布等の分布関数,正弦曲線等の周期関数,またはハニング窓等の窓関数)で表現される。
 特性付与部36は、特性合成部34が生成した合成伝達特性Qを音響信号Xに付与することで音響信号Yを生成する(SA4)。具体的には、特性付与部36は、右耳用の合成伝達特性Qを時間領域で音響信号Xに畳込むことで右チャネルの音響信号YRを生成し、左耳用の合成伝達特性Qを時間領域で音響信号Xに畳込むことで左チャネルの音響信号YLを生成する。以上の説明から理解される通り、第1実施形態の信号処理部26Aは、対象範囲A内の相異なる地点pに対応する複数の頭部伝達特性Hを音響信号Xに付与して音響信号Yを生成する要素として機能する。信号処理部26Aが生成した音響信号Yが放音装置16に供給されることで受聴者の両耳に再生音が放音される。
 以上に説明した通り、第1実施形態では、相異なる地点pに対応するN個の頭部伝達特性Hが音響信号Xに付与されるから、空間的な拡がりのある仮想音源Vの定位を音響信号Yの再生音の受聴者に知覚させることが可能である。第1実施形態では、仮想音源VのサイズZに応じた可変の対象範囲A内のN個の頭部伝達特性Hが音響信号Xに付与されるから、相異なる複数のサイズの仮想音源Vを受聴者に知覚させることが可能である。
 第1実施形態では、対象範囲A内の各地点pの位置に応じて設定された加重値ωを使用したN個の頭部伝達特性Hの加重平均で合成伝達特性Qが生成される。したがって、対象範囲A内の地点pの位置に応じて頭部伝達特性Hの反映の度合を相違させた多様な合成伝達特性Qを音響信号Xに付与することが可能である。
 第1実施形態では、受聴点p0に対応する耳位置(eRまたはeL)を投影中心として仮想音源Vを基準面Fに透視投影した範囲が対象範囲Aとして設定されるから、受聴点p0と仮想音源Vとの距離に応じて対象範囲Aの面積(さらには対象範囲A内の頭部伝達特性Hの個数N)が変化する。したがって、仮想音源Vとの距離の変化を受聴者に知覚させることが可能である。
<第2実施形態>
 本発明の第2実施形態を説明する。以下に例示する各構成において作用または機能が第1実施形態と同様である要素については、第1実施形態の説明で使用した符号を流用して各々の詳細な説明を適宜に省略する。
 図7は、第2実施形態の音響処理装置100における信号処理部26Aの構成図である。図7に例示される通り、第2実施形態の信号処理部26Aは、第1実施形態と同様の要素(範囲設定部32,特性合成部34および特性付与部36)に遅延補正部38を追加した構成である。仮想音源Vの位置PおよびサイズZに応じた可変の対象範囲Aを範囲設定部32が設定する点は第1実施形態と同様である。
 遅延補正部38は、範囲設定部32が設定した対象範囲A内のN個の頭部伝達特性Hの各々について遅延量を補正する。図8は、第2実施形態の遅延補正部38による補正の説明図である。図8に例示される通り、基準面F上の複数の地点pは受聴点p0から等距離に位置する。一方、受聴者の耳位置e(eRまたはeL)は受聴点p0から離間した位置にある。したがって、耳位置eと地点pとの距離dは、基準面F上の地点p毎に相違する。例えば図8に例示された対象範囲A内の6個の地点p(p1~p6)の各々と左耳の耳位置eLとの距離d(d1~d6)に着目すると、対象範囲Aの一端側に位置する地点p1と耳位置eLとの距離d1が最小となり、対象範囲Aの他端側に位置する地点p6と耳位置eLとの距離d6が最大となる。
 各地点pの頭部伝達特性Hには、当該地点pと耳位置eとの距離dに応じた遅延量δの遅延(例えば頭部インパルス応答におけるインパルス音からの遅延)が付随する。すなわち、対象範囲A内の各地点pに対応するN個の頭部伝達特性Hについて遅延量δは相違する。具体的には、対象範囲Aの一端側に位置する地点p1の頭部伝達特性Hにおける遅延量δ1が最小となり、対象範囲Aの他端側に位置する地点p6の頭部伝達特性Hにおける遅延量δ6が最大となる。
 以上の事情を考慮して、第2実施形態の遅延補正部38は、対象範囲A内の相異なる地点pに対応するN個の頭部伝達特性Hの各々について、当該地点pと耳位置eとの距離dに応じて当該頭部伝達特性Hの遅延量δを補正する。具体的には、対象範囲A内のN個の頭部伝達特性Hの相互間で遅延量δが近付く(理想的には一致する)ように、各頭部伝達特性Hの遅延量δが補正される。例えば、遅延補正部38は、対象範囲A内で耳位置eLとの距離d6が大きい地点p6の頭部伝達特性Hについては遅延量δ6を短縮し、対象範囲A内で耳位置eLとの距離d1が小さい地点p1の頭部伝達特性Hについては遅延量δ1を伸長する。遅延量補正部による遅延量δの補正は、右耳用のN個の頭部伝達特性Hと左耳用のN個の頭部伝達特性Hとの各々について実行される。
 図7の特性合成部34は、遅延補正部38による補正後のN個の頭部伝達特性Hを第1実施形態と同様に合成(例えば加重平均)して合成伝達特性Qを生成する。特性付与部36が合成伝達特性Qを音響信号Xに付与して音響信号Yを生成する動作は第1実施形態と同様である。
 第2実施形態においても第1実施形態と同様の効果が実現される。また、第2実施形態では、対象範囲A内の各地点pと耳位置e(eRまたはeL)との距離dに応じて頭部伝達特性Hの遅延量δが補正されるから、対象範囲A内の複数の頭部伝達特性Hにおける遅延量δの差異の影響を低減することが可能である。すなわち、仮想音源Vの各位置から到来する音響の時間差が低減される。したがって、仮想音源Vの自然な定位を受聴者に知覚させることが可能である。
<第3実施形態>
 第3実施形態では、第1実施形態の信号処理部26Aが図9の信号処理部26Bに置換される。図9に例示される通り、第3実施形態の信号処理部26Bは、範囲設定部32と特性付与部52と信号合成部54とを含んで構成される。範囲設定部32は、第1実施形態と同様に、右耳および左耳の各々について、仮想音源Vの位置PおよびサイズZに応じた対象範囲Aを可変に設定し、対象範囲A内のN個の頭部伝達特性Hを記憶装置14から選択する。
 特性付与部52は、範囲設定部32が選択したN個の頭部伝達特性Hの各々を音響信号Xに対して並列に付与することでN系統の音響信号XAを左耳および右耳の各々について生成する。信号合成部54は、特性付与部52が生成したN系統の音響信号XAを合成(例えば加算)することで音響信号Yを生成する。具体的には、信号合成部54は、特性付与部52が右耳について生成したN系統の音響信号XAの合成で右チャネルの音響信号YRを生成し、特性付与部52が左耳について生成したN系統の音響信号XAの合成で左チャネルの音響信号YLを生成する。
 第3実施形態においても第1実施形態と同様の効果が実現される。なお、第3実施形態では、N個の頭部伝達特性Hの各々を音響信号Xに対して個別に畳込む必要がある。他方、第1実施形態では、N個の頭部伝達特性Hの合成(例えば加重平均)で生成された合成伝達特性Qを音響信号Xに畳込む。したがって、畳込演算に必要な処理負荷を軽減するという観点からは、第1実施形態のほうが有利である。なお、第2実施形態の構成を第3実施形態に採用することも可能である。
 N個の頭部伝達特性Hを合成してから音響信号Xに付与する第1実施形態の信号処理部26Aと、各頭部伝達特性Hを音響信号Xに付与した複数の音響信号XAを合成する第3実施形態の信号処理部26Bとは、複数の頭部伝達特性Hを音響信号Xに付与して音響信号Yを生成する要素(信号処理部)として包括的に表現される。
<第4実施形態>
 第4実施形態では、第1実施形態の信号処理部26Aが図10の信号処理部26Cに置換される。図10に例示される通り、第4実施形態の記憶装置14は、右耳および左耳の各々について、仮想音源Vの相異なるサイズZ(以下の説明では「大(L)」および「小(S)」の2種類)に対応する複数の合成伝達特性q(qLおよびqS)を、基準面F上の地点p毎に記憶する。仮想音源Vの任意の1種類のサイズZに対応する合成伝達特性qは、当該サイズZに応じた対象範囲A内の複数の頭部伝達特性Hを合成した伝達特性である。例えば、第1実施形態と同様に、複数の頭部伝達特性Hの加重平均で合成伝達特性qが生成される。また、第2実施形態の例示のように各頭部伝達特性Hの遅延量を補正してから合成して合成伝達特性qを生成することも可能である。
 図10に例示される通り、例えば任意の1個の地点pに対応する合成伝達特性qSは、当該地点pを内包するとともに「小」のサイズZの仮想音源Vに対応する対象範囲AS内のNS個の頭部伝達特性Hを合成した伝達特性である。他方、合成伝達特性qLは、「大」のサイズZの仮想音源Vに対応する対象範囲AL内のNL個の頭部伝達特性Hを合成した伝達特性である。対象範囲ALは対象範囲ASと比較して大面積である。したがって、合成伝達特性qLに反映された頭部伝達特性Hの個数NLは、合成伝達特性qSに反映された頭部伝達特性Hの個数NSを上回る(NL>NS)。以上に説明した通り、仮想音源Vの相異なるサイズZに対応する複数の合成伝達特性q(qLおよびqS)が、右耳および左耳の各々について基準面F上の地点p毎に事前に用意されて記憶装置14に格納される。
 第4実施形態の信号処理部26Cは、図11に例示した音像定位処理により音響信号Xから音響信号Yを生成する要素であり、図10に例示される通り、特性取得部62と特性付与部64とを含んで構成される。第4実施形態の音像定位処理は、第1実施形態と同様に、設定処理部24が設定した条件(位置PおよびサイズZ)の仮想音源Vを受聴者に知覚させるための信号処理である。
 特性取得部62は、設定処理部24が設定した仮想音源Vの位置PおよびサイズZに対応する合成伝達特性Qを、記憶装置14に記憶された複数の合成伝達特性qから生成する(SB1)。記憶装置14に記憶された右耳の複数の合成伝達特性qから右耳用の合成伝達特性Qが生成され、左耳の複数の合成伝達特性qから左耳用の合成伝達特性Qが生成される。特性付与部64は、特性取得部62が生成した合成伝達特性Qを音響信号Xに付与することで音響信号Yを生成する(SB2)。具体的には、特性付与部64は、右耳用の合成伝達特性Qを音響信号Xに畳込むことで右チャネルの音響信号YRを生成し、左耳用の合成伝達特性Qを音響信号Xに畳込むことで左チャネルの音響信号YLを生成する。なお、音響信号Xに合成伝達特性Qを付与する処理の内容は第1実施形態と同様である。
 第4実施形態の特性取得部62が合成伝達特性Qを取得する処理(SB1)の具体例を詳述する。特性取得部62は、設定処理部24が設定した仮想音源Vの位置Pに対応する1個の地点pの合成伝達特性qSと合成伝達特性qLとを使用した補間処理により、仮想音源VのサイズZに応じた合成伝達特性Qを生成する。例えば、仮想音源VのサイズZに応じた定数αを使用した以下の数式(1)の演算(補間演算)により合成伝達特性Qが生成される。定数αは、サイズZに応じて変動する1以下の非負数である(0≦α≦1)。
Q=(1-α)・qS+α・qL  …(1)
 数式(1)から理解される通り、仮想音源VのサイズZ(定数α)が大きいほど、合成伝達特性qLを優勢に反映した合成伝達特性Qが生成され、仮想音源VのサイズZが小さいほど、合成伝達特性qSを優勢に反映した合成伝達特性Qが生成される。仮想音源VのサイズZが最小である場合(α=0)には合成伝達特性qSが合成伝達特性Qとして選択され、仮想音源VのサイズZが最大である場合(α=1)には合成伝達特性qLが合成伝達特性Qとして選択される。
 以上に説明した通り、第4実施形態では、相異なる地点pに対応する複数の頭部伝達特性Hを反映した合成伝達特性Qが音響信号Xに付与されるから、第1実施形態と同様に、空間的な拡がりのある仮想音源Vの定位を音響信号Yの再生音の受聴者に知覚させることが可能である。また、設定処理部24が設定した仮想音源VのサイズZに応じた合成伝達特性Qが複数の合成伝達特性qから取得されるため、第1実施形態と同様に、相異なる複数のサイズZの仮想音源Vを受聴者に知覚させることが可能である。
 また、第4実施形態では、仮想音源Vの複数のサイズの各々について複数の頭部伝達特性Hの合成で生成された複数の合成伝達特性qから、設定処理部24が設定したサイズZに対応する合成伝達特性Qが取得されるから、合成伝達特性Qの取得の段階では複数の頭部伝達特性Hを合成(例えば加重平均)する必要がない。したがって、合成伝達特性Qの使用毎にN個の頭部伝達特性Hを合成する構成(例えば第1実施形態)と比較して、合成伝達特性Qの取得に必要な処理負荷を軽減できるという利点がある。
 なお、第4実施形態では、仮想音源Vの相異なるサイズZに対応する2種類の合成伝達特性q(qLまたはqS)を例示したが、1個の地点pについて用意される合成伝達特性qの種類数を3以上とすることも可能である。また、仮想音源VのサイズZがとり得る全通りの数値について合成伝達特性qを地点p毎に用意する構成も採用され得る。仮想音源Vの全通りのサイズZについて合成伝達特性qを事前に用意する構成では、仮想音源Vの位置Pに対応する地点pの複数の合成伝達特性qのうち、設定処理部24が設定した仮想音源VのサイズZに対応する合成伝達特性qが、合成伝達特性Qとして選択されて音響信号Xに付与される。したがって、複数の合成伝達特性qの間の補間演算は省略される。
 また、第4実施形態では、基準面F上の複数の地点pの各々について合成伝達特性qを用意したが、合成伝達特性qを全部の地点pについて用意する必要はない。例えば、基準面F上の複数の地点pのうち所定の間隔で選択された各地点pについて合成伝達特性qを用意する構成も採用され得る。例えば、仮想音源の小さいサイズZに対応する合成伝達特性qほど多数の地点pについて用意した構成(例えば合成伝達特性qLと比較して合成伝達特性qSを多数の地点pについて用意した構成)が好適である。
<変形例>
 以上に例示した各態様は多様に変形され得る。具体的な変形の態様を以下に例示する。以下の例示から任意に選択された2個以上の態様は、相互に矛盾しない範囲で適宜に併合され得る。
(1)前述の各形態では、複数の頭部伝達特性Hを加重平均により合成する構成を例示したが、複数の頭部伝達特性Hを合成する方法は以上の例示に限定されない。例えば、第1実施形態および第2実施形態では、N個の頭部伝達特性Hの単純平均で合成伝達特性Qを生成することも可能である。同様に、第4実施形態では、複数の頭部伝達特性Hの単純平均で合成伝達特性qを生成することが可能である。
(2)第1実施形態から第3実施形態では、右耳と左耳とで対象範囲Aを個別に設定したが、右耳と左耳とで共通の対象範囲Aを設定することも可能である。例えば、受聴点p0を投影中心として仮想音源Vを基準面Fに透視投影した範囲を、範囲設定部32が右耳および左耳の双方の対象範囲Aとして設定することも可能である。右耳用の合成伝達特性Qは、対象範囲A内のN個の地点pに対応する右耳用の頭部伝達特性Hの合成で生成され、左耳用の合成伝達特性Qは、その対象範囲A内のN個の地点pに対応する左耳用の頭部伝達特性Hの合成で生成される。
(3)前述の各形態では、仮想音源Vを基準面Fに透視投影した範囲を対象範囲Aとして例示したが、対象範囲Aを画定する方法は以上の例示に限定されない。例えば、仮想音源Vの位置Pと受聴点p0とを連結する直線に沿って仮想音源Vを基準面Fに平行投影した範囲を対象範囲Aとして設定することも可能である。ただし、仮想音源Vを基準面Fに平行投影する構成では、受聴点p0と仮想音源Vとの距離が変化しても対象範囲Aの面積が変化しない。したがって、仮想音源Vの位置Pに応じた定位感の変化を受聴者に知覚させるという観点からは、前述の各形態の例示のように、仮想音源Vを基準面Fに透視投影した範囲を対象範囲Aとして設定する構成が好適である。
(4)第2実施形態では、遅延補正部38が各頭部伝達特性Hの遅延量δを補正したが、受聴点p0と仮想音源V(位置P)との距離に応じた遅延量を対象範囲A内のN個の頭部伝達特性Hに対して共通に付加することも可能である。例えば、受聴点p0と仮想音源Vとの距離が大きいほど各頭部伝達特性Hの遅延量を増加させる構成が想定される。
(5)前述の各形態では、時間領域の頭部インパルス応答で頭部伝達特性Hを表現した場合を例示したが、周波数領域の頭部伝達関数(HRTF:Head-Related Transfer Function)により頭部伝達特性Hを表現することも可能である。頭部伝達関数を使用する構成では、音響信号Xに対して周波数領域で頭部伝達特性Hが付与される。以上の説明から理解される通り、頭部伝達特性Hは、時間領域の頭部インパルス応答と周波数領域の頭部伝達関数との双方を包含する概念である。
(6)移動体通信網またはインターネット等の通信網を介して端末装置(例えば携帯電話機またはスマートフォン)と通信するサーバ装置により音響処理装置100を実現することも可能である。例えば、音響処理装置100は、端末装置に対する操作を表す操作情報を端末装置から通信網を介して受信する。設定処理部24は、端末装置から受信した操作情報に応じて仮想音源の位置PおよびサイズZを設定する。信号処理部26(26A,26Bまたは26C)は、前述の各形態と同様に、音響信号Xの音響を発音するサイズZの仮想音源が受聴者に対して位置Pに定位するように、音響信号Xに対する音像定位処理で音響信号Yを生成する。音響処理装置100は、音響信号Yを端末装置に送信する。端末装置は、音響信号Yが表す音を再生する。
(7)前述の各形態で例示した音響処理装置100は、前述の通り、制御装置12とプログラムとの協働で実現される。例えば第1態様(例えば第1実施形態から第3実施形態)に係るプログラムは、制御装置12等のコンピュータ(例えば単数または複数の処理回路)を、仮想音源VのサイズZを可変に設定する設定処理部24、および、受聴点p0に対する位置が相違する複数の地点pのうち設定処理部24が設定したサイズZに応じた対象範囲A内の各地点pに対応する複数の頭部伝達特性Hを音響信号Xに付与して音響信号Yを生成する信号処理部(26Aまたは26B)として機能させる。
 また、第2態様(例えば第4実施形態)に対応するプログラムは、制御装置12等のコンピュータ(例えば単数または複数の処理回路)を、仮想音源VのサイズZを可変に設定する設定処理部24、仮想音源Vの複数のサイズZの各々について、受聴点p0に対する位置が相違する複数の地点pのうち当該サイズZに応じた対象範囲A内の各地点pに対応する複数の頭部伝達特性Hの合成で生成された複数の合成伝達特性qから、設定処理部24が設定したサイズZに対応する合成伝達特性Qを取得する特性取得部62、および、特性取得部62が取得した合成伝達特性Qを音響信号Xに付与することで音響信号Yを生成する特性付与部64として機能させる。
 以上に例示したプログラムは、コンピュータが読取可能な記録媒体に格納された形態で提供されてコンピュータにインストールされ得る。記録媒体は、例えば非一過性(non-transitory)の記録媒体であり、CD-ROM等の光学式記録媒体(光ディスク)が好例であるが、半導体記録媒体または磁気記録媒体等の公知の任意の形式の記録媒体を包含し得る。なお、非一過性の記録媒体とは、一過性の伝搬信号(transitory, propagating signal)を除く任意の記録媒体を含み、揮発性の記録媒体を除外するものではない。また、通信網を介した配信の形態でプログラムをコンピュータに配信することも可能である。
(8)本発明の好適な態様は、前述の各形態で例示した音響処理装置100の動作方法(音響処理方法)としても特定され得る。第1態様(例えば第1実施形態から第3実施形態)の音響処理方法は、コンピュータ(単体のコンピュータまたは複数のコンピュータで構成されるシステム)が、仮想音源VのサイズZを可変に設定し、受聴点p0に対する位置が相違する複数の地点pのうち設定したサイズZに応じた対象範囲A内の各地点pに対応する複数の頭部伝達特性Hを音響信号Xに付与して音響信号Yを生成する。第2態様(例えば第4実施形態)の音響処理方法は、コンピュータ(単体のコンピュータまたは複数のコンピュータで構成されるシステム)が、仮想音源VのサイズZを可変に設定し、仮想音源Vの複数のサイズZの各々について、受聴点p0に対する位置が相違する複数の地点pのうち当該サイズZに応じた対象範囲A内の各地点pに対応する複数の頭部伝達特性Hの合成で生成された複数の合成伝達特性qから、設定したサイズZに対応する合成伝達特性Qを取得し、取得した合成伝達特性Qを音響信号Xに付与することで音響信号Yを生成する。
(9)以上に例示した形態から、例えば以下の構成が把握される。
<態様1>
 本発明の好適な態様(態様1)に係る音響処理方法は、仮想音源のサイズを設定し、受聴点に対する位置が相違する複数の地点のうち前記設定したサイズに応じた範囲内の各地点に対応する複数の頭部伝達特性を第1音響信号に付与することで第2音響信号を生成する。以上の態様では、相異なる地点に対応する複数の頭部伝達特性が第1音響信号に付与されるから、空間的な拡がりのある仮想音源の定位を第2音響信号の再生音の受聴者に知覚させることができる。なお、仮想音源のサイズに応じた可変の範囲を設定すれば、相異なる複数のサイズの仮想音源を受聴者に知覚させることが可能である。
<態様2>
 態様1の好適例(態様2)において、前記第2音響信号の生成は、前記仮想音源のサイズに応じた前記範囲を設定することと、前記設定した前記範囲内の相異なる地点に対応する複数の頭部伝達特性を合成することと、前記合成後の頭部伝達特性を前記第1音響信号に付与することで前記第2音響信号を生成することとを含む。以上の態様では、範囲内の複数の頭部伝達特性の合成で生成された頭部伝達特性が第1音響信号に付与される。したがって、範囲内の複数の頭部伝達特性の各々を第1音響信号に付与してから合成する構成と比較して、頭部伝達特性の付与(例えば畳込演算)に必要な処理負荷を軽減することが可能である。
<態様3>
 態様2の好適例(態様3)において、前記仮想音源の位置を設定し、前記範囲の設定においては、前記仮想音源のサイズおよび位置に応じた前記範囲を設定する。以上の態様では、仮想音源のサイズおよび位置が設定されるから、空間的な拡がりのある仮想音源の位置を変更することが可能である。
<態様4>
 態様2または態様3の好適例(態様4)において、前記複数の頭部伝達特性の合成では、前記範囲内の前記各地点の位置に応じて設定された加重値を使用して前記複数の頭部伝達特性を加重平均する。以上の態様では、範囲内の各地点の位置に応じて設定された加重値が複数の頭部伝達特性の加重平均に使用されるから、範囲内の位置に応じて頭部伝達特性の反映の度合を相違させた多様な特性を第1音響信号に付与することが可能である。
<態様5>
 態様2から態様4の何れかの好適例(態様5)において、前記範囲の設定では、前記受聴点に対応する耳位置または当該受聴点を投影中心として、前記複数の地点を含む基準面に前記仮想音源を透視投影することで、前記範囲を設定する。以上の態様では、受聴点または耳位置を投影中心として仮想音源を基準面に透視投影することで範囲が設定されるから、受聴点と仮想音源との距離に応じて対象範囲の面積(さらには対象範囲内の頭部伝達特性の個数)が変化する。したがって、仮想音源との距離の変化を受聴者に知覚させることが可能である。
<態様6>
 態様1から態様5の何れかの好適例(態様6)において、右耳および左耳の各々について前記範囲を個別に設定し、前記右耳について設定した前記範囲内の各地点に対応する右耳用の前記複数の頭部伝達特性を前記第1音響信号に付与することで右チャネルの前記第2音響信号を生成し、前記左耳について設定した前記範囲内の各地点に対応する左耳用の前記複数の頭部伝達関数を前記第1音響信号に付与することで左チャネルの前記第2音響信号を生成する。以上の態様では、右耳と左耳とについて範囲が個別に設定されるから、受聴者が仮想音源の定位を明確に知覚できる第2音響信号を生成することが可能である。
<態様7>
 態様1から態様5の何れかの好適例(態様7)において、右耳および左耳について共通の前記範囲を設定し、前記範囲内の各地点に対応する右耳用の前記複数の頭部伝達特性を前記第1音響信号に付与することで右チャネルの前記第2音響信号を生成し、前記範囲内の各地点に対応する左耳用の前記複数の頭部伝達特性を前記第1音響信号に付与することで左チャネルの前記第2音響信号を生成する。以上の態様では、右耳と左耳とについて共通の範囲が設定されるから、右耳と左耳とで個別に範囲を設定する構成と比較して、演算量が削減されるという利点がある。
<態様8>
 態様2から態様7の何れかの好適例(態様8)において、前記第2音響信号の生成は、前記範囲内の相異なる地点に対応する複数の頭部伝達特性の各々について、当該地点と前記受聴点における耳位置との距離に応じて当該頭部伝達特性の遅延量を補正することを含み、前記複数の頭部伝達特性の合成においては、前記補正後の複数の頭部伝達特性を合成する。以上の態様では、範囲内の各地点と耳位置との距離に応じて頭部伝達特性の遅延量が補正されるから、範囲内の複数の頭部伝達特性における遅延量の差異の影響を低減することが可能である。したがって、仮想音源の自然な定位を受聴者に知覚させることができる。
<態様9>
 本発明の好適な態様(態様9)に係る音響処理方法は、仮想音源のサイズを設定し、前記仮想音源の複数のサイズについて、受聴点に対する位置が相違する複数の地点のうち当該サイズに応じた範囲内の各地点に対応する複数の頭部伝達特性の合成でそれぞれ生成された複数の合成伝達特性から、前記設定したサイズに対応する合成伝達特性を取得し、前記取得した合成伝達特性を第1音響信号に付与することで第2音響信号を生成する。以上の態様では、相異なる地点に対応する複数の頭部伝達特性を反映した合成伝達特性が第1音響信号に付与されるから、空間的な拡がりのある仮想音源の定位を第2音響信号の再生音の受聴者に知覚させることができる。また、仮想音源のサイズに応じた範囲内の複数の頭部伝達特性を反映した合成伝達特性が第1音響信号に付与されるから、相異なる複数のサイズの仮想音源を受聴者に知覚させることが可能である。さらに、仮想音源の相異なるサイズに対応する複数の合成伝達特性のうち設定したサイズに対応する合成伝達特性が第1音響信号に付与されるから、合成伝達特性の取得の段階では複数の頭部伝達特性を合成する必要がない。したがって、合成伝達特性の使用毎に複数の頭部伝達特性を合成する構成と比較して、合成伝達特性の取得に必要な処理負荷を軽減できるという利点がある。
<態様10>
 本発明の好適な態様(態様10)に係る音響処理装置は、仮想音源のサイズを設定する設定処理部と、受聴点に対する位置が相違する複数の地点のうち前記設定処理部が設定したサイズに応じた範囲内の各地点に対応する複数の頭部伝達特性を第1音響信号に付与することで第2音響信号を生成する信号処理部とを具備する。以上の態様では、相異なる地点に対応する複数の頭部伝達特性が第1音響信号に付与されるから、空間的な拡がりのある仮想音源の定位を第2音響信号の再生音の受聴者に知覚させることができる。なお、仮想音源のサイズに応じた可変の範囲を設定すれば、相異なる複数のサイズの仮想音源を受聴者に知覚させることが可能である。
<態様11>
 本発明の好適な態様(態様11)に係る音響処理装置は、仮想音源のサイズを設定する設定処理部と、前記仮想音源の複数のサイズの各々について、受聴点に対する位置が相違する複数の地点のうち当該サイズに応じた範囲内の各地点に対応する複数の頭部伝達特性の合成で生成された複数の合成伝達特性から、前記設定処理部が設定したサイズに対応する合成伝達特性を取得する特性取得部と、前記特性取得部が取得した合成伝達特性を第1音響信号に付与することで第2音響信号を生成する特性付与部とを具備する。以上の態様では、相異なる地点に対応する複数の頭部伝達特性を反映した合成伝達特性が第1音響信号に付与されるから、空間的な拡がりのある仮想音源の定位を第2音響信号の再生音の受聴者に知覚させることができる。また、仮想音源のサイズに応じた範囲内の複数の頭部伝達特性を反映した合成伝達特性が第1音響信号に付与されるから、相異なる複数のサイズの仮想音源を受聴者に知覚させることが可能である。さらに、仮想音源の相異なるサイズに対応する複数の合成伝達特性のうち設定したサイズに対応する合成伝達特性が第1音響信号に付与されるから、合成伝達特性の取得の段階では複数の頭部伝達特性を合成する必要がない。したがって、合成伝達特性の使用毎に複数の頭部伝達特性を合成する構成と比較して、合成伝達特性の取得に必要な処理負荷を軽減できるという利点がある。
100…音響処理装置、12…制御装置、14…記憶装置、16…放音装置、22…音響生成部、24…設定処理部、26A,26B,26C…信号処理部、32…範囲設定部、34…特性合成部、36,52,64…特性付与部、38…遅延補正部、54…信号合成部、62…特性取得部。
 
 

Claims (11)

  1.  仮想音源のサイズを設定し、
     受聴点に対する位置が相違する複数の地点のうち前記設定したサイズに応じた範囲内の各地点に対応する複数の頭部伝達特性を第1音響信号に付与することで第2音響信号を生成する
     音響処理方法。
  2.  前記第2音響信号の生成は、
     前記仮想音源のサイズに応じた前記範囲を設定することと、
     前記設定した前記範囲内の相異なる地点に対応する複数の頭部伝達特性を合成することと、
     前記合成後の頭部伝達特性を前記第1音響信号に付与することで前記第2音響信号を生成することとを含む
     請求項1の音響処理方法。
  3.  前記仮想音源の位置を設定し、
     前記範囲の設定においては、前記仮想音源のサイズおよび位置に応じた前記範囲を設定する
     請求項2の音響処理方法。
  4.  前記複数の頭部伝達特性の合成において、前記範囲内の前記各地点の位置に応じて設定された加重値を使用して前記複数の頭部伝達特性を加重平均する
     請求項2または請求項3の音響処理方法。
  5.  前記範囲の設定において、前記受聴点に対応する耳位置または当該受聴点を投影中心として、前記複数の地点を含む基準面に前記仮想音源を透視投影することで、前記範囲を設定する
     請求項2から請求項4の何れかの音響処理方法。
  6.  右耳および左耳の各々について前記範囲を個別に設定し、
     前記右耳について設定した前記範囲内の各地点に対応する右耳用の前記複数の頭部伝達特性を前記第1音響信号に付与することで右チャネルの前記第2音響信号を生成し、前記左耳について設定した前記範囲内の各地点に対応する左耳用の前記複数の頭部伝達特性を前記第1音響信号に付与することで左チャネルの前記第2音響信号を生成する
     請求項1から請求項5の何れかの音響処理方法。
  7.  右耳および左耳について共通の前記範囲を設定し、
     前記範囲内の各地点に対応する右耳用の前記複数の頭部伝達特性を前記第1音響信号に付与することで右チャネルの前記第2音響信号を生成し、前記範囲内の各地点に対応する左耳用の前記複数の頭部伝達特性を前記第1音響信号に付与することで左チャネルの前記第2音響信号を生成する
     請求項1から請求項5の何れかの音響処理方法。
  8.  前記第2音響信号の生成は、
     前記範囲内の相異なる地点に対応する複数の頭部伝達特性の各々について、当該地点と前記受聴点における耳位置との距離に応じて当該頭部伝達特性の遅延量を補正することを含み、
     前記複数の頭部伝達特性の合成においては、前記補正後の複数の頭部伝達特性を合成する
     請求項2から請求項7の何れかの音響処理方法。
  9.  仮想音源のサイズを設定し、
     前記仮想音源の複数のサイズについて、受聴点に対する位置が相違する複数の地点のうち当該サイズに応じた範囲内の各地点に対応する複数の頭部伝達特性の合成でそれぞれ生成された複数の合成伝達特性から、前記設定したサイズに対応する合成伝達特性を取得し、
     前記取得した合成伝達特性を第1音響信号に付与することで第2音響信号を生成する
     音響処理方法。
  10.  仮想音源のサイズを設定する設定処理部と、
     受聴点に対する位置が相違する複数の地点のうち前記設定処理部が設定したサイズに応じた範囲内の各地点に対応する複数の頭部伝達特性を第1音響信号に付与することで第2音響信号を生成する信号処理部と
     を具備する音響処理装置。
  11.  仮想音源のサイズを設定する設定処理部と、
     前記仮想音源の複数のサイズの各々について、受聴点に対する位置が相違する複数の地点のうち当該サイズに応じた範囲内の各地点に対応する複数の頭部伝達特性の合成で生成された複数の合成伝達特性から、前記設定処理部が設定したサイズに対応する合成伝達特性を取得する特性取得部と、
     前記特性取得部が取得した合成伝達特性を第1音響信号に付与することで第2音響信号を生成する特性付与部と
     を具備する音響処理装置。
     
PCT/JP2017/009799 2016-03-23 2017-03-10 音響処理方法および音響処理装置 WO2017163940A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP17769984.0A EP3435690B1 (en) 2016-03-23 2017-03-10 Sound processing method and sound processing device
CN201780017507.XA CN108781341B (zh) 2016-03-23 2017-03-10 音响处理方法及音响处理装置
US16/135,644 US10708705B2 (en) 2016-03-23 2018-09-19 Audio processing method and audio processing apparatus
US16/922,529 US10972856B2 (en) 2016-03-23 2020-07-07 Audio processing method and audio processing apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016058670A JP6786834B2 (ja) 2016-03-23 2016-03-23 音響処理装置、プログラムおよび音響処理方法
JP2016-058670 2016-03-23

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/135,644 Continuation US10708705B2 (en) 2016-03-23 2018-09-19 Audio processing method and audio processing apparatus

Publications (1)

Publication Number Publication Date
WO2017163940A1 true WO2017163940A1 (ja) 2017-09-28

Family

ID=59900168

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/009799 WO2017163940A1 (ja) 2016-03-23 2017-03-10 音響処理方法および音響処理装置

Country Status (5)

Country Link
US (2) US10708705B2 (ja)
EP (1) EP3435690B1 (ja)
JP (1) JP6786834B2 (ja)
CN (1) CN108781341B (ja)
WO (1) WO2017163940A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020127329A1 (en) * 2018-12-19 2020-06-25 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for reproducing a spatially extended sound source or apparatus and method for generating a bitstream from a spatially extended sound source
RU2780536C1 (ru) * 2018-12-19 2022-09-27 Фраунхофер-Гезелльшафт Цур Фердерунг Дер Ангевандтен Форшунг Е.Ф. Оборудование и способ для воспроизведения пространственно протяженного источника звука или оборудование и способ для формирования потока битов из пространственно протяженного источника звука

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6786834B2 (ja) 2016-03-23 2020-11-18 ヤマハ株式会社 音響処理装置、プログラムおよび音響処理方法
WO2021118352A1 (en) * 2019-12-12 2021-06-17 Liquid Oxigen (Lox) B.V. Generating an audio signal associated with a virtual sound source
NL2024434B1 (en) * 2019-12-12 2021-09-01 Liquid Oxigen Lox B V Generating an audio signal associated with a virtual sound source
EP3879856A1 (en) * 2020-03-13 2021-09-15 FRAUNHOFER-GESELLSCHAFT zur Förderung der angewandten Forschung e.V. Apparatus and method for synthesizing a spatially extended sound source using cue information items
EP4185945A1 (en) * 2020-07-22 2023-05-31 Telefonaktiebolaget LM Ericsson (publ) Spatial extent modeling for volumetric audio sources
KR102658471B1 (ko) * 2020-12-29 2024-04-18 한국전자통신연구원 익스텐트 음원에 기초한 오디오 신호의 처리 방법 및 장치
KR20230157331A (ko) * 2021-03-16 2023-11-16 파나소닉 인텔렉츄얼 프로퍼티 코포레이션 오브 아메리카 정보 처리 방법, 정보 처리 장치, 및, 프로그램
BR112023022238A2 (pt) * 2021-04-29 2024-02-06 Dolby Int Ab Métodos, aparelho e sistemas para modelar objetos de áudio com extensão
WO2023061965A2 (en) * 2021-10-11 2023-04-20 Telefonaktiebolaget Lm Ericsson (Publ) Configuring virtual loudspeakers

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0787599A (ja) * 1993-09-10 1995-03-31 Matsushita Electric Ind Co Ltd 音像移動装置
JP2001028800A (ja) * 1999-06-10 2001-01-30 Samsung Electronics Co Ltd 位置調節が可能な仮想音像を利用したスピーカ再生用多チャンネルオーディオ再生装置及びその方法
JP2005157278A (ja) * 2003-08-26 2005-06-16 Victor Co Of Japan Ltd 全周囲音場創生装置、全周囲音場創生方法、及び全周囲音場創生プログラム
JP2013201564A (ja) * 2012-03-23 2013-10-03 Yamaha Corp 音響処理装置

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5944199A (ja) 1982-09-06 1984-03-12 Matsushita Electric Ind Co Ltd ヘツドホン装置
GB2343347B (en) * 1998-06-20 2002-12-31 Central Research Lab Ltd A method of synthesising an audio signal
GB2374504B (en) * 2001-01-29 2004-10-20 Hewlett Packard Co Audio user interface with selectively-mutable synthesised sound sources
US20030007648A1 (en) * 2001-04-27 2003-01-09 Christopher Currell Virtual audio system and techniques
EP1552724A4 (en) * 2002-10-15 2010-10-20 Korea Electronics Telecomm METHOD FOR GENERATING AND USING A 3D AUDIOSCENCE WITH EXTENDED EFFICIENCY OF SOUND SOURCE
CN101002253A (zh) * 2004-06-01 2007-07-18 迈克尔·A.·韦塞利 水平透视模拟器
JP2006074589A (ja) * 2004-09-03 2006-03-16 Matsushita Electric Ind Co Ltd 音響処理装置
US7634092B2 (en) * 2004-10-14 2009-12-15 Dolby Laboratories Licensing Corporation Head related transfer functions for panned stereo audio content
JP5114981B2 (ja) * 2007-03-15 2013-01-09 沖電気工業株式会社 音像定位処理装置、方法及びプログラム
US9578440B2 (en) * 2010-11-15 2017-02-21 The Regents Of The University Of California Method for controlling a speaker array to provide spatialized, localized, and binaural virtual surround sound
US9826328B2 (en) * 2012-08-31 2017-11-21 Dolby Laboratories Licensing Corporation System for rendering and playback of object based audio in various listening environments
US10425747B2 (en) * 2013-05-23 2019-09-24 Gn Hearing A/S Hearing aid with spatial signal enhancement
DE102013011696A1 (de) * 2013-07-12 2015-01-15 Advanced Acoustic Sf Gmbh Variable Vorrichtung zur Ausrichtung von Schallwellenfronten
US20150189457A1 (en) * 2013-12-30 2015-07-02 Aliphcom Interactive positioning of perceived audio sources in a transformed reproduced sound field including modified reproductions of multiple sound fields
JP6786834B2 (ja) * 2016-03-23 2020-11-18 ヤマハ株式会社 音響処理装置、プログラムおよび音響処理方法
US10425762B1 (en) * 2018-10-19 2019-09-24 Facebook Technologies, Llc Head-related impulse responses for area sound sources located in the near field

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0787599A (ja) * 1993-09-10 1995-03-31 Matsushita Electric Ind Co Ltd 音像移動装置
JP2001028800A (ja) * 1999-06-10 2001-01-30 Samsung Electronics Co Ltd 位置調節が可能な仮想音像を利用したスピーカ再生用多チャンネルオーディオ再生装置及びその方法
JP2005157278A (ja) * 2003-08-26 2005-06-16 Victor Co Of Japan Ltd 全周囲音場創生装置、全周囲音場創生方法、及び全周囲音場創生プログラム
JP2013201564A (ja) * 2012-03-23 2013-10-03 Yamaha Corp 音響処理装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3435690A4 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020127329A1 (en) * 2018-12-19 2020-06-25 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for reproducing a spatially extended sound source or apparatus and method for generating a bitstream from a spatially extended sound source
CN113316943A (zh) * 2018-12-19 2021-08-27 弗劳恩霍夫应用研究促进协会 再现空间扩展声源的设备与方法、或从空间扩展声源生成比特流的设备与方法
RU2780536C1 (ru) * 2018-12-19 2022-09-27 Фраунхофер-Гезелльшафт Цур Фердерунг Дер Ангевандтен Форшунг Е.Ф. Оборудование и способ для воспроизведения пространственно протяженного источника звука или оборудование и способ для формирования потока битов из пространственно протяженного источника звука
TWI786356B (zh) * 2018-12-19 2022-12-11 弗勞恩霍夫爾協會 再現空間擴展聲源的設備與方法、或從空間擴展聲源生成位元流的設備與方法
US11937068B2 (en) 2018-12-19 2024-03-19 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for reproducing a spatially extended sound source or apparatus and method for generating a bitstream from a spatially extended sound source

Also Published As

Publication number Publication date
CN108781341B (zh) 2021-02-19
US20200404442A1 (en) 2020-12-24
US10708705B2 (en) 2020-07-07
EP3435690B1 (en) 2022-10-19
JP2017175356A (ja) 2017-09-28
EP3435690A1 (en) 2019-01-30
US10972856B2 (en) 2021-04-06
EP3435690A4 (en) 2019-10-23
JP6786834B2 (ja) 2020-11-18
US20190020968A1 (en) 2019-01-17
CN108781341A (zh) 2018-11-09

Similar Documents

Publication Publication Date Title
WO2017163940A1 (ja) 音響処理方法および音響処理装置
JP7367785B2 (ja) 音声処理装置および方法、並びにプログラム
JP2008228155A (ja) 音像定位処理装置、方法及びプログラム
WO2023210699A1 (ja) 音声生成装置、音声再生装置、音声生成方法、及び音声信号処理プログラム
JP2023164284A (ja) 音声生成装置、音声再生装置、音声生成方法、及び音声信号処理プログラム
JP2022128177A (ja) 音声生成装置、音声再生装置、音声再生方法、及び音声信号処理プログラム
JP2023139706A (ja) 音響システムおよび電子楽器

Legal Events

Date Code Title Description
NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2017769984

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2017769984

Country of ref document: EP

Effective date: 20181023

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17769984

Country of ref document: EP

Kind code of ref document: A1