WO2023199815A1 - 音響処理方法、プログラム、及び音響処理システム - Google Patents

音響処理方法、プログラム、及び音響処理システム Download PDF

Info

Publication number
WO2023199815A1
WO2023199815A1 PCT/JP2023/014064 JP2023014064W WO2023199815A1 WO 2023199815 A1 WO2023199815 A1 WO 2023199815A1 JP 2023014064 W JP2023014064 W JP 2023014064W WO 2023199815 A1 WO2023199815 A1 WO 2023199815A1
Authority
WO
WIPO (PCT)
Prior art keywords
sound
source object
user
information
virtual
Prior art date
Application number
PCT/JP2023/014064
Other languages
English (en)
French (fr)
Inventor
康太 中橋
成悟 榎本
陽 宇佐見
摩里子 山田
宏幸 江原
耕 水野
智一 石川
Original Assignee
パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ filed Critical パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ
Publication of WO2023199815A1 publication Critical patent/WO2023199815A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K15/00Acoustics not otherwise provided for
    • G10K15/08Arrangements for producing a reverberation or echo sound
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control

Definitions

  • the present disclosure relates to a sound processing method, program, and sound processing system for realizing three-dimensional sound in space.
  • Patent Document 1 discloses a sound environment simulating experience device that reproduces the sound environment in any space without using an actual room or model.
  • An object of the present disclosure is to provide a sound processing method and the like that can easily reproduce sounds that do not cause a user to feel uncomfortable while reducing the amount of calculations.
  • meta information including sound information regarding a sound including a predetermined sound and information regarding a space in which the predetermined sound is played is acquired.
  • acoustic processing method based on the sound information and the meta information, acoustic processing is performed to generate a sound signal representing a sound including an early reflected sound that reaches the user after the direct sound from the sound source object to the user. .
  • an output sound signal including the sound signal is output.
  • parameters for generating the early reflected sound including the position of a virtual sound source object that generates the early reflected sound in the space are determined, and the early reflected sound is generated based on the determined parameters. . At least some of the parameters vary over time according to predetermined conditions.
  • a program according to an aspect of the present disclosure causes a computer to execute the sound processing method.
  • a sound processing system includes an acquisition section, a sound processing section, and an output section.
  • the acquisition unit acquires meta information including sound information regarding a sound including a predetermined sound and information regarding a space in which the predetermined sound is played.
  • the acoustic processing unit executes acoustic processing to generate a sound signal representing a sound including an early reflected sound that reaches the user after the direct sound from the sound source object to the user, based on the sound information and the meta information.
  • the output section outputs an output sound signal including the sound signal.
  • the acoustic processing section includes a parameter determining section and an early reflected sound generation processing section.
  • the parameter determining unit determines parameters for generating the early reflected sound, including a position of a virtual sound source object that generates the early reflected sound in the space.
  • the early reflected sound generation processing section generates the early reflected sound based on the determined parameters. At least some of the parameters vary over time according to predetermined conditions.
  • FIG. 1 is a schematic diagram showing an example of use of a sound reproduction device according to an embodiment.
  • FIG. 2 is a block diagram showing the functional configuration of the sound reproduction device according to the embodiment.
  • FIG. 3 is a block diagram showing a more detailed functional configuration of the sound processing system according to the embodiment.
  • FIG. 4 is an explanatory diagram of changes over time in parameters of early reflected sounds.
  • FIG. 5 is a flowchart showing the basic operation of the sound processing system according to the embodiment.
  • FIG. 6 is a block diagram showing the functional configuration of the first example of the sound processing system according to the embodiment.
  • FIG. 7 is a flowchart showing the operation of the first example of the sound processing system according to the embodiment.
  • FIG. 8 is an explanatory diagram of the operation in the second example of the sound processing system according to the embodiment.
  • FIG. 9 is a flowchart showing the operation of the second example of the sound processing system according to the embodiment.
  • a virtual three-dimensional space (hereinafter sometimes referred to as a three-dimensional sound field)
  • a sound image which is a sound source object in the user's sense
  • the user is made to perceive three-dimensional sound.
  • Techniques related to sound reproduction are known.
  • the user can hear the sound as if it were coming from a direction parallel to the straight line connecting the predetermined position and the user (i.e., a predetermined direction). This sound can be perceived.
  • VR virtual reality
  • AR augmented reality
  • the position of the virtual space does not follow the user's movements, and the main focus is on allowing the user to experience as if they are moving within the virtual space.
  • attempts are being made to enhance the sense of realism by incorporating auditory elements into visual elements in virtual reality or augmented reality technology.
  • auditory elements it is useful to emphasize the localization of the sound image as described above so that the sound can be heard from outside the user's head.
  • the acoustic processing referred to here is processing for generating sounds other than direct sounds from the sound source object to the user in a three-dimensional sound field.
  • the acoustic processing may include, for example, processing to generate early reflected sounds.
  • Early reflected sound is a reflection that reaches the user through one or more reflections relatively early after the direct sound reaches the user from the sound source object (for example, about several tens of milliseconds from the time the direct sound arrives). It's a sound.
  • the early reflected sound is represented as a direct sound reaching the user from the virtual sound source object.
  • the following problems may occur. That is, in real space, when a reflected sound reaches a user from a sound source object via a reflection point, the sound wave traveling from the reflection point to the user has fluctuations in its direction or sound pressure. Therefore, even if the reflection point continues to be at the same position, exactly the same sound wave will not continue to reach the user from the reflection point. However, when the above method is adopted, the same reflected sound continues to reach the user from the reflection point (the position of the virtual sound source object), which may make the user feel uncomfortable.
  • the present disclosure provides an audio system that reduces the amount of calculation and makes it easy to reproduce sounds that do not cause a user to feel uncomfortable, by varying at least some of the parameters for generating early reflected sounds over time.
  • the purpose is to provide processing methods, etc.
  • meta information including sound information regarding a sound including a predetermined sound and information regarding a space in which the predetermined sound is played is acquired, and the sound information and Based on the meta information, acoustic processing is performed to generate a sound signal representing a sound including an early reflected sound that reaches the user after the direct sound from the sound source object to the user, and an output sound signal including the sound signal is output.
  • acoustic processing parameters for generating early reflected sounds including the position of a virtual sound source object that generates early reflected sounds in space are determined, and early reflected sounds are generated based on the determined parameters. At least some of the parameters vary over time according to predetermined conditions.
  • the parameter that changes over time is the position of the virtual sound source object that generates the early reflected sound in space.
  • the advantage is that by changing the position of the virtual sound source object over time, which requires a relatively small amount of calculation, it is easy to change the direction or sound pressure of the early reflected sound that reaches the user over time. There is.
  • the predetermined condition is a random number for determining the position of the virtual sound source object.
  • the process of randomly varying the position of the virtual sound source object over time which requires a relatively small amount of calculation, has the advantage that the user is less likely to feel uncomfortable with the early reflected sound.
  • the predetermined condition is a trajectory in space for determining the position of the virtual sound source object.
  • the process of changing the position of the virtual sound source object along the trajectory over time which requires a relatively small amount of calculation, has the advantage that the user is less likely to feel uncomfortable with the early reflected sound.
  • the range in which the position of the virtual sound source object can be varied is the range between the user and the virtual sound source object. Determined according to positional relationship.
  • an appropriate early reflected sound is generated according to the positional relationship between the user and the virtual sound source object, so there is an advantage that the user is less likely to feel uncomfortable.
  • the range in which the position of the virtual sound source object can be varied is determined according to the acoustic characteristics of the space. It is determined.
  • the program according to the seventh aspect of the present disclosure causes a computer to execute the sound processing method according to any one of the first to sixth aspects.
  • the sound processing system includes an acquisition section, a sound processing section, and an output section.
  • the acquisition unit acquires meta information including sound information regarding a sound including the predetermined sound and information regarding a space in which the predetermined sound is played.
  • the acoustic processing unit executes acoustic processing to generate a sound signal representing a sound including an early reflected sound that reaches the user after the direct sound from the sound source object to the user, based on the sound information and the meta information.
  • the output section outputs an output sound signal including a sound signal.
  • the acoustic processing section includes a parameter determination section and an early reflected sound generation processing section.
  • the parameter determination unit determines parameters for generating early reflected sound including the position of a virtual sound source object that generates early reflected sound in space.
  • the early reflected sound generation processing section generates early reflected sound based on the determined parameters. At least some of the parameters vary over time according to predetermined conditions.
  • these general or specific aspects may be implemented in a system, apparatus, method, integrated circuit, computer program, or non-transitory storage medium, such as a computer readable CD-ROM; It may be implemented in any combination of devices, methods, integrated circuits, computer programs, and recording media.
  • FIG. 1 is a schematic diagram showing an example of use of a sound reproduction device according to an embodiment.
  • (a) of FIG. 1 shows a user U1 who uses an example of a sound reproduction device 100.
  • (b) of FIG. 1 shows a user U1 who uses another example of the audio reproduction device 100.
  • the sound reproduction device 100 shown in FIG. 1 is used, for example, at the same time as a display device that displays images or a stereoscopic video reproduction device that reproduces stereoscopic video.
  • the stereoscopic video playback device is an image display device that is attached to the head of the user U1, and allows the user U1 to create a three-dimensional sound field (virtual It gives the impression that the head is moving within the space. Further, the stereoscopic video playback device displays two images in which the left and right eyes of the user U1 are shifted by the amount of parallax. The user U1 can perceive the three-dimensional position of the object on the image based on the parallax shift of the displayed image. Note that although a three-dimensional video playback device is used here, a normal image display device may be used as described above.
  • the sound reproduction device 100 is a sound presentation device worn on the head of the user U1. Therefore, the sound reproduction device 100 moves integrally with the head of the user U1.
  • the sound reproduction device 100 in the embodiment may be a so-called over-ear headphone type device, as shown in (a) of FIG.
  • the device may be two earplug-type devices that are worn independently on the left and right ears of the user. The two devices communicate with each other to synchronize and present sounds for the right ear and sounds for the left ear.
  • the sound reproduction device 100 makes the user U1 perceive that the user U1 is moving his or her head within a three-dimensional sound field by varying the sound presented according to the movement of the user U1's head. Therefore, as described above, the sound reproduction device 100 moves the three-dimensional sound field in the direction opposite to the user's movement relative to the movement of the user U1.
  • FIG. 2 is a block diagram showing the functional configuration of the sound reproduction device 100 according to the embodiment.
  • FIG. 3 is a block diagram showing a more detailed functional configuration of the sound processing system 10 according to the embodiment.
  • the sound reproduction device 100 according to the embodiment includes a processing module 1, a communication module 2, a sensor 3, and a driver 4, as shown in FIG.
  • the processing module 1 is an arithmetic device for performing various types of signal processing in the audio reproduction device 100.
  • the processing module 1 includes, for example, a processor and a memory, and exhibits various functions when a program stored in the memory is executed by the processor.
  • the processing module 1 functions as an audio processing system 10 that includes an acquisition unit 11 including an extraction unit 12, an audio processing unit 13, and an output unit 14. Details of each functional unit included in the sound processing system 10 will be described below together with details of the configuration other than the processing module 1.
  • the communication module 2 is an interface device for receiving input of sound information and input of meta information to the audio reproduction device 100.
  • the communication module 2 includes, for example, an antenna and a signal converter, and receives sound information and meta information from an external device via wireless communication. More specifically, the communication module 2 uses an antenna to receive a wireless signal indicating sound information converted into a format for wireless communication, and uses a signal converter to reconvert the wireless signal into sound information. . Thereby, the sound reproduction device 100 acquires sound information from an external device through wireless communication. Similarly, the communication module 2 uses an antenna to receive a wireless signal indicating meta information converted into a format for wireless communication, and uses a signal converter to reconvert the wireless signal into meta information. Thereby, the audio reproduction device 100 acquires meta information from an external device through wireless communication.
  • the sound information and meta information acquired by the communication module 2 are both acquired by the acquisition unit 11 of the processing module 1. Note that communication between the audio reproduction device 100 and an external device may be performed by wired communication.
  • the sound reproduction device 100 includes the sound processing system 10 that has a function as a renderer that generates sound information with added sound effects. You can carry it. That is, all or part of the acquisition unit 11, the extraction unit 12, the audio processing unit 13, and the output unit 14 may exist in a server not shown. In that case, the sound signal generated by the sound processing section 13 in the server, or the sound signal obtained by combining the sound signals generated by the respective processing sections, is received by the sound reproduction device 100 through the communication module 2 and played back. .
  • the sound information and meta information are acquired by the audio reproduction device 100 as a bitstream encoded in a predetermined format such as MPEG-H 3D Audio (ISO/IEC 23008-3), for example.
  • the encoded sound information includes information about a predetermined sound reproduced by the sound reproduction device 100.
  • the predetermined sound here is a sound emitted by the sound source object A1 (see FIG. 4, etc.) existing in a three-dimensional sound field or a natural environmental sound, and may include, for example, mechanical sound or the sounds of animals including humans. .
  • the sound reproduction device 100 acquires a plurality of sound information respectively corresponding to the plurality of sound source objects A1.
  • Meta information is, for example, information used in the audio reproduction device 100 to control audio processing for sound information.
  • the meta information may be information used to describe a scene expressed in a virtual space (three-dimensional sound field).
  • the term "scene” refers to a collection of all elements representing three-dimensional video and audio events in a virtual space, which are modeled by the sound processing system 10 using meta information. That is, the meta information here may include not only information that controls audio processing but also information that controls video processing. Of course, the meta information may include information for controlling only one of the audio processing and the video processing, or may include information used for controlling both.
  • the audio reproduction device 100 generates a virtual sound effect by performing acoustic processing on sound information using meta information included in the bitstream and additionally acquired interactive position information of the user U1. It's okay.
  • acoustic effects a case will be described in which mainly early reflected sounds are generated, but other acoustic processing may be performed using meta information.
  • acoustic effects such as diffraction sound, generation of late reverberation sound, distance attenuation effect, localization, or Doppler effect &.
  • information for switching on/off all or part of the sound effects may be added as meta information.
  • meta information may be obtained from sources other than the bitstream of sound information.
  • meta information that controls audio or the meta information that controls video may be obtained from sources other than the bitstream, or both meta information may be obtained from sources other than the bit stream.
  • the audio playback device 100 transmits the meta information that can be used to control the video to a display device for displaying the image, or It may also have a function of outputting to a stereoscopic video playback device that plays back stereoscopic video.
  • the encoded meta information includes information regarding the sound source object A1 that emits the sound, a three-dimensional sound field (space) including obstacles, and localization of the sound image of the sound at a predetermined position within the three-dimensional sound field.
  • the obstacle may affect the sound perceived by the user U1 by, for example, blocking or reflecting the sound until the sound emitted by the sound source object A1 reaches the user U1. It is an object. Obstacles may include animals such as people, or moving objects such as machines, in addition to stationary objects.
  • both non-sound source objects such as building materials or inanimate objects and sound source objects that emit sound can become obstacles.
  • the meta information includes the shape of the three-dimensional sound field (space), the shape and position of obstacles existing in the three-dimensional sound field, the shape and position of the sound source object A1 existing in the three-dimensional sound field, and the shape and position of obstacles in the three-dimensional sound field.
  • Information representing the position and orientation of the user U1 is included.
  • the meta information also includes information representing the reflectance of structures that can reflect sound in the three-dimensional sound field, such as floors, walls, or ceilings, and the reflectance of obstacles that exist in the three-dimensional sound field. It will be done.
  • the reflectance is a ratio of energy between reflected sound and incident sound, and is set for each frequency band of sound. Of course, the reflectance may be set uniformly regardless of the frequency band of the sound.
  • parameters such as a uniformly set attenuation rate, diffracted sound, or early reflected sound may be used, for example.
  • reflectance was mentioned as a parameter related to the obstacle or sound source object A1 included in the meta information, but information other than reflectance may be included.
  • information regarding the material of the object may be included as meta information related to both the sound source object and the non-sound source object.
  • the meta information may include parameters such as diffusivity, transmittance, or sound absorption coefficient.
  • Information regarding the sound source object may include volume, radiation characteristics (directivity), playback conditions, the number and type of sound sources emitted from one object, or information specifying the sound source area in the object.
  • the playback conditions may determine, for example, whether the sound is a continuous sound or a sound triggered by an event.
  • the sound source area in the object may be determined based on the relative relationship between the position of the user U1 and the position of the object, or may be determined using the object as a reference. When determining based on the relative relationship between the position of the user U1 and the position of the object, sound A is heard from the right side of the object and sound B is heard from the left side as seen from the user U1, using the surface where the user U1 is viewing the object as a reference.
  • the user U1 can be made to perceive that the message is being emitted.
  • Meta-information about the space can include the time to early reflections, reverberation time, ratio of direct sound to diffuse sound, etc. When the ratio of direct sound to diffused sound is zero, only direct sound can be perceived by user U1.
  • the information indicating the position and orientation of the user U1 is included in the bitstream as metadata
  • the information indicating the interactively changing position and orientation of the user U1 is not included in the bitstream.
  • information indicating the position and orientation of user U1 is obtained from information other than the bitstream.
  • location information of user U1 in VR space may be obtained from an application that provides VR content
  • location information of user U1 for presenting sound as AR may be obtained from a mobile terminal using GPS, for example.
  • Position information obtained by performing self-position estimation using a camera, LiDAR (Laser Imaging Detection and Ranging), or the like may be used.
  • the meta information includes information indicating a parameter to be changed over time among parameters for generating an early reflected sound, which will be described later. Note that this information does not need to be included in the meta information.
  • the sensor 3 is a device for detecting the position or movement of the head of the user U1.
  • the sensor 3 is configured by one of various sensors used for detecting movement, such as a gyro sensor or an acceleration sensor, or a combination of a plurality of sensors.
  • the sensor 3 is built into the sound reproduction device 100, but the sensor 3 may be installed in an external device such as a stereoscopic video reproduction device that operates according to the movement of the head of the user U1 similarly to the sound reproduction device 100. It may be built in. In this case, the sensor 3 may not be included in the sound reproduction device 100.
  • the movement of the user U1 may be detected by capturing an image of the movement of the head of the user U1 using an external imaging device or the like, and processing the captured image.
  • the sensor 3 is, for example, integrally fixed to the housing of the sound reproduction device 100, and detects the speed of movement of the housing. Since the sound reproduction device 100 including the above-mentioned housing moves integrally with the head of the user U1 after being worn by the user U1, the sensor 3 detects the speed of movement of the head of the user U1 as a result. be able to.
  • the sensor 3 may detect, as the amount of movement of the head of the user U1, the amount of rotation about at least one of the three axes orthogonal to each other in the three-dimensional sound field, or the amount of rotation of the head of the user U1.
  • the amount of displacement in at least one direction may be detected.
  • the sensor 3 may detect both the amount of rotation and the amount of displacement as the amount of movement of the head of the user U1.
  • the driver 4 includes, for example, a diaphragm and a drive mechanism such as a magnet or a voice coil.
  • the driver 4 operates a drive mechanism according to the output sound signal Sig2 output from the output section 14, and causes the drive mechanism to vibrate the diaphragm.
  • the driver 4 generates sound waves by vibrating the diaphragm according to the output sound signal Sig2, the sound waves propagate through the air, etc., and are transmitted to the ears of the user U1, so that the user U1 perceives the sound. .
  • processing module 1 sound processing system 10) will be described in detail using FIG. 2.
  • the acquisition unit 11 acquires sound information and meta information.
  • the meta information is acquired by the extraction unit 12 included in the acquisition unit 11.
  • the acquisition unit 11 Upon acquiring the encoded sound information, the acquisition unit 11 decodes the acquired sound information and provides the decoded sound information to the audio processing unit 13 .
  • sound information and meta information may be stored in one bitstream, or may be stored separately in multiple bitstreams.
  • sound information and meta information may be stored in one file or separately in multiple files.
  • information indicating other related bitstreams may be stored in one or more of the multiple bitstreams in which audio information and meta information are stored. may be included in the partial bitstream. Furthermore, information indicating other related bitstreams may be included in the metainformation or control information of each bitstream of a plurality of bitstreams in which audio information and metainformation are stored.
  • information indicating other related bitstreams or files may be stored in one or more files in which the sound information and meta information are stored. may be included in the other files. Further, information indicating another related bitstream or file may be included in the meta information or control information of each bit stream of a plurality of bit streams in which sound information and meta information are stored.
  • the related bitstreams or files are bitstreams or files that may be used simultaneously, for example, during audio processing.
  • information indicating other related bitstreams may be collectively described in the meta information or control information of one bitstream out of a plurality of bitstreams storing audio information and meta information, or The meta information or control information of two or more bit streams among a plurality of bit streams storing information and meta information may be divided and described.
  • information indicating other related bitstreams or files may be collectively described in the meta information or control information of one of the multiple files storing sound information and meta information, or The meta information or control information may be divided and described for two or more files among a plurality of files storing sound information and meta information.
  • a control file that collectively describes information indicating other related bitstreams or files may be generated separately from the plurality of files storing sound information and meta information. At this time, the control file does not need to store sound information and meta information.
  • the information indicating the other related bitstream or file is, for example, an identifier indicating the other bitstream, a file name indicating the other file, a URL (Uniform Resource Locator), or a URI (Uniform Resource Identifier). It is.
  • the acquisition unit 11 identifies or acquires the bitstream or file based on information indicating other related bitstreams or files.
  • information indicating other related bitstreams is included in the meta information or control information of at least some bitstreams among the plurality of bitstreams storing sound information and meta information, and
  • the information indicating the file may be included in the meta information or control information of at least some of the plurality of files storing sound information and meta information.
  • the file containing information indicating a related bitstream or file may be a control file such as a manifest file used for content distribution, for example.
  • the extraction unit 12 decodes the encoded meta information and provides the decoded meta information to the audio processing unit 13.
  • the extraction unit 12 does not give the same meta information to each of the parameter determination unit 131, early reflected sound generation processing unit 132, direction control unit 133, and volume control unit 134 included in the acoustic processing unit 13, which will be described later.
  • meta information required by the corresponding processing unit is given.
  • the extraction unit 12 further acquires detection information including the amount of rotation or displacement detected by the sensor 3.
  • the extraction unit 12 determines the position and orientation of the user U1 in the three-dimensional sound field (space) based on the acquired detection information. Then, the extraction unit 12 updates the meta information according to the determined position and orientation of the user U1. Therefore, the meta information that the extraction unit 12 provides to each processing unit is updated meta information.
  • the acoustic processing unit 13 executes acoustic processing to generate a sound signal Sig1 representing a sound including an early reflected sound that reaches the user U1 after the direct sound from the sound source object A1 to the user U1, based on the sound information and meta information. do.
  • early reflected sound is a sound reflected one or more times at a relatively early stage (for example, about several tens of milliseconds from the time of arrival of the direct sound) after the direct sound reaches the user U1 from the sound source object A1. This is a reflected sound that reaches the user U1 through reflection.
  • the acoustic processing section 13 includes a parameter determination section 131, an early reflected sound generation processing section 132, a direction control section 133, and a volume control section 134, as shown in FIG. .
  • the parameter determination unit 131 generates an early reflected sound including the position of a virtual sound source object B1 (see FIG. 4, etc.) that generates an early reflected sound in a three-dimensional sound field (space), for example, with reference to sound information and meta information.
  • Determine the parameters for The virtual sound source object B1 is a virtual sound source object that does not exist on the three-dimensional sound field, unlike the sound source object A1, and is located on a virtual reflection surface on which the sound waves from the sound source object A1 are reflected in the three-dimensional sound field. and generates a sound to the user U1.
  • the sound generated by this virtual sound source object B1 becomes the early reflected sound.
  • the parameters here include the position (coordinates) of the virtual sound source object B1 in the three-dimensional sound field, the sound pressure of the sound generated by the virtual sound source object B1, the frequency of the sound, and the like.
  • the parameter determining unit 131 changes at least part of the parameters every processing unit time (for example, 1/60 second). In other words, at least some of the parameters vary over time according to predetermined conditions.
  • the parameter determining unit 131 changes at least part of the parameters over time even when the sound information and meta information acquired for each processing unit time are the same.
  • the changes in parameters over time mentioned here are changes that are independent of the changes associated with changes in the acquired sound information and meta information.
  • At least part of the parameter is the position of the virtual sound source object B1.
  • the position of the virtual sound source object B1 changes over time within a predetermined range based on the reference position.
  • the reference position of the virtual sound source object B1 is determined based on the relative position of the sound source object A1 and the user U1.
  • the predetermined conditions will be described later [3-2. 1st Example] and [3-3. This will be explained in detail in Embodiment 2].
  • FIG. 4 is an explanatory diagram of changes over time in parameters of early reflected sounds.
  • FIGS. 4A and 4B the positions of the sound source object A1 and the user U1 do not change.
  • the parameter determining unit 131 determines the position of the virtual sound source object B1 so that the position of the virtual sound source object B1 changes over time (here, for each processing unit time).
  • the early reflected sound generation processing unit 132 generates early reflected sound based on the parameters determined by the parameter determining unit 131. Specifically, the early reflected sound generation processing unit 132 places the virtual sound source object B1 at the position (coordinates) determined by the parameter determination unit 131 in the three-dimensional sound field (space), and By generating a sound having a sound pressure and frequency from the virtual sound source object B1, an early reflected sound is generated.
  • the direction control unit 133 refers to the meta information and controls the direction of the early reflected sound reaching the user U1 from the virtual sound source object B1. Specifically, the direction control unit 133 controls the sound generated by the virtual sound source object B1 based on the position of the virtual sound source object B1 in the three-dimensional sound field (space), the position of the user U1, and the orientation of the user U1. The direction from the virtual sound source object B1 to the right ear (or left ear) of the user U1 is determined.
  • the volume control unit 134 refers to the meta information and controls the volume (sound pressure) of the early reflected sound reaching the user U1 from the virtual sound source object B1. Specifically, the volume control unit 134 adjusts the level of the early reflected sound when the early reflected sound reaches the user U1 according to the distance between the virtual sound source object B1 and the user U1 in the three-dimensional sound field (space). Determine the volume. For example, the volume control unit 134 decreases the volume of the early reflected sound as the distance is longer, and increases the volume of the early reflected sound as the distance is shorter.
  • the output unit 14 outputs an output sound signal Sig2 including the sound signal Sig1 generated by the acoustic processing unit 13 to the driver 4.
  • FIG. 5 is a flowchart showing the basic operation of the sound processing system 10 according to the embodiment. The following description will be made on the premise that steps S1 to S3 shown in FIG. 5 are repeatedly executed for each processing unit time. Note that in FIG. 5, illustrations of the processing by the direction control section 133 and the processing by the volume control section 134 are omitted.
  • the acquisition unit 11 acquires sound information and meta information via the communication module 2 (S1).
  • the sound processing unit 13 starts sound processing based on the acquired sound information and meta information (S2).
  • the parameter determining unit 131 refers to the sound information and meta information and determines parameters for generating early reflected sound (S21).
  • the parameter determining unit 131 changes at least some of the parameters for generating the early reflected sound over time according to predetermined conditions.
  • the parameter determining unit 131 changes at least some of the parameters for each processing unit time.
  • the early reflected sound generation processing unit 132 generates early reflected sound based on the parameters determined by the parameter determining unit 131 (S22).
  • the direction control unit 133 refers to the meta information and determines the direction of the early reflected sound reaching the user U1 from the virtual sound source object B1.
  • the volume control unit 134 refers to the meta information and determines the volume (sound pressure) of the early reflected sound reaching the user U1 from the virtual sound source object B1.
  • the output unit 14 outputs an output sound signal Sig2 including the sound signal Sig1 generated by the sound processing unit 13 (S3).
  • FIG. 6 is a block diagram showing the functional configuration of the first example of the sound processing system 10 according to the embodiment.
  • the acoustic processing section 13 further includes a random number generation section 135.
  • the random number generation unit 135 generates a random number for each processing unit time according to an appropriate random number generation algorithm. Specifically, the random number generation unit 135 generates random numbers “n1,” “n2,” and “n3,” which are added to the X coordinate, Y coordinate, and Z coordinate, respectively, of the virtual sound source object B1 in the three-dimensional sound field (space). ” (“n1,” “n2,” and “n3” are all real numbers) are generated for each processing unit time. In the first embodiment, the possible range of each of these random numbers “n1”, “n2”, and “n3” is approximately ⁇ 0.2 (unit: "m”). In other words, the range of random numbers generated by the random number generation unit 135 is not unlimited, but is appropriately set within a range in which the user does not feel uncomfortable when changing the position of the virtual sound source object B1.
  • the parameter determination unit 131 refers to the random number generated by the random number generation unit 135 and changes the position of the virtual sound source object B1 over time (here, for each processing unit time). .
  • the reference position of the virtual sound source object B1 in a three-dimensional sound field (space) is expressed by the following formula (1)
  • the position of the virtual sound source object B1 determined with reference to random numbers is determined by the following formula (2).
  • "(x, y, z)" represents the coordinates of the virtual sound source object B1
  • "a", "b", and "c" are real numbers.
  • FIG. 7 is a flowchart showing the operation of the first example of the sound processing system 10 according to the embodiment.
  • the operation shown in FIG. 7 is an operation by the acoustic processing section 13.
  • the following description will be made on the premise that the sound processing unit 13 repeatedly executes steps S101 to S106 shown in FIG. 7 for each processing unit time.
  • the random number generation unit 135 generates random numbers (S101).
  • the parameter determining unit 131 refers to the sound information and meta information and determines parameters for generating early reflected sound (S102).
  • the parameter determining unit 131 determines the position of the virtual sound source object B1 among the parameters for generating the early reflected sound by referring to the random number generated by the random number generating unit 135.
  • the position of the virtual sound source object B1 changes over time (here, for each processing unit time) according to the random number.
  • the early reflected sound generation processing unit 132 generates early reflected sound based on the parameters determined by the parameter determining unit 131 (S103).
  • the direction control unit 133 refers to the meta information and determines the direction of the early reflected sound reaching the user U1 from the virtual sound source object B1 (S104). Further, the volume control unit 134 refers to the meta information and determines the volume (sound pressure) of the early reflected sound that reaches the user U1 from the virtual sound source object B1 (S105). Then, the acoustic processing section 13 outputs the generated sound signal Sig1 to the output section 14 (S106).
  • the parameter determining unit 131 determines the position of the virtual sound source object B1 in the processing unit time according to the random number generated by the random number generating unit 135, with the reference position of the virtual sound source object B1 as a reference. Vary each time. That is, in the first embodiment, the predetermined condition is a random number for determining the position of the virtual sound source object B1.
  • the random number You may narrow down the possible range. That is, the possible range of the random number may be varied depending on the positions of the virtual sound source object B1 and the user U1 in the three-dimensional sound field. In other words, the variable range of the position of the virtual sound source object B1 may be determined according to the positional relationship between the user U1 and the virtual sound source object B1. In this case, the possible range of the random number is, for example, ⁇ 0.05 to ⁇ 0.2.
  • the possible range of the random number may be varied depending on the reflectance of obstacles (for example, walls, etc.) included in the three-dimensional sound field (space). For example, the lower the reflectance of the obstacle, the narrower the range that the random number can take. Furthermore, the possible range of the random number may be varied depending on the size or shape of the three-dimensional sound field. In other words, the variable range of the position of the virtual sound source object B1 may be determined according to the acoustic characteristics of the three-dimensional sound field (space).
  • FIG. 8 is an explanatory diagram of the operation of the second example of the sound processing system 10 according to the embodiment.
  • the parameter determination unit 131 changes the position of the virtual sound source object B1 over time (here, for each processing unit time) along a predetermined trajectory C1. Specifically, when the reference position of the virtual sound source object B1 in the three-dimensional sound field (space) is expressed by the above formula (1), the position of the virtual sound source object B1 is set so as to satisfy the following formula (3). fluctuate.
  • "r" represents the radius of the sphere and is a real number.
  • the position of the virtual sound source object B1 is determined by a sphere (in FIG. It changes over time (here, for each processing unit time) along the circumferential surface (trajectory C1) of the circular shape).
  • the possible range of the radius "r" of the sphere is approximately 0.2 or less (unit: "m").
  • the possible range of the trajectory C1 is not unlimited, but is appropriately set within a range in which the user does not feel uncomfortable when changing the position of the virtual sound source object B1.
  • FIG. 9 is a flowchart showing the operation of the second example of the sound processing system 10 according to the embodiment.
  • the operation shown in FIG. 9 is an operation by the acoustic processing section 13.
  • the following description will be made on the premise that the sound processing unit 13 repeatedly executes steps S201 to S206 shown in FIG. 9 for each processing unit time.
  • the parameter determination unit 131 determines the trajectory C1 of the virtual sound source object B1 (S201).
  • the parameter determining unit 131 refers to the sound information and meta information and determines parameters for generating early reflected sound (S202).
  • the parameter determination unit 131 determines the position of the virtual sound source object B1 among the parameters for generating the early reflected sound by referring to the trajectory C1 determined in step S201.
  • the position of the virtual sound source object B1 changes over time (here, for each processing unit time) along the trajectory C1.
  • the early reflected sound generation processing unit 132 generates early reflected sound based on the parameters determined by the parameter determining unit 131 (S203).
  • the direction control unit 133 refers to the meta information and determines the direction of the early reflected sound reaching the user U1 from the virtual sound source object B1 (S204). Further, the volume control unit 134 refers to the meta information and determines the volume (sound pressure) of the early reflected sound that reaches the user U1 from the virtual sound source object B1 (S205). Then, the sound processing unit 13 outputs the generated sound signal Sig1 to the output unit 14 (S206).
  • the parameter determining unit 131 changes the position of the virtual sound source object B1 for each processing unit time along the trajectory C1 with the reference position of the virtual sound source object B1 as a reference. That is, in the second embodiment, the predetermined condition is the trajectory C1 in the three-dimensional sound field (space) for determining the position of the virtual sound source object B1.
  • the trajectory C1 it is also possible to narrow the possible range of . That is, the possible range of the trajectory C1 may be varied depending on the positions of the virtual sound source object B1 and the user U1 in the three-dimensional sound field. In other words, the variable range of the position of the virtual sound source object B1 may be determined according to the positional relationship between the user U1 and the virtual sound source object B1. In this case, the possible range of the trajectory C1 is, for example, 0.05 to 0.2.
  • the possible range of the trajectory C1 may be varied depending on the reflectance of obstacles (for example, walls, etc.) included in the three-dimensional sound field (space). For example, the lower the reflectance of the obstacle, the narrower the possible range of the trajectory C1. Furthermore, the possible range of the trajectory C1 may be varied depending on the size or shape of the three-dimensional sound field. In other words, the variable range of the position of the virtual sound source object B1 may be determined according to the acoustic characteristics of the three-dimensional sound field (space).
  • the shape of the orbit C1 is not limited to a spherical shape, but may be other shapes such as a circular shape or an elliptical shape. That is, the trajectory C1 may be a three-dimensional trajectory or a two-dimensional trajectory.
  • the reflected sound continues to reach the user U1 in the same direction and with the same sound pressure. may feel uncomfortable.
  • the acoustic processing system 10 (acoustic processing method) according to the embodiment, since the position of the virtual sound source object B1 (that is, the parameter for generating the early reflected sound) changes over time, the user U1 The direction and sound pressure of the reflected sound that reaches the user will also change over time, making it difficult for the user U1 to feel uncomfortable. Further, the process of varying the position of the virtual sound source object B1 over time requires a smaller amount of calculation than the process of generating early reflected sound by simulating the fluctuation of sound waves from a reflection point in real space.
  • the sound processing system 10 (sound processing method) according to the embodiment has the advantage of reducing the amount of calculation while easily reproducing sounds that do not cause the user U1 to feel uncomfortable.
  • the parameter determining unit 131 does not need to change parameters that change over time for each processing unit time.
  • the parameter determining unit 131 may change the parameter that changes over time at predetermined time intervals (for example, a time that is an integral multiple of the processing unit time) or at irregular intervals.
  • the parameter determining unit 131 may vary at least some of the parameters over time according to predetermined conditions other than the random number and the trajectory C1.
  • the parameter determination unit 131 may vary at least some of the parameters over time according to a predetermined variation pattern.
  • the parameter that changes over time is not limited to the position of the virtual sound source object B1.
  • the parameter that changes over time may be the sound pressure of the sound generated by the virtual sound source object B1, the frequency of the sound, or the like.
  • the number of parameters that change over time is not limited to one, but may be multiple.
  • the parameters that change over time may be two or more of the position of the virtual sound source object B1, the sound pressure of the sound generated by the virtual sound source object B1, and the frequency of the sound.
  • the acoustic processing unit 13 may perform processing other than the processing of generating early reflected sound.
  • the acoustic processing unit 13 performs a late reverberation sound generation process that generates a late reverberation sound, a diffraction sound generation process that generates a diffracted sound, a sound signal transmission process, or adds an acoustic effect such as the Doppler effect to the sound signal. Additional processing or the like may also be performed.
  • the late reverberation sound occurs relatively late after the early reflection sound reaches the user (for example, about 100-odd milliseconds from the arrival of the direct sound) and occurs more times than the early reflection sound (for example, , several tens of times) before reaching the user.
  • Diffraction sound is sound that, when there is an obstacle between the sound source object and the user, travels around the obstacle and reaches the user from the sound source object.
  • the acquisition unit 11 acquires the sound information and meta information from the encoded bitstream, but the acquisition unit 11 is not limited to this.
  • the acquisition unit 11 may acquire the sound information and meta information individually from information other than the bitstream.
  • the sound reproduction device described in the above embodiment may be realized as a single device including all the constituent elements, or each function may be allocated to a plurality of devices, and the plurality of devices may cooperate. It may be realized by In the latter case, an information processing device such as a smartphone, a tablet terminal, or a PC may be used as the device corresponding to the processing module.
  • an information processing device such as a smartphone, a tablet terminal, or a PC may be used as the device corresponding to the processing module.
  • the sound reproduction device of the present disclosure can also be realized as a sound processing device that is connected to a reproduction device including only a driver and only outputs a sound signal to the reproduction device.
  • the sound processing device may be realized as hardware including a dedicated circuit, or may be realized as software that causes a general-purpose processor to execute specific processing.
  • the processing executed by a specific processing unit may be executed by another processing unit. Further, the order of the plurality of processes may be changed, or the plurality of processes may be executed in parallel.
  • each component may be realized by executing a software program suitable for each component.
  • Each component may be realized by a program execution unit such as a CPU (Central Processing Unit) or a processor reading and executing a software program recorded on a recording medium such as a hard disk or a semiconductor memory.
  • a program execution unit such as a CPU (Central Processing Unit) or a processor reading and executing a software program recorded on a recording medium such as a hard disk or a semiconductor memory.
  • each component may be realized by hardware.
  • each component may be a circuit (or integrated circuit). These circuits may constitute one circuit as a whole, or may be separate circuits. Further, each of these circuits may be a general-purpose circuit or a dedicated circuit.
  • general or specific aspects of the present disclosure may be implemented in an apparatus, a method, an integrated circuit, a computer program, or a computer-readable recording medium such as a CD-ROM. Further, general or specific aspects of the present disclosure may be implemented in any combination of devices, methods, integrated circuits, computer programs, and recording media.
  • the present disclosure may be realized as a sound processing method executed by a computer, or may be realized as a program for causing a computer to execute the sound processing method.
  • the present disclosure may be realized as a computer-readable non-transitory recording medium on which such a program is recorded.
  • the present disclosure is useful for sound reproduction such as making a user perceive three-dimensional sound.
  • Processing module 10 Sound processing system 100 Sound reproduction device 11 Acquisition unit 12 Extraction unit 13 Sound processing unit 131 Parameter determination unit 132 Early reflected sound generation processing unit 133 Direction control unit 134 Volume control unit 135 Random number generation unit 14 Output unit 2 Communication module 3 Sensor 4 Driver A1 Sound source object B1 Imaginary sound source object C1 Trajectory Sig1 Sound signal Sig2 Output sound signal U1 User

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Stereophonic System (AREA)

Abstract

音響処理方法では、所定音を含む音に関する音情報、及び所定音が再生される空間に関する情報を含むメタ情報を取得し(S1)、音情報及びメタ情報に基づいて、音源オブジェクトからユーザへの直接音の後にユーザに到達する初期反射音を含む音を示す音信号を生成する音響処理を実行し(S2)、音信号を含む出力音信号を出力する(S3)。音響処理では、空間において初期反射音を発生する虚音源オブジェクトの位置を含む初期反射音を生成するためのパラメータを決定し(S21)、決定したパラメータに基づいて初期反射音を生成する(S22)。パラメータの少なくとも一部は、所定の条件に従って経時的に変動する。

Description

音響処理方法、プログラム、及び音響処理システム
 本開示は、空間における立体的な音響を実現するための音響処理方法、プログラム、及び音響処理システムに関する。
 特許文献1には、実際の部屋やモデルを使用することなく、任意の空間内での音環境を再現する音環境疑似体験装置が開示されている。
特許第3152818号公報
 本開示は、演算量を低減しつつ、ユーザが違和感を覚えにくい音を再生しやすい音響処理方法等を提供することを目的とする。
 本開示の一態様に係る音響処理方法では、所定音を含む音に関する音情報、及び前記所定音が再生される空間に関する情報を含むメタ情報を取得する。前記音響処理方法では、前記音情報及び前記メタ情報に基づいて、音源オブジェクトからユーザへの直接音の後に前記ユーザに到達する初期反射音を含む音を示す音信号を生成する音響処理を実行する。前記音響処理方法では、前記音信号を含む出力音信号を出力する。前記音響処理では、前記空間において前記初期反射音を発生する虚音源オブジェクトの位置を含む前記初期反射音を生成するためのパラメータを決定し、決定した前記パラメータに基づいて前記初期反射音を生成する。前記パラメータの少なくとも一部は、所定の条件に従って経時的に変動する。
 また、本開示の一態様に係るプログラムは、前記音響処理方法をコンピュータに実行させる。
 また、本開示の一態様に係る音響処理システムは、取得部と、音響処理部と、出力部と、を備える。前記取得部は、所定音を含む音に関する音情報、及び前記所定音が再生される空間に関する情報を含むメタ情報を取得する。前記音響処理部は、前記音情報及び前記メタ情報に基づいて、音源オブジェクトからユーザへの直接音の後に前記ユーザに到達する初期反射音を含む音を示す音信号を生成する音響処理を実行する。前記出力部は、前記音信号を含む出力音信号を出力する。前記音響処理部は、パラメータ決定部と、初期反射音生成処理部と、を有する。前記パラメータ決定部は、前記空間において前記初期反射音を発生する虚音源オブジェクトの位置を含む前記初期反射音を生成するためのパラメータを決定する。前記初期反射音生成処理部は、決定した前記パラメータに基づいて前記初期反射音を生成する。前記パラメータの少なくとも一部は、所定の条件に従って経時的に変動する。
 なお、これらの包括的又は具体的な態様は、システム、装置、方法、集積回路、コンピュータプログラム、又は、コンピュータ読み取り可能なCD-ROM等の非一時的な記録媒体で実現されてもよく、システム、装置、方法、集積回路、コンピュータプログラム、及び、記録媒体の任意な組み合わせで実現されてもよい。
 本開示によれば、演算量を低減しつつ、ユーザが違和感を覚えにくい音を再生しやすい、という利点がある。
図1は、実施の形態に係る音響再生装置の使用事例を示す概略図である。 図2は、実施の形態に係る音響再生装置の機能構成を示すブロック図である。 図3は、実施の形態に係る音響処理システムのより詳細な機能構成を示すブロック図である。 図4は、初期反射音のパラメータの経時的な変動の説明図である。 図5は、実施の形態に係る音響処理システムの基本動作を示すフローチャートである。 図6は、実施の形態に係る音響処理システムの第1実施例での機能構成を示すブロック図である。 図7は、実施の形態に係る音響処理システムの第1実施例での動作を示すフローチャートである。 図8は、実施の形態に係る音響処理システムの第2実施例での動作の説明図である。 図9は、実施の形態に係る音響処理システムの第2実施例での動作を示すフローチャートである。
 従来、仮想的な三次元空間内(以下、三次元音場という場合がある)で、ユーザの感覚上の音源オブジェクトである音像の位置を制御することにより、立体的な音をユーザに知覚させるための音響再生に関する技術が知られている。仮想的な三次元空間内における所定位置に音像を定位させることで、ユーザは、当該所定位置とユーザとを結ぶ直線に平行な方向(すなわち、所定方向)から到達する音であるかのごとく、この音を知覚することができる。このように仮想的な三次元空間内の所定位置に音像を定位させるには、例えば、収音された音に対して、立体的な音として知覚されるような両耳間での音の到達時間差、及び、両耳間での音のレベル差(又は音圧差)等を生じさせる計算処理が必要となる。
 また、近年、仮想現実(VR:Virtual Reality)又は拡張現実(AR:Augmented Reality)に関する技術の開発が盛んに行われている。例えば、仮想現実では、ユーザの動きに対して仮想空間の位置が追従せず、あたかもユーザが仮想空間内を移動しているように体感できることが主眼に置かれている。特に、この仮想現実又は拡張現実の技術において視覚的な要素に聴覚的な要素を取り入れることで、より臨場感を高めるといった試みが行われている。特に、聴覚的な没入感の向上のために、ユーザの頭の外から音が聴こえてくるように、上述のように音像の定位を強調することが有用である。
 ところで、三次元音場において立体的な音響を実現するためには、種々の音響処理が有用である。ここでいう音響処理は、音源オブジェクトからユーザへの直接音以外の音を三次元音場にて発生させる処理である。
 音響処理は、例えば、初期反射音を生成する処理を含み得る。初期反射音は、音源オブジェクトから直接音がユーザへ到達した後の比較的初期(例えば、直接音の到達時から数十ms程度)の段階で、1回以上の反射を経てユーザへ到達する反射音である。そして、仮想現実又は拡張現実においてコンテンツを再生する際には、初期反射音の生成に要する演算量を小さくすることが求められている。
 ここで、比較的小さい演算量で初期反射音を生成する方法として、例えば三次元音場における任意の1点を、初期反射音を発生する虚音源オブジェクトの位置として決定する方法が挙げられる。つまり、この方法では、初期反射音は、虚音源オブジェクトからユーザへ到達する直接音として表される。
 しかしながら、上記方法を採用した場合、以下の課題が生じ得る。すなわち、現実空間においては、音源オブジェクトから反射点を経由してユーザへ反射音が到達する場合に、反射点からユーザへと向かう音波は、その方向又は音圧に揺らぎがある。このため、仮に反射点が同じ位置にあり続けたとしても、反射点から全く同じ音波がユーザに到達し続けることはない。ところが、上記方法を採用した場合、反射点(虚音源オブジェクトの位置)から同じ反射音がユーザに到達し続けるため、ユーザが違和感を覚える可能性がある。
 なお、現実空間における反射点からの音波の揺らぎを模擬して初期反射音を生成することも考えられるが、膨大な演算量を必要とするため、初期反射音の生成に要する演算量を小さくするという目的を達成することができない、という課題がある。
 本開示は、上記に鑑みて、初期反射音を生成するためのパラメータの少なくとも一部を経時的に変動させることにより、演算量を低減しつつ、ユーザが違和感を覚えにくい音を再生しやすい音響処理方法等を提供することを目的とする。
 より具体的には、本開示の第1の態様に係る音響処理方法では、所定音を含む音に関する音情報、及び所定音が再生される空間に関する情報を含むメタ情報を取得し、音情報及びメタ情報に基づいて、音源オブジェクトからユーザへの直接音の後にユーザに到達する初期反射音を含む音を示す音信号を生成する音響処理を実行し、音信号を含む出力音信号を出力する。音響処理では、空間において初期反射音を発生する虚音源オブジェクトの位置を含む初期反射音を生成するためのパラメータを決定し、決定したパラメータに基づいて初期反射音を生成する。パラメータの少なくとも一部は、所定の条件に従って経時的に変動する。
 これによれば、ユーザへ到達する初期反射音の向き又は音圧等が経時的に変動するため、演算量を低減しつつ、ユーザが違和感を覚えにくい音を再生しやすい、という利点がある。
 また、例えば、本開示の第2の態様に係る音響処理方法では、第1の態様において、経時的に変動するパラメータは、空間において初期反射音を発生する虚音源オブジェクトの位置である。
 これによれば、虚音源オブジェクトの位置を経時的に変動させるという比較的小さい演算量で済む処理により、ユーザへ到達する初期反射音の向き又は音圧等を経時的に変動させやすい、という利点がある。
 また、例えば、本開示の第3の態様に係る音響処理方法では、第2の態様において、所定の条件は、虚音源オブジェクトの位置を決定するための乱数である。
 これによれば、虚音源オブジェクトの位置を経時的にランダムに変動させるという比較的小さい演算量で済む処理により、ユーザが初期反射音に対して違和感を覚えにくくなる、という利点がある。
 また、例えば、本開示の第4の態様に係る音響処理方法では、第2の態様において、所定の条件は、虚音源オブジェクトの位置を決定するための空間における軌道である。
 これによれば、虚音源オブジェクトの位置を経時的に軌道に沿って変動させるという比較的小さい演算量で済む処理により、ユーザが初期反射音に対して違和感を覚えにくくなる、という利点がある。
 また、例えば、本開示の第5の態様に係る音響処理方法では、第2~第4のいずれか1つの態様において、虚音源オブジェクトの位置の変動可能な範囲は、ユーザと虚音源オブジェクトとの位置関係に応じて決定される。
 これによれば、ユーザと虚音源オブジェクトとの位置関係に応じて適切な初期反射音を生成するので、ユーザが更に違和感を覚えにくくなる、という利点がある。
 また、例えば、本開示の第6の態様に係る音響処理方法では、第2~第5のいずれか1つの態様において、虚音源オブジェクトの位置の変動可能な範囲は、空間の音響特性に応じて決定される。
 これによれば、空間の音響特性に応じて適切な初期反射音を生成するので、ユーザが更に違和感を覚えにくくなる、という利点がある。
 また、例えば、本開示の第7の態様に係るプログラムは、第1~第6のいずれか1つの態様の音響処理方法をコンピュータに実行させる。
 これによれば、上記の音響処理方法と同様の効果を奏することができる、という利点がある。
 また、例えば、本開示の第8の態様に係る音響処理システムは、取得部と、音響処理部と、出力部と、を備える。取得部は、所定音を含む音に関する音情報、及び所定音が再生される空間に関する情報を含むメタ情報を取得する。音響処理部は、音情報及びメタ情報に基づいて、音源オブジェクトからユーザへの直接音の後にユーザに到達する初期反射音を含む音を示す音信号を生成する音響処理を実行する。出力部は、音信号を含む出力音信号を出力する。音響処理部は、パラメータ決定部と、初期反射音生成処理部と、を有する。パラメータ決定部は、空間において初期反射音を発生する虚音源オブジェクトの位置を含む初期反射音を生成するためのパラメータを決定する。初期反射音生成処理部は、決定したパラメータに基づいて初期反射音を生成する。パラメータの少なくとも一部は、所定の条件に従って経時的に変動する。
 これによれば、上記の音響処理方法と同様の効果を奏することができる、という利点がある。
 さらに、これらの包括的又は具体的な態様は、システム、装置、方法、集積回路、コンピュータプログラム、又はコンピュータ読み取り可能なCD-ROM等の非一時的な記録媒体で実現されてもよく、システム、装置、方法、集積回路、コンピュータプログラム、及び記録媒体の任意な組み合わせで実現されてもよい。
 以下、実施の形態について、図面を参照しながら具体的に説明する。なお、以下で説明する実施の形態は、いずれも包括的又は具体的な例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置及び接続形態、ステップ、又はステップの順序等は、一例であり、本開示を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、独立請求項に記載されていない構成要素については、任意の構成要素として説明される。なお、各図は模式図であり、必ずしも厳密に図示されたものではない。また、各図において、実質的に同一の構成に対しては同一の符号を付し、重複する説明は省略又は簡略化される場合がある。
 (実施の形態)
 [1.概要]
 まず、実施の形態に係る音響再生装置の概要について説明する。図1は、実施の形態に係る音響再生装置の使用事例を示す概略図である。図1の(a)は、一例の音響再生装置100を使用するユーザU1を示している。図1の(b)は、他の一例の音響再生装置100を使用するユーザU1を示している。
 図1に示す音響再生装置100は、例えば、画像を表示する表示装置、又は立体映像を再生する立体映像再生装置と同時に使用される。立体映像再生装置は、ユーザU1の頭部に装着される画像表示デバイスであって、ユーザU1の頭部の動きに応じて表示する画像を変動させることで、ユーザU1が三次元音場(仮想空間)内で頭部を動かしているように知覚させる。また、立体映像再生装置は、ユーザU1の左右の目それぞれに視差分のずれが生じた2つの画像を表示する。ユーザU1は、表示される画像の視差分のずれに基づき、画像上の物体の三次元的な位置を知覚することができる。なお、ここでは立体映像再生装置としているが、上述した通り通常の画像表示装置であってもよい。
 音響再生装置100は、ユーザU1の頭部に装着される音提示デバイスである。したがって、音響再生装置100は、ユーザU1の頭部と一体的に移動する。例えば、実施の形態における音響再生装置100は、図1の(a)に示すように、いわゆるオーバーイヤーヘッドホン型のデバイスであってもよいし、図1の(b)に示すように、ユーザU1の左右の耳にそれぞれ独立して装着される2つの耳栓型のデバイスであってもよい。この2つのデバイスは、互いに通信することで、右耳用の音と左耳用の音とを同期して提示する。
 音響再生装置100は、ユーザU1の頭部の動きに応じて提示する音を変動させることで、ユーザU1が三次元音場内で頭部を動かしているようにユーザU1に知覚させる。このため、上記したように、音響再生装置100は、ユーザU1の動きに対して三次元音場をユーザの動きとは逆方向に移動させる。
 [2.構成]
 次に、実施の形態に係る音響再生装置100の構成について、図2及び図3を用いて説明する。図2は、実施の形態に係る音響再生装置100の機能構成を示すブロック図である。図3は、実施の形態に係る音響処理システム10のより詳細な機能構成を示すブロック図である。実施の形態に係る音響再生装置100は、図2に示すように、処理モジュール1と、通信モジュール2と、センサ3と、ドライバ4と、を備える。
 処理モジュール1は、音響再生装置100における各種の信号処理を行うための演算装置である。処理モジュール1は、例えば、プロセッサとメモリとを備え、メモリに記憶されたプログラムがプロセッサによって実行されることで、各種の機能を発揮する。
 処理モジュール1は、抽出部12を含む取得部11と、音響処理部13と、出力部14と、を有する音響処理システム10として機能する。音響処理システム10が有する各機能部の詳細は、処理モジュール1以外の構成の詳細と併せて以下に説明する。
 通信モジュール2は、音響再生装置100への音情報の入力、及びメタ情報の入力を受け付けるためのインタフェース装置である。通信モジュール2は、例えば、アンテナと信号変換器とを備え、無線通信により外部の装置から音情報及びメタ情報を受信する。より詳しくは、通信モジュール2は、無線通信のための形式に変換された音情報を示す無線信号を、アンテナを用いて受波し、信号変換器により無線信号から音情報への再変換を行う。これにより、音響再生装置100は、外部の装置から無線通信により音情報を取得する。同様に、通信モジュール2は、無線通信のための形式に変換されたメタ情報を示す無線信号を、アンテナを用いて受波し、信号変換器により無線信号からメタ情報への再変換を行う。これにより、音響再生装置100は、外部の装置から無線通信によりメタ情報を取得する。通信モジュール2によって取得された音情報及びメタ情報は、いずれも処理モジュール1の取得部11によって取得される。なお、音響再生装置100と外部の装置との通信は、有線通信によって行われてもよい。
 なお、本実施形態では音響再生装置100に、音響効果を付加した音情報を生成するレンダラとしての機能を有する音響処理システム10が含まれているが、レンダラの機能の全て又は一部をサーバが担ってもよい。つまり、取得部11、抽出部12、音響処理部13、及び出力部14の全て又は一部は、図示していないサーバに存在してもよい。その場合、サーバ内の音響処理部13で生成された音信号、又はそれぞれの処理部で生成された音信号を合成した音信号は、通信モジュール2を通じて音響再生装置100で受信され、再生される。
 実施の形態では、音情報及びメタ情報は、例えば、MPEG-H 3D Audio(ISO/IEC 23008-3)等の所定の形式で符号化されたビットストリームとして音響再生装置100に取得される。一例として、符号化された音情報は、音響再生装置100によって再生される所定音についての情報を含む。ここでいう所定音は、三次元音場に存在する音源オブジェクトA1(図4等参照)が発する音又は自然環境音であって、例えば、機械音、又は人を含む動物の音声等を含み得る。なお、三次元音場に音源オブジェクトA1が複数存在する場合、音響再生装置100は、複数の音源オブジェクトA1にそれぞれ対応する複数の音情報を取得することになる。
 メタ情報とは、例えば、音響再生装置100において音情報に対する音響処理を制御するために用いられる情報である。メタ情報は、仮想空間(三次元音場)で表現されるシーンを記述するために用いられる情報であってもよい。ここでシーンとは、メタ情報を用いて、音響処理システム10でモデリングされる、仮想空間における三次元映像及び音響イベントを表す全ての要素の集合体を指す用語である。つまり、ここでいうメタ情報とは、音響処理を制御する情報だけでなく、映像処理を制御する情報も含んでいてもよい。もちろん、メタ情報には、音響処理と映像処理のいずれか一方だけを制御する情報が含まれていてもよいし、両方の制御に用いられる情報が含まれていてもよい。
 音響再生装置100は、ビットストリームに含まれるメタ情報、及び追加で取得されるインタラクティブなユーザU1の位置情報等を用いて、音情報に音響処理を行うことで、仮想的な音響効果を生成してもよい。本実施形態では、音響効果のうち、主に初期反射音の生成を行う場合を説明するが、メタ情報を用いて他の音響処理を行ってもよい。例えば、回折音、後期残響音の生成、距離減衰効果、ローカリゼーション、又はドップラー効果&の音響効果を付加することが考えられる。また、音響効果の全て又は一部のオンオフを切り替える情報をメタ情報として付加してもよい。
 なお、全てのメタ情報または一部のメタ情報は音情報のビットストリーム以外から取得されてもよい。例えば、音響を制御するメタ情報と映像を制御するメタ情報のいずれかがビットストリーム以外から取得されてもよいし、両方のメタ情報がビットストリーム以外から取得されてもよい。
 また、映像を制御するメタ情報が音響再生装置100で取得されるビットストリームに含まれる場合は、音響再生装置100は映像の制御に用いることができるメタ情報を、画像を表示する表示装置、又は立体映像を再生する立体映像再生装置に対して出力する機能を備えていてもよい。
 また、一例として、符号化されたメタ情報は、音を発する音源オブジェクトA1、及び障害物を含む三次元音場(空間)に関する情報と、当該音の音像を三次元音場内において所定位置に定位させる(つまり、所定方向から到達する音として知覚させる)際の定位位置に関する情報、すなわち所定方向に関する情報と、を含む。ここで、障害物は、音源オブジェクトA1が発する音がユーザU1へと到達するまでの間において、例えば音を遮ったり、音を反射したりして、ユーザU1が知覚する音に影響を及ぼし得るオブジェクトである。障害物は、静止物体の他に、人等の動物、又は機械等の動体を含み得る。また、三次元音場に複数の音源オブジェクトA1が存在する場合、任意の音源オブジェクトA1にとっては、他の音源オブジェクトA1は障害物となり得る。また、建材又は無生物等の非発音源オブジェクトも、音を発する音源オブジェクトも、いずれも障害物となり得る。
 メタ情報には、三次元音場(空間)の形状、三次元音場に存在する障害物の形状及び位置、三次元音場に存在する音源オブジェクトA1の形状及び位置、並びに三次元音場におけるユーザU1の位置及び向きをそれぞれ表す情報が含まれる。
 三次元音場は、閉空間又は開空間のいずれであってもよいが、ここでは閉空間として説明する。また、メタ情報には、例えば床、壁、又は天井等の三次元音場において音を反射し得る構造物の反射率、及び三次元音場に存在する障害物の反射率を表す情報が含まれる。ここで、反射率は、反射音と入射音とのエネルギーの比であって、音の周波数帯域ごとに設定されている。もちろん、反射率は、音の周波数帯域に依らず、一律に設定されていてもよい。三次元音場が開空間の場合は、例えば一律で設定された減衰率、回折音、又は初期反射音等のパラメータが用いられてもよい。
 上記説明では、メタ情報に含まれる障害物又は音源オブジェクトA1に関するパラメータとして反射率を挙げたが、反射率以外の情報を含んでいてもよい。例えば、音源オブジェクト及び非発音源オブジェクトの両方に関わるメタ情報として、オブジェクトの素材に関する情報を含んでいてもよい。具体的には、メタ情報は、拡散率、透過率、又は吸音率等のパラメータを含んでいてもよい。
 音源オブジェクトに関する情報として、音量、放射特性(指向性)、再生条件、ひとつのオブジェクトから発せられる音源の数と種類、又はオブジェクトにおける音源領域を指定する情報等を含めてもよい。再生条件では、例えば、継続的に流れ続ける音なのかイベント発動する音なのかを定めてもよい。オブジェクトにおける音源領域は、ユーザU1の位置とオブジェクトの位置との相対的な関係で定めてもよいし、オブジェクトを基準として定めてもよい。ユーザU1の位置とオブジェクトの位置との相対的な関係で定める場合、ユーザU1がオブジェクトを見ている面を基準とし、ユーザU1から見てオブジェクトの右側からは音A、左側からは音Bが発せられているようにユーザU1に知覚させることができる。オブジェクトを基準として定める場合、ユーザU1の見ている方向に関わらず、オブジェクトのどの領域からどの音を出すかは固定にすることができる。例えばオブジェクトを正面から見たときの右側からは高い音、左側からは低い音が流れているようにユーザU1に知覚させることができる。この場合、ユーザU1がオブジェクトの背面に回り込んだ場合、背面から見て右側からは低い音、左側からは高い音が流れているようにユーザU1に知覚させることができる。
 空間に関するメタ情報として、初期反射音までの時間、残響時間、直接音と拡散音の比率などを含めることができる。直接音と拡散音の比率がゼロの場合、直接音のみをユーザU1に知覚させることができる。
 ところで、ユーザU1の位置及び向きを示す情報がメタデータとしてビットストリームに含まれていると説明したが、インタラクティブに変化するユーザU1の位置及び向きを示す情報は、ビットストリームに含まれていなくてもよい。その場合、ユーザU1の位置及び向きを示す情報はビットストリーム以外の情報から取得される。例えば、VR空間におけるユーザU1の位置情報であればVRコンテンツを提供するアプリから取得されてもよいし、ARとして音を提示するためのユーザU1の位置情報であれば、例えば携帯端末がGPS、カメラ、又はLiDAR(Laser Imaging Detection and Ranging)等を用いて自己位置推定を実施して得られた位置情報を用いてもよい。
 また、実施の形態では、メタ情報には、後述する初期反射音を生成するためのパラメータのうち、経時的に変動させるパラメータを示す情報を含む。なお、当該情報は、メタ情報に含まれていなくてもよい。
 センサ3は、ユーザU1の頭部の位置又は動きを検知するための装置である。センサ3は、例えば、ジャイロセンサ、又は加速度センサ等の動きの検知に使用される各種のセンサのいずれかまたは複数のセンサの組み合わせにより構成される。実施の形態では、センサ3は、音響再生装置100に内蔵されているが、例えば、音響再生装置100と同様にユーザU1の頭部の動きに応じて動作する立体映像再生装置等、外部の装置に内蔵されていてもよい。この場合、センサ3は、音響再生装置100に含まれなくてもよい。また、センサ3として、外部の撮像装置等を用いて、ユーザU1の頭部の動きを撮像し、撮像された画像を処理することでユーザU1の動きを検知してもよい。
 センサ3は、例えば、音響再生装置100の筐体に一体的に固定され、筐体の動きの速度を検知する。上記の筐体を含む音響再生装置100は、ユーザU1が装着した後、ユーザU1の頭部と一体的に移動するため、センサ3は、結果としてユーザU1の頭部の動きの速度を検知することができる。
 センサ3は、例えば、ユーザU1の頭部の動きの量として、三次元音場内で互いに直交する3軸の少なくとも一つを回転軸とする回転量を検知してもよいし、上記3軸の少なくとも一つを変位方向とする変位量を検知してもよい。また、センサ3は、ユーザU1の頭部の動きの量として、回転量及び変位量の両方を検知してもよい。
 ドライバ4は、例えば、振動板と、マグネット又はボイスコイル等の駆動機構とを有する。ドライバ4は、出力部14から出力される出力音信号Sig2に応じて駆動機構を動作させ、駆動機構によって振動板を振動させる。このようにして、ドライバ4は、出力音信号Sig2に応じた振動板の振動により、音波を発生させ、音波が空気等を伝播してユーザU1の耳に伝達し、ユーザU1が音を知覚する。
 以下、処理モジュール1(音響処理システム10)について図2を用いて詳細に説明する。
 取得部11は、音情報及びメタ情報を取得する。実施の形態では、メタ情報は、取得部11が有する抽出部12により取得される。取得部11は、符号化された音情報を取得すると、取得した音情報を復号し、復号した音情報を音響処理部13に与える。
 なお、音情報とメタ情報は、一つのビットストリームに格納されていてもよいし、複数のビットストリームに別々に格納されていてもよい。同様に、音情報とメタ情報は、一つのファイルに格納されていてもよいし、複数のファイルに別々に格納されていてもよい。
 音情報とメタ情報が複数のビットストリームに別々に格納されている場合、関連する他のビットストリームを示す情報が、音情報とメタ情報が格納された複数のビットストリームのうちの一つ又は一部のビットストリームに含まれていてもよい。また、関連する他のビットストリームを示す情報が、音情報とメタ情報が格納された複数のビットストリームの各ビットストリームのメタ情報又は制御情報に含まれていてもよい。音情報とメタ情報が複数のファイルに別々に格納されている場合、関連する他のビットストリーム又はファイルを示す情報が、音情報とメタ情報が格納された複数のファイルのうちの一つ又は一部のファイルに含まれていてもよい。また、関連する他のビットストリーム又はファイルを示す情報が、音情報とメタ情報が格納された複数のビットストリームの各ビットストリームのメタ情報又は制御情報に含まれていてもよい。
 ここで、関連するビットストリーム又はファイルとはそれぞれ、例えば、音響処理の際に同時に用いられる可能性のあるビットストリーム又はファイルである。また、関連する他のビットストリームを示す情報は、音情報とメタ情報を格納した複数のビットストリームのうちの一つのビットストリームのメタ情報又は制御情報にまとめて記述されていてもよいし、音情報とメタ情報を格納した複数のビットストリームのうちの二以上のビットストリームのメタ情報又は制御情報に分割して記述されていてもよい。同様に、関連する他のビットストリーム又はファイルを示す情報は、音情報とメタ情報を格納した複数のファイルのうちの一つのファイルのメタ情報又は制御情報にまとめて記述されていてもよいし、音情報とメタ情報を格納した複数のファイルのうちの二以上のファイルのメタ情報又は制御情報に分割して記述されていてもよい。また、関連する他のビットストリーム又はファイルを示す情報をまとめて記述した制御ファイルが、音情報とメタ情報を格納した複数のファイルとは別に生成されてもよい。このとき、制御ファイルは音情報とメタ情報を格納していなくてもよい。
 ここで、関連する他のビットストリーム又はファイルを示す情報とは、例えば当該他のビットストリームを示す識別子、他のファイルを示すファイル名、URL(Uniform Resource Locator)、又はURI(Uniform Resource Identifier)等である。この場合、取得部11は、関連する他のビットストリーム又はファイルを示す情報に基づいて、ビットストリーム又はファイルを特定又は取得する。また、関連する他のビットストリームを示す情報が、音情報とメタ情報を格納した複数のビットストリームのうちの少なくとも一部のビットストリームのメタ情報又は制御情報に含まれていると共に、関連する他のファイルを示す情報が音情報とメタ情報を格納した複数のファイルのうちの少なくとも一部のファイルのメタ情報又は制御情報に含まれていてもよい。ここで、関連するビットストリーム又はファイルを示す情報を含むファイルとは、例えばコンテンツの配信に用いられるマニフェストファイル等の制御ファイルであってもよい。
 抽出部12は、符号化されたメタ情報を復号し、復号したメタ情報を音響処理部13に与える。ここで、抽出部12は、後述する音響処理部13が有するパラメータ決定部131、初期反射音生成処理部132、方向制御部133、及び音量制御部134にそれぞれ同じメタ情報を与えるのではなく、処理部ごとに、対応する処理部で必要なメタ情報を与える。
 また、実施の形態では、抽出部12は、センサ3で検知された回転量又は変位量等を含む検知情報を更に取得する。抽出部12は、取得した検知情報に基づいて、三次元音場(空間)におけるユーザU1の位置及び向きを決定する。そして、抽出部12は、決定したユーザU1の位置及び向きに応じて、メタ情報を更新する。したがって、抽出部12が各処理部に与えるメタ情報は、更新されたメタ情報である。
 音響処理部13は、音情報及びメタ情報に基づいて、音源オブジェクトA1からユーザU1への直接音の後にユーザU1に到達する初期反射音を含む音を示す音信号Sig1を生成する音響処理を実行する。初期反射音は、既に述べたように、音源オブジェクトA1から直接音がユーザU1へ到達した後の比較的初期(例えば、直接音の到達時から数十ms程度)の段階で、1回以上の反射を経てユーザU1へ到達する反射音である。実施の形態では、音響処理部13は、図3に示すように、パラメータ決定部131と、初期反射音生成処理部132と、方向制御部133と、音量制御部134と、を有している。
 パラメータ決定部131は、例えば音情報及びメタ情報を参照し、三次元音場(空間)において初期反射音を発生する虚音源オブジェクトB1(図4等参照)の位置を含む初期反射音を生成するためのパラメータを決定する。虚音源オブジェクトB1は、音源オブジェクトA1とは異なり三次元音場上に存在しない仮想的な音源オブジェクトであって、三次元音場において音源オブジェクトA1からの音波が反射する仮想反射面に位置しており、ユーザU1に対して音を発生する。この虚音源オブジェクトB1が発生する音が、初期反射音となる。ここでいうパラメータは、三次元音場における虚音源オブジェクトB1の位置(座標)、虚音源オブジェクトB1が発生する音の音圧、及び当該音の周波数等を含む。
 実施の形態では、パラメータ決定部131は、パラメータの少なくとも一部を処理単位時間(例えば、1/60秒)ごとに変動させる。言い換えれば、パラメータの少なくとも一部は、所定の条件に従って経時的に変動する。ここで、パラメータ決定部131は、処理単位時間ごとに取得する音情報及びメタ情報が同じである場合にも、パラメータの少なくとも一部については経時的に変動させる。つまり、ここでいうパラメータの経時的な変動は、取得した音情報及びメタ情報の変動に伴う変動とは独立した変動である。
 実施の形態では、パラメータの少なくとも一部、つまり経時的に変動するパラメータは、虚音源オブジェクトB1の位置である。具体的には、虚音源オブジェクトB1の位置は、基準位置を基準とした所定範囲内で経時的に変動する。虚音源オブジェクトB1の基準位置は、音源オブジェクトA1とユーザU1との相対的な位置に基づいて決定される。所定の条件については、後述する[3-2.第1実施例]及び[3-3.第2実施例]にて詳細に説明する。
 図4は、初期反射音のパラメータの経時的な変動の説明図である。図4の(a)は、時刻t=n(nは実数)での三次元音場(空間)における音源オブジェクトA1、虚音源オブジェクトB1、及びユーザU1の位置を表している。また、図4の(b)は、時刻t=n+1での三次元音場における音源オブジェクトA1、虚音源オブジェクトB1、及びユーザU1の位置を表している。時刻t=nと時刻t=n+1との差分は、処理単位時間に相当する。また、図4の(a)、(b)では、音源オブジェクトA1及びユーザU1の位置は変動していない。
 図4の(b)に示すように、虚音源オブジェクトB1の位置は、時刻t=nでの虚音源オブジェクトB1の位置(破線の丸印を参照)から変動している。このように、実施の形態では、パラメータ決定部131は、虚音源オブジェクトB1の位置が経時的に(ここでは、処理単位時間ごとに)変動するように、虚音源オブジェクトB1の位置を決定する。
 初期反射音生成処理部132は、パラメータ決定部131で決定したパラメータに基づいて、初期反射音を生成する。具体的には、初期反射音生成処理部132は、三次元音場(空間)においてパラメータ決定部131で決定された位置(座標)に虚音源オブジェクトB1を配置し、パラメータ決定部131で決定された音圧及び周波数の音を虚音源オブジェクトB1から発生させることで、初期反射音を生成する。
 方向制御部133は、メタ情報を参照し、虚音源オブジェクトB1からユーザU1へと到達する初期反射音の方向を制御する。具体的には、方向制御部133は、三次元音場(空間)における虚音源オブジェクトB1の位置、ユーザU1の位置、及びユーザU1の向きに基づいて、虚音源オブジェクトB1が発生する音が、虚音源オブジェクトB1からユーザU1の右耳(又は左耳)へと到達する方向を決定する。
 音量制御部134は、メタ情報を参照し、虚音源オブジェクトB1からユーザU1へと到達する初期反射音の音量(音圧)を制御する。具体的には、音量制御部134は、三次元音場(空間)における虚音源オブジェクトB1とユーザU1との間の距離に応じて、初期反射音がユーザU1に到達した際の初期反射音の音量を決定する。例えば、音量制御部134は、当該距離が長ければ長いほど初期反射音の音量を小さくし、当該距離が短ければ短いほど初期反射音の音量を大きくする。
 出力部14は、音響処理部13が生成した音信号Sig1を含む出力音信号Sig2をドライバ4に出力する。
 [3.動作]
 以下、実施の形態に係る音響処理システム10の動作、つまり音響処理方法について説明する。
 [3-1.基本動作]
 まず、実施の形態に係る音響処理システム10の基本動作について図5を用いて説明する。図5は、実施の形態に係る音響処理システム10の基本動作を示すフローチャートである。以下では、図5に示すステップS1~S3を処理単位時間ごとに繰り返し実行することを前提として説明する。なお、図5では、方向制御部133による処理、及び音量制御部134による処理の図示を省略している。
 まず、音響再生装置100の動作が開始されると、取得部11は、通信モジュール2を介して音情報及びメタ情報を取得する(S1)。次に、音響処理部13は、取得した音情報及びメタ情報に基づいて、音響処理を開始する(S2)。
 音響処理において、パラメータ決定部131は、音情報及びメタ情報を参照し、初期反射音を生成するためのパラメータを決定する(S21)。ここで、既に述べたように、パラメータ決定部131は、初期反射音を生成するためのパラメータのうちの少なくとも一部については、所定の条件に従って経時的に変動させる。例えば、パラメータ決定部131は、パラメータの少なくとも一部を処理単位時間ごとに変動させる。次に、音響処理において、初期反射音生成処理部132は、パラメータ決定部131で決定したパラメータに基づいて、初期反射音を生成する(S22)。
 また、音響処理において、方向制御部133は、メタ情報を参照し、虚音源オブジェクトB1からユーザU1へと到達する初期反射音の方向を決定する。さらに、音響処理において、音量制御部134は、メタ情報を参照し、虚音源オブジェクトB1からユーザU1へと到達する初期反射音の音量(音圧)を決定する。
 そして、出力部14は、音響処理部13で生成された音信号Sig1を含む出力音信号Sig2を出力する(S3)。
 [3-2.第1実施例]
 以下、実施の形態に係る音響処理システム10の第1実施例について図6を用いて説明する。図6は、実施の形態に係る音響処理システム10の第1実施例での機能構成を示すブロック図である。図6に示すように、第1実施例では、音響処理部13は、乱数生成部135を更に有している。
 乱数生成部135は、適宜の乱数生成アルゴリズムに従って、処理単位時間ごとに乱数を生成する。具体的には、乱数生成部135は、三次元音場(空間)における虚音源オブジェクトB1のX座標、Y座標、及びZ座標にそれぞれ加算される乱数「n1」、「n2」、及び「n3」(「n1」、「n2」、及び「n3」は、いずれも実数)を処理単位時間ごとに生成する。第1実施例では、これらの乱数「n1」、「n2」、及び「n3」の各々が取り得る範囲は、およそ±0.2(単位は「m」)である。つまり、乱数生成部135が生成する乱数の取り得る範囲は、無制限ではなく、虚音源オブジェクトB1の位置を変動させた際にユーザが違和感を覚えにくい範囲で適宜設定される。
 そして、第1実施例では、パラメータ決定部131は、乱数生成部135で生成された乱数を参照して、虚音源オブジェクトB1の位置を経時的に(ここでは、処理単位時間ごとに)変動させる。例えば、三次元音場(空間)における虚音源オブジェクトB1の基準位置を以下の数式(1)で表した場合、乱数を参照して決定される虚音源オブジェクトB1の位置は、以下の数式(2)で表される。以下の数式(1)、(2)において、「(x,y,z)」は虚音源オブジェクトB1の座標を表しており、「a」、「b」、「c」は実数である。
Figure JPOXMLDOC01-appb-M000001
 以下、実施の形態に係る音響処理システム10の第1実施例での動作について図7を用いて説明する。図7は、実施の形態に係る音響処理システム10の第1実施例での動作を示すフローチャートである。図7に示す動作は、音響処理部13による動作である。以下では、音響処理部13が図7に示すステップS101~S106を処理単位時間ごとに繰り返し実行することを前提として説明する。
 まず、乱数生成部135は、乱数を生成する(S101)。次に、パラメータ決定部131は、音情報及びメタ情報を参照し、初期反射音を生成するためのパラメータを決定する(S102)。ここで、パラメータ決定部131は、初期反射音を生成するためのパラメータのうちの虚音源オブジェクトB1の位置については、乱数生成部135で生成された乱数を参照して決定する。これにより、虚音源オブジェクトB1の位置は、乱数に従って経時的に(ここでは、処理単位時間ごとに)変動することになる。次に、初期反射音生成処理部132は、パラメータ決定部131で決定したパラメータに基づいて、初期反射音を生成する(S103)。
 次に、方向制御部133は、メタ情報を参照し、虚音源オブジェクトB1からユーザU1へと到達する初期反射音の方向を決定する(S104)。さらに、音量制御部134は、メタ情報を参照し、虚音源オブジェクトB1からユーザU1へと到達する初期反射音の音量(音圧)を決定する(S105)。そして、音響処理部13は、生成された音信号Sig1を出力部14に出力する(S106)。
 このように、第1実施例では、パラメータ決定部131は、虚音源オブジェクトB1の位置を、虚音源オブジェクトB1の基準位置を基準として、乱数生成部135で生成された乱数に応じて処理単位時間ごとに変動させる。つまり、第1実施例では、所定の条件は、虚音源オブジェクトB1の位置を決定するための乱数である。
 なお、例えば三次元音場(空間)における虚音源オブジェクトB1とユーザU1との間の距離が1m以内である等して、虚音源オブジェクトB1とユーザU1との位置が比較的近い場合、乱数の取り得る範囲を狭めてもよい。つまり、三次元音場における虚音源オブジェクトB1とユーザU1との位置に応じて、乱数の取り得る範囲を変動させてもよい。言い換えれば、虚音源オブジェクトB1の位置の変動可能な範囲は、ユーザU1と虚音源オブジェクトB1との位置関係に応じて決定されてもよい。この場合、乱数の取り得る範囲は、例えば±0.05~±0.2である。
 また、三次元音場(空間)に含まれる障害物(例えば、壁等)の反射率に応じて、乱数の取り得る範囲を変動させてもよい。例えば、障害物の反射率が低いほど、乱数の取り得る範囲を狭めてもよい。また、三次元音場の大きさ又は形状に応じて、乱数の取り得る範囲を変動させてもよい。言い換えれば、虚音源オブジェクトB1の位置の変動可能な範囲は、三次元音場(空間)の音響特性に応じて決定されてもよい。
 [3-3.第2実施例]
 以下、実施の形態に係る音響処理システム10の第2実施例について図8を用いて説明する。図8は、実施の形態に係る音響処理システム10の第2実施例での動作の説明図である。
 第2実施例では、パラメータ決定部131は、虚音源オブジェクトB1の位置を所定の軌道C1に沿って経時的に(ここでは、処理単位時間ごとに)変動させる。具体的には、三次元音場(空間)における虚音源オブジェクトB1の基準位置を上記の数式(1)で表した場合、虚音源オブジェクトB1の位置は、以下の数式(3)を満たすように変動する。以下の数式(3)において、「r」は球の半径を表しており、実数である。
Figure JPOXMLDOC01-appb-M000002
 これにより、虚音源オブジェクトB1の位置は、図8に示すように、虚音源オブジェクトB1の基準位置(破線の丸印を参照)を中心とした半径「r」の球(図8では、平面視で円形状)の周面(軌道C1)に沿って経時的に(ここでは、処理単位時間ごとに)変動することになる。第2実施例では、球の半径「r」が取り得る範囲は、およそ0.2以下(単位は「m」)である。つまり、軌道C1が取り得る範囲は無制限ではなく、虚音源オブジェクトB1の位置を変動させた際にユーザが違和感を覚えにくい範囲で適宜設定される。
 以下、実施の形態に係る音響処理システム10の第2実施例での動作について図9を用いて説明する。図9は、実施の形態に係る音響処理システム10の第2実施例での動作を示すフローチャートである。図9に示す動作は、音響処理部13による動作である。以下では、音響処理部13が図9に示すステップS201~S206を処理単位時間ごとに繰り返し実行することを前提として説明する。
 まず、パラメータ決定部131は、虚音源オブジェクトB1の軌道C1を決定する(S201)。次に、パラメータ決定部131は、音情報及びメタ情報を参照し、初期反射音を生成するためのパラメータを決定する(S202)。ここで、パラメータ決定部131は、初期反射音を生成するためのパラメータのうちの虚音源オブジェクトB1の位置については、ステップS201で決定した軌道C1を参照して決定する。これにより、虚音源オブジェクトB1の位置は、軌道C1に沿って経時的に(ここでは、処理単位時間ごとに)変動することになる。次に、初期反射音生成処理部132は、パラメータ決定部131で決定したパラメータに基づいて、初期反射音を生成する(S203)。
 次に、方向制御部133は、メタ情報を参照し、虚音源オブジェクトB1からユーザU1へと到達する初期反射音の方向を決定する(S204)。さらに、音量制御部134は、メタ情報を参照し、虚音源オブジェクトB1からユーザU1へと到達する初期反射音の音量(音圧)を決定する(S205)。そして、音響処理部13は、生成された音信号Sig1を出力部14に出力する(S206)。
 このように、第2実施例では、パラメータ決定部131は、虚音源オブジェクトB1の位置を、虚音源オブジェクトB1の基準位置を基準として、軌道C1に沿うように処理単位時間ごとに変動させる。つまり、第2実施例では、所定の条件は、虚音源オブジェクトB1の位置を決定するための三次元音場(空間)における軌道C1である。
 なお、例えば三次元音場(空間)における虚音源オブジェクトB1とユーザU1との間の距離が1m以内である等して、虚音源オブジェクトB1とユーザU1との位置が比較的近い場合、軌道C1の取り得る範囲を狭めてもよい。つまり、三次元音場における虚音源オブジェクトB1とユーザU1との位置に応じて、軌道C1の取り得る範囲を変動させてもよい。言い換えれば、虚音源オブジェクトB1の位置の変動可能な範囲は、ユーザU1と虚音源オブジェクトB1との位置関係に応じて決定されてもよい。この場合、軌道C1の取り得る範囲は、例えば0.05~0.2である。
 また、三次元音場(空間)に含まれる障害物(例えば、壁等)の反射率に応じて、軌道C1の取り得る範囲を変動させてもよい。例えば、障害物の反射率が低いほど、軌道C1の取り得る範囲を狭めてもよい。また、三次元音場の大きさ又は形状に応じて、軌道C1の取り得る範囲を変動させてもよい。言い換えれば、虚音源オブジェクトB1の位置の変動可能な範囲は、三次元音場(空間)の音響特性に応じて決定されてもよい。
 また、軌道C1の形状は、球状に限らず、例えば円形状又は楕円形状等の他の形状であってもよい。つまり、軌道C1は、三次元の軌道であってもよいし、二次元の軌道であってもよい。
 [4.利点]
 以下、実施の形態に係る音響処理システム10(音響処理方法)の利点について、比較例の音響処理システムとの比較を交えて説明する。比較例の音響処理システムは、虚音源オブジェクトB1の位置を経時的に変動させずに固定する点で、実施の形態に係る音響処理システム10と相違する。
 比較例の音響処理システムを用いた場合、虚音源オブジェクトB1の位置が経時的に変動しないため、同じ方向で、かつ、同じ音圧の反射音がユーザU1に到達し続けることになり、ユーザU1が違和感を覚える可能性がある。
 これに対して、実施の形態に係る音響処理システム10(音響処理方法)では、虚音源オブジェクトB1の位置(つまり、初期反射音を生成するためのパラメータ)が経時的に変動するため、ユーザU1に到達する反射音の方向及び音圧も経時的に変動することになり、ユーザU1が違和感を覚えにくくなる。また、虚音源オブジェクトB1の位置を経時的に変動させる処理は、現実空間における反射点からの音波の揺らぎを模擬して初期反射音を生成する処理と比較して、演算量が小さくて済む。
 したがって、実施の形態に係る音響処理システム10(音響処理方法)では、演算量を低減しつつ、ユーザU1が違和感を覚えにくい音を再生しやすい、という利点がある。
 (その他の実施の形態)
 以上、実施の形態について説明したが、本開示は、上記の実施の形態に限定されるものではない。
 上記実施の形態において、パラメータ決定部131は、経時的に変動するパラメータを処理単位時間ごとに変動させなくてもよい。例えば、パラメータ決定部131は、経時的に変動するパラメータを所定時間(例えば、処理単位時間の整数倍の時間)ごとに変動させてもよいし、不定間隔で変動させてもよい。
 上記実施の形態において、パラメータ決定部131は、乱数及び軌道C1以外の所定の条件に従って、パラメータの少なくとも一部を経時的に変動させてもよい。例えば、パラメータ決定部131は、予め定められた変動パターンに従って、パラメータの少なくとも一部を経時的に変動させてもよい。
 上記実施の形態において、経時的に変動するパラメータは、虚音源オブジェクトB1の位置に限られない。例えば、経時的に変動するパラメータは、虚音源オブジェクトB1の発生する音の音圧、又は当該音の周波数等であってもよい。また、経時的に変動するパラメータは、1つに限らず、複数であってもよい。例えば、経時的に変動するパラメータは、虚音源オブジェクトB1の位置、虚音源オブジェクトB1の発生する音の音圧、及び当該音の周波数のうちの2以上のパラメータであってもよい。
 上記実施の形態において、音響処理部13は、初期反射音を生成する処理以外の処理を実行してもよい。例えば、音響処理部13は、後期残響音を生成する後期残響音生成処理、回折音を生成する回折音生成処理、音信号の透過処理、又はドップラー効果のような音響効果を音信号に付加する付加処理等を実行してもよい。ここで、後期残響音は、初期反射音がユーザへ到達した後の比較的後期(例えば、直接音の到達時から百数十ms程度)の段階で、初期反射音よりも多くの回数(例えば、数十回)の反射を経てユーザへ到達する残響音である。回折音は、音源オブジェクトとユーザとの間に障害物がある場合に、当該障害物を回り込むようにして音源オブジェクトからユーザへ到達する音である。
 上記実施の形態では、取得部11は、符号化されたビットストリームから音情報及びメタ情報を取得しているが、これに限られない。例えば、取得部11は、音情報及びメタ情報を、個別にビットストリーム以外の情報から取得してもよい。
 また、例えば、上記の実施の形態に説明した音響再生装置は、構成要素をすべて備える一つの装置として実現されてもよいし、複数の装置に各機能が割り振られ、この複数の装置が連携することで実現されてもよい。後者の場合には、処理モジュールに該当する装置として、スマートフォン、タブレット端末、又は、PC等の情報処理装置が用いられてもよい。
 また、本開示の音響再生装置は、ドライバのみを備える再生装置に接続され、当該再生装置に対して音信号を出力するのみの音響処理装置として実現することもできる。この場合、音響処理装置は、専用の回路を備えるハードウェアとして実現してもよいし、汎用のプロセッサに特定の処理を実行させるためのソフトウェアとして実現してもよい。
 また、上記の実施の形態において、特定の処理部が実行する処理を別の処理部が実行してもよい。また、複数の処理の順序が変更されてもよいし、複数の処理が並行して実行されてもよい。
 また、上記の実施の形態において、各構成要素は、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPU(Central Processing Unit)又はプロセッサ等のプログラム実行部が、ハードディスク又は半導体メモリ等の記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。
 また、各構成要素は、ハードウェアによって実現されてもよい。例えば、各構成要素は、回路(又は集積回路)でもよい。これらの回路は、全体として1つの回路を構成してもよいし、それぞれ別々の回路でもよい。また、これらの回路は、それぞれ、汎用的な回路でもよいし、専用の回路でもよい。
 また、本開示の全般的又は具体的な態様は、装置、方法、集積回路、コンピュータプログラム又はコンピュータ読み取り可能なCD-ROM等の記録媒体で実現されてもよい。また、本開示の全般的又は具体的な態様は、装置、方法、集積回路、コンピュータプログラム及び記録媒体の任意な組み合わせで実現されてもよい。
 例えば、本開示は、コンピュータによって実行される音響処理方法として実現されてもよいし、音響処理方法をコンピュータに実行させるためのプログラムとして実現されてもよい。本開示は、このようなプログラムが記録されたコンピュータ読み取り可能な非一時的な記録媒体として実現されてもよい。
 その他、各実施の形態に対して当業者が思いつく各種変形を施して得られる形態、又は、本開示の趣旨を逸脱しない範囲で各実施の形態における構成要素及び機能を任意に組み合わせることで実現される形態も本開示に含まれる。
 本開示は、立体的な音をユーザに知覚させる等の音響再生の際に有用である。
 1 処理モジュール
 10 音響処理システム
 100 音響再生装置
 11 取得部
 12 抽出部
 13 音響処理部
 131 パラメータ決定部
 132 初期反射音生成処理部
 133 方向制御部
 134 音量制御部
 135 乱数生成部
 14 出力部
 2 通信モジュール
 3 センサ
 4 ドライバ
 A1 音源オブジェクト
 B1 虚音源オブジェクト
 C1 軌道
 Sig1 音信号
 Sig2 出力音信号
 U1 ユーザ

Claims (8)

  1.  所定音を含む音に関する音情報、及び前記所定音が再生される空間に関する情報を含むメタ情報を取得し、
     前記音情報及び前記メタ情報に基づいて、音源オブジェクトからユーザへの直接音の後に前記ユーザに到達する初期反射音を含む音を示す音信号を生成する音響処理を実行し、
     前記音信号を含む出力音信号を出力し、
     前記音響処理では、
     前記空間において前記初期反射音を発生する虚音源オブジェクトの位置を含む前記初期反射音を生成するためのパラメータを決定し、
     決定した前記パラメータに基づいて前記初期反射音を生成し、
     前記パラメータの少なくとも一部は、所定の条件に従って経時的に変動する、
     音響処理方法。
  2.  経時的に変動する前記パラメータは、前記空間において前記初期反射音を発生する虚音源オブジェクトの位置である、
     請求項1に記載の音響処理方法。
  3.  前記所定の条件は、前記虚音源オブジェクトの位置を決定するための乱数である、
     請求項2に記載の音響処理方法。
  4.  前記所定の条件は、前記虚音源オブジェクトの位置を決定するための前記空間における軌道である、
     請求項2に記載の音響処理方法。
  5.  前記虚音源オブジェクトの位置の変動可能な範囲は、前記ユーザと前記虚音源オブジェクトとの位置関係に応じて決定される、
     請求項2~4のいずれか1項に記載の音響処理方法。
  6.  前記虚音源オブジェクトの位置の変動可能な範囲は、前記空間の音響特性に応じて決定される、
     請求項2~4のいずれか1項に記載の音響処理方法。
  7.  請求項1~4のいずれか1項に記載の音響処理方法をコンピュータに実行させる、
     プログラム。
  8.  所定音を含む音に関する音情報、及び前記所定音が再生される空間に関する情報を含むメタ情報を取得する取得部と、
     前記音情報及び前記メタ情報に基づいて、音源オブジェクトからユーザへの直接音の後に前記ユーザに到達する初期反射音を含む音を示す音信号を生成する音響処理を実行する音響処理部と、
     前記音信号を含む出力音信号を出力する出力部と、を備え、
     前記音響処理部は、
     前記空間において前記初期反射音を発生する虚音源オブジェクトの位置を含む前記初期反射音を生成するためのパラメータを決定するパラメータ決定部と、
     決定した前記パラメータに基づいて前記初期反射音を生成する初期反射音生成処理部と、を有し、
     前記パラメータの少なくとも一部は、所定の条件に従って経時的に変動する、
     音響処理システム。
PCT/JP2023/014064 2022-04-14 2023-04-05 音響処理方法、プログラム、及び音響処理システム WO2023199815A1 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US202263330925P 2022-04-14 2022-04-14
US63/330,925 2022-04-14
JP2023-012030 2023-01-30
JP2023012030 2023-01-30

Publications (1)

Publication Number Publication Date
WO2023199815A1 true WO2023199815A1 (ja) 2023-10-19

Family

ID=88329670

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/014064 WO2023199815A1 (ja) 2022-04-14 2023-04-05 音響処理方法、プログラム、及び音響処理システム

Country Status (1)

Country Link
WO (1) WO2023199815A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5831600U (ja) * 1981-08-26 1983-03-01 ヤマハ株式会社 残響音付加装置
JP2003005770A (ja) * 2001-06-25 2003-01-08 Tama Tlo Kk 残響生成付加方法とその装置
JP2018509864A (ja) * 2015-02-12 2018-04-05 ドルビー ラボラトリーズ ライセンシング コーポレイション ヘッドフォン仮想化のための残響生成
WO2020197839A1 (en) * 2019-03-27 2020-10-01 Facebook Technologies, Llc Determination of acoustic parameters for a headset using a mapping server
WO2022038929A1 (ja) * 2020-08-20 2022-02-24 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 情報処理方法、プログラム、及び、音響再生装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5831600U (ja) * 1981-08-26 1983-03-01 ヤマハ株式会社 残響音付加装置
JP2003005770A (ja) * 2001-06-25 2003-01-08 Tama Tlo Kk 残響生成付加方法とその装置
JP2018509864A (ja) * 2015-02-12 2018-04-05 ドルビー ラボラトリーズ ライセンシング コーポレイション ヘッドフォン仮想化のための残響生成
WO2020197839A1 (en) * 2019-03-27 2020-10-01 Facebook Technologies, Llc Determination of acoustic parameters for a headset using a mapping server
WO2022038929A1 (ja) * 2020-08-20 2022-02-24 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 情報処理方法、プログラム、及び、音響再生装置

Similar Documents

Publication Publication Date Title
CN112567768B (zh) 用于交互式音频环境的空间音频
CN112602053B (zh) 音频装置和音频处理的方法
JP7457525B2 (ja) 受信装置、コンテンツ伝送システム、及びプログラム
JP2023168544A (ja) 低周波数チャネル間コヒーレンス制御
WO2023199815A1 (ja) 音響処理方法、プログラム、及び音響処理システム
KR20230088428A (ko) 시청각 렌더링 장치 및 그 동작 방법
WO2023199813A1 (ja) 音響処理方法、プログラム、及び音響処理システム
US20220036075A1 (en) A system for controlling audio-capable connected devices in mixed reality environments
WO2023199817A1 (ja) 情報処理方法、情報処理装置、音響再生システム、及び、プログラム
WO2024084920A1 (ja) 音響処理方法、音響処理装置、及び、プログラム
WO2023199778A1 (ja) 音響信号処理方法、プログラム、音響信号処理装置、および、音響信号再生システム
WO2022220182A1 (ja) 情報処理方法、プログラム、及び情報処理システム
WO2024014389A1 (ja) 音響信号処理方法、コンピュータプログラム、及び、音響信号処理装置
WO2024084950A1 (ja) 音響信号処理方法、コンピュータプログラム、及び、音響信号処理装置
WO2024014390A1 (ja) 音響信号処理方法、情報生成方法、コンピュータプログラム、及び、音響信号処理装置
WO2024084949A1 (ja) 音響信号処理方法、コンピュータプログラム、及び、音響信号処理装置
RU2815621C1 (ru) Аудиоустройство и способ обработки аудио
RU2815366C2 (ru) Аудиоустройство и способ обработки аудио
CN117063489A (zh) 信息处理方法、程序和信息处理系统

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23788234

Country of ref document: EP

Kind code of ref document: A1