WO2018070487A1 - 空間音響生成装置、空間音響生成システム、空間音響生成方法、および、空間音響生成プログラム - Google Patents

空間音響生成装置、空間音響生成システム、空間音響生成方法、および、空間音響生成プログラム Download PDF

Info

Publication number
WO2018070487A1
WO2018070487A1 PCT/JP2017/037043 JP2017037043W WO2018070487A1 WO 2018070487 A1 WO2018070487 A1 WO 2018070487A1 JP 2017037043 W JP2017037043 W JP 2017037043W WO 2018070487 A1 WO2018070487 A1 WO 2018070487A1
Authority
WO
WIPO (PCT)
Prior art keywords
sound
spatial
sounding body
generation device
acoustic
Prior art date
Application number
PCT/JP2017/037043
Other languages
English (en)
French (fr)
Inventor
史郎 伊勢
北川 雄一
Original Assignee
国立研究開発法人科学技術振興機構
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 国立研究開発法人科学技術振興機構 filed Critical 国立研究開発法人科学技術振興機構
Priority to JP2018545055A priority Critical patent/JP6882785B2/ja
Priority to US16/341,539 priority patent/US10812927B2/en
Publication of WO2018070487A1 publication Critical patent/WO2018070487A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/02Casings; Cabinets ; Supports therefor; Mountings therein
    • H04R1/025Arrangements for fixing loudspeaker transducers, e.g. in a box, furniture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/32Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
    • H04R1/40Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
    • H04R1/403Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers loud-speakers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/12Circuits for transducers, loudspeakers or microphones for distributing signals to two or more loudspeakers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/02Spatial or constructional arrangements of loudspeakers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/04Circuit arrangements, e.g. for selective connection of amplifier inputs/outputs to loudspeakers, for loudspeaker detection, or for adaptation of settings to personal preferences or hearing impairments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • H04S7/303Tracking of listener position or orientation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2201/00Details of transducers, loudspeakers or microphones covered by H04R1/00 but not provided for in any of its subgroups
    • H04R2201/40Details of arrangements for obtaining desired directional characteristic by combining a number of identical transducers covered by H04R1/40 but not provided for in any of its subgroups
    • H04R2201/4012D or 3D arrays of transducers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2499/00Aspects covered by H04R or H04S not otherwise provided for in their subgroups
    • H04R2499/10General applications
    • H04R2499/15Transducers incorporated in visual displaying devices, e.g. televisions, computer displays, laptops
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/11Positioning of individual sound objects, e.g. moving airplane, within a sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/13Application of wave-field synthesis in stereophonic audio systems

Definitions

  • the present invention relates to a spatial acoustic generation device, a spatial acoustic generation system, a spatial acoustic generation method, and a spatial acoustic generation program.
  • a surround reproduction method is known as a sound reproduction method.
  • the surround reproduction method has more channels than 2.0ch stereo sound reproduction, and is intended to reproduce sound with a higher sense of presence than stereo sound.
  • the conventional surround reproduction system has low sound image localization accuracy, it has been difficult to realize high-quality sound reproduction as required by creators and the like.
  • Boundary sound field control is based on a method in which a sound source is installed at a point away from the boundary and a signal generated using an inverse system is output from the sound source.
  • Boundary sound field control is based on a method in which a sound source is installed at a point away from the boundary and a signal generated using an inverse system is output from the sound source.
  • Non-Patent Document 1 is an inverse filter that records the rolling sound of a sound ball in advance using a fullerene microphone array and cancels the transfer function from the speaker to the control point in the reproduced sound field. It is stored in a database in a folded state, and it is described that a hitting sound and a rolling sound are reproduced in a three-dimensional sound field at the timing when the physical action of the hitting action is detected via Microsoft Kinect. .
  • Non-Patent Document 2 describes a system that detects body movement via Microsoft's Kinect, estimates a sound that matches the body movement from the movement pattern, and changes parameters.
  • Keisuke Ogasawara et al., “Construction of a three-dimensional sound field reproduction system that interacts with body movements—Basic structure of the system”, Proceedings of the Acoustical Society of Japan, September 2013, p. 715-716 Kita-Hoho, et al., “Interactive Sound Generation System Based on Body Motion Recognition”, Human-Agent Interaction Symposium 2013, p. 51-54 Masashi Toyoda (Tohoku University), et al., “A Study on Real-Time Rendering of Doppler Effect in 3D Sound Space”, Virtual Reality Society Annual Convention (CD-ROM) Vol. 9, 2C3-3, September 8, 2004
  • the conventional sound reproduction system reproduces an acoustic wavefront recorded in advance by a microphone array having a fullerene structure or the like, and content etc. can move arbitrarily in a virtual three-dimensional space like a game space.
  • a realistic three-dimensional acoustic wavefront cannot be generated.
  • the present invention provides a spatial acoustic generation device, a spatial acoustic generation system, a spatial acoustic generation method, and a spatial acoustic generation program capable of generating a sound field with a realistic three-dimensional acoustic wavefront. It is.
  • the spatial sound generation device of the present invention is a spatial sound generation device including a storage unit and a control unit connected to a plurality of speakers, and the control unit moves. Based on the information indicating the sounding body, applying a reverse system while changing the transmission characteristics for each time according to the movement of the sounding body, the sound source signal indicating the sound emitted by the sounding body, to the plurality of speakers
  • the inverse system is configured to transfer characteristics in a space in which the plurality of speakers are arranged so that the speaker forms a three-dimensional acoustic wavefront based on the input signals in boundary sound field control.
  • the input signal is output according to the above.
  • the present invention also relates to a spatial sound generation system.
  • the spatial acoustic arrangement system of the present invention is a spatial acoustic generation system including a plurality of speakers, a storage unit, and a control unit, wherein the control unit is based on information indicating a moving sounding body.
  • the present invention also relates to a spatial sound generation method.
  • the spatial acoustic arrangement method of the present invention is a spatial acoustic generation method that is executed in a computer including a storage unit and a control unit, connected to a plurality of speakers, wherein the control unit indicates a moving sounding body.
  • a reverse system while changing the transmission characteristics for each time according to the movement of the sounding body, a plurality of input signals to each speaker are obtained from a sound source signal indicating a sound emitted by the sounding body.
  • the inverse system is configured to calculate transfer characteristics in a space in which the plurality of speakers are arranged so that the speaker forms a three-dimensional acoustic wavefront based on the input signal in boundary sound field control. And outputting the input signal in response to the input signal and controlling each speaker based on the input signal.
  • the present invention also relates to a spatial acoustic arrangement program.
  • the spatial acoustic arrangement program of the present invention is a spatial acoustic generation program for causing a computer having a storage unit and a control unit, connected to a plurality of speakers, to be executed, and for the moving sounding body to be moved to the control unit.
  • the inverse system is configured to transmit in the space where the plurality of speakers are arranged so that the speaker forms a three-dimensional acoustic wavefront based on the input signal in boundary sound field control.
  • a step of outputting the input signal in accordance with characteristics and a step of controlling each speaker based on the input signal are executed.
  • FIG. 1 is a configuration diagram illustrating a configuration of a spatial sound generation system according to an embodiment of the present invention.
  • FIG. 2 is a diagram showing an example of a BoSC playback type speaker array according to the present embodiment.
  • FIG. 3 is a diagram illustrating a configuration example of a 3D wavefront generation system using a moving sound generator based on the boundary sound field control (BoSC) principle.
  • FIG. 4 is a diagram schematically showing the relationship between the moving sound generator and the region V.
  • FIG. 5 is a flowchart showing an example of basic processing in the spatial sound generation system of the present embodiment.
  • FIG. 6 is a flowchart illustrating an example of the realization process in the spatial sound generation system according to the present embodiment.
  • FIG. 5 is a flowchart showing an example of basic processing in the spatial sound generation system of the present embodiment.
  • FIG. 7 is a diagram schematically showing a spatial sound generation algorithm based on the boundary sound field control (BoSC) principle in relation to FIG.
  • FIG. 8 is a diagram showing the relationship between the sounding body moving in the three-dimensional sound field and the wavefront observation target region V.
  • FIG. 9 is a workflow diagram showing processing contents and storage contents in the specific device configuration of the spatial sound generation device 100.
  • FIG. 10 is a diagram schematically illustrating obtaining an input signal to each speaker of the speaker array 116 using the MIMO inverse system.
  • FIG. 11 is a workflow diagram showing processing contents and storage contents in a specific device configuration of the spatial sound generation device 100.
  • FIG. 12 is a diagram illustrating a modification of the speaker array in the spatial sound generation system.
  • a spatial acoustic generation device a spatial acoustic generation system, a spatial acoustic generation method, a spatial acoustic generation program, and a recording medium according to an embodiment of the present invention will be described in detail based on the drawings. Note that the present invention is not limited to the embodiments.
  • FIG. 1 is a configuration diagram showing the configuration of the spatial acoustic generation system according to the embodiment of the present invention, and mainly shows a portion related to the present embodiment in the configuration.
  • the spatial acoustic generation system includes a spatial acoustic generation device 100, a detection unit 112, a display unit 114, and a speaker array 116.
  • the spatial sound generation device 100 may be connected to an external device 200 via a network 300.
  • the spatial sound generation device 100 is a personal computer, a server computer, a tablet computer, or the like.
  • the network 300 has a function of connecting the spatial sound generation device 100 and the external device 200 to each other, and is, for example, a LAN or the Internet.
  • the detection unit 112 is a motion recognition unit that recognizes the motion of at least one body part of the user.
  • the detection unit 112 may recognize a person's movement by an arbitrary detection unit such as a camera or an infrared sensor.
  • the detection unit 112 may detect a user's movement using a known gesture recognition technique, a known motion sensor, or the like. Gestures can be derived from the user's position and movement in physical space, and can include any user movement, dynamic or static, such as finger, arm or leg movement, or static posture. it can.
  • a capture device such as a camera may capture user image data and recognize user's gesture (s) from the user image data.
  • the detection unit 112 recognizes and analyzes a gesture performed by the user in the user's three-dimensional physical space using the computer environment, interprets the user's motion data, attribute data, and the like.
  • the raw data before analysis may be transmitted to the spatial sound generation device 100.
  • the detection unit 112 moves in a direction, pushes a hand in a direction, kicks a leg in a direction, throws a ball, moves heading, catches something with both hands, You may recognize movements, such as a movement which shakes a stick.
  • a Kinect sensor of a motion sensor for Xbox One manufactured by Microsoft may be used. According to the Kinect technology, skeleton motion data and attribute data of the whole body skeleton can be obtained.
  • the movement and attributes of a person are analyzed using a control means built in the sensor, or the movement and attributes of a person are analyzed by a control means of a connected computer. Any embodiment may be used.
  • these analysis functions may be realized by a control unit (such as a processor) of the detection unit 112 or may be realized by a control unit (such as a sound source calculation unit 102b described later) of the spatial acoustic generation device 100.
  • the analysis function may be realized by both control means.
  • the detection unit 112 may further include detection means such as a touch pad, a touch panel, and a microphone array.
  • detection unit 112 is not limited to directly detecting a human body, but a controller or a sign (for example, a two-dimensional code tag) worn by a user, such as an Oculus Touch controller of Oculus Rift manufactured by Facebook. By detecting the motion, the motion of the body may be detected indirectly.
  • the display unit 114 is display means for displaying content information.
  • the display unit 114 may be a head mounted display (HMD), a liquid crystal display, a projector, or the like.
  • the display unit 114 may perform two-dimensional display or three-dimensional display. As will be described later, the listener listens to the synthesized sound wave so that the sound image is localized at the position of the sound source displayed on the display unit 114.
  • the listener may sit on the seat or stand on the vibration plate. If a body sonic transducer is connected to this sheet or vibration plate and the control unit controls the transducer so as to apply vibration to the listener in accordance with the content information, the listener can enjoy powerful content.
  • the speaker array 116 is a sound output means in which a plurality of speakers are three-dimensionally arranged.
  • the speaker array 116 is a sound field control (BoSC) reproduction type speaker array.
  • FIG. 2 is a diagram illustrating an example of a BoSC playback type speaker array according to the present embodiment.
  • FIG. 2 illustrates an acoustic barrel-type speaker array 116 that forms a barrel-shaped sound field reproduction chamber.
  • the speaker array 116 of the present embodiment includes an elliptical dome portion 220 and a column portion 222.
  • the elliptical dome portion 220 is constituted by, for example, wooden bases 220a, 220b, 220c, and 220d.
  • FIG. 2 is the figure which looked at the inside of the dome part 220 from the diagonally downward direction, and has shown only the part about the mount frame 220d and the column part 222.
  • FIG. Although not shown, the inside of the dome portion 220 and the column portion 222 is hollow, and the pedestals 220a to 220d themselves serve as a closed room type enclosure.
  • 96 loudspeakers 230 are installed in each of the speaker arrays 116 of this embodiment as an example.
  • a speaker of a full range unit (Fostex FE83E) or a subwoofer unit (Fostex FW108N) for compensating for low frequencies may be installed.
  • Such a speaker array 116 may be installed in a sound field reproduction room, for example, a YAMAHA woody box (sound insulation performance Dr-30) which is a soundproof room of 1.5 mm may be used.
  • a chair with a lift (not shown), the detection unit 112 such as the above-mentioned KINECT, and the display unit 114 may be provided in the sound field reproduction chamber.
  • the spatial sound generation device 100 generally includes a control unit 102 such as a CPU that comprehensively controls the entire spatial sound generation device 100, and a communication device such as a router connected to a communication line or the like.
  • a communication control interface unit 104 connected to (not shown), an input / output control interface unit 108 connected to a detection unit 112 such as a touch panel, a display unit 114, a speaker array 116, and various databases and tables.
  • the storage unit 106 is configured to be stored, and these units are communicably connected via an arbitrary communication path.
  • the storage unit 106 stores various databases and tables (for example, a function file 106a and a content file 106b).
  • the storage unit 106 is a fixed disk device such as a small-capacity high-speed memory (for example, a cache memory) configured using SRAM (Static Random Access Memory) or the like, an HDD (Hard Disk Drive), or an SSD (Solid State Drive) or the like. And stores various programs, tables, files, databases, web pages, and the like used for various processes.
  • the function file 106a is function storage means for storing a function for performing signal processing.
  • the function file 106a includes an inverse system that outputs an input signal to each speaker of the speaker array 116 from a sound pressure signal on the boundary surface of an area including the user's head, and a virtual system.
  • a reproduction signal output function based on a transfer function from the position coordinates of the sounding body in the three-dimensional space to the position coordinates of the sound pressure signal on the boundary surface is stored.
  • FIG. 3 is a diagram illustrating a configuration example of a 3D wavefront generation system using a moving sound generator based on the boundary sound field control (BoSC) principle. Below, the application example of the boundary element method is demonstrated about this system.
  • BoSC boundary sound field control
  • S is the boundary surface of the shape of the moving sound generator.
  • the boundary surface S includes a surface S ′ whose vibration surface is known and a wall surface S ′′ whose acoustic admittance is known.
  • the boundary surface S is divided into M microelements, the 1... M′th element is included in the surface S ′, and the M ′ + 1... Mth element is included in the surface S ′′.
  • the above is the physical conditions of the sounding body.
  • the sound pressure signal on the boundary surface S surrounding the target region (that corresponds to the region including the listener's head) V for observing the wavefront by the sounding body having the above physical conditions will be described.
  • System c (r ⁇ j , t, ⁇ ) In such a case, a sound source signal s (t) for driving a moving sound generator (a point sound source located at r ′ (t), a sound generator having a shape where each element is located at r i (t)) is generated.
  • a system c (r j , t, ⁇ ) that outputs the sound pressure signal p (r j , t) at the sound receiving point as an input can be expressed as follows.
  • c (r ⁇ j , t, ⁇ ) represents a time-varying transfer characteristic, and is a time-varying system in which the transfer function changes according to time t as the sounding body moves. For this reason, the following arithmetic expression on the frequency axis by the Fourier transform of Expression (1) does not hold (the calculation method of c (r ⁇ j , t, ⁇ ) will be described later in Section 7).
  • the sound field reproduction speaker array 116 is obtained from the sound pressure signal p (r ⁇ j , t) measured at N points on the boundary surface S (closed curved surface) surrounding the wavefront observation target region V (closed region).
  • the inverse system is a generic name for M ⁇ N inverse filter groups.
  • publicly known literature S. Enomoto et al., “Three-dimensional sound field reproduction and recording systems based on the control structure 14”). .
  • M speakers are installed in the sound field reproduction room in which the speaker array 116 is installed, and microphones are installed on N on the boundary surface S ′ (closed curved surface) surrounding the wavefront reproduction target region V ′ (closed region).
  • H ij ( ⁇ ) is a transfer function from the sound source i to the microphone position point j, and can be expressed by the following equation.
  • H ij ( ⁇ ) can be expressed by the following matrix for each angular velocity ⁇ .
  • h ⁇ ji (t) is as follows. According to the algorithm of the inverse system H ji ( ⁇ ) (or equivalently, h ji (t)) as described above, the influence of the transfer function H ij ( ⁇ ) in the space where the speaker array 116 is installed is canceled. Thus, the reproduction signal Y i ( ⁇ ) (or y i (t)) can be output.
  • Playback signal output function f i (t, ⁇ ) when Expression (1) is substituted into Expression (2), the reproduction signal y i (t) can be expressed as follows.
  • An input signal to the speaker can be obtained.
  • a reproduction signal output function corresponding to the above equation (42) or the like may be configured by functionalizing the position coordinates r ⁇ j of the above equation (41) so as to be settable as a function of time t.
  • FIG. 4 is a diagram schematically showing the relationship between the moving sounding body and the region V.
  • the speed of the sounding body vs when the size of the sounding body and the size of the wavefront observation target area are sufficiently small compared to the distance between the center coordinates of the sounding body and the center coordinate of the wavefront observation target area, the speed of the sounding body vs , angle between the moving direction and the wave front traveling direction of the sounding body theta, when the sound velocity v c, the sound pressure signals measured by the wavefront observation target region is as follows.
  • a system C (r ⁇ j , ⁇ ) with output j , ⁇ ) is obtained as follows.
  • the transfer function c (r ⁇ j , t, ⁇ ) of the system considering time can be obtained by the following expression.
  • the above is an example of the reproduction signal output function of the present embodiment stored in the function file 106a.
  • the reproduction signal output function is not limited to the above-described reproduction signal output function, and the reproduction signal output function may be obtained by a known approximate method or the like based on the principle of boundary sound field control (BoSC).
  • BoSC boundary sound field control
  • the boundary element method is used to obtain a playback signal output function.
  • various numerical calculation methods such as a finite element method and a difference method may be used instead of the boundary element method. Good.
  • the content file 106b is content information storage means for storing content information.
  • the content file 106b may store various data (image data, sound source data, etc.) that can be arranged in the virtual space.
  • the content file 106b may store various element data (polygon data, attribute data, etc.) constituting a three-dimensional virtual space such as a game space. Some of such element data are associated with data such as a sound source signal as the sounding body described above.
  • the content data is an example of information indicating the physical condition (that is, boundary condition) of the sounding body.
  • the content file 106b may store content information that defines a three-dimensional virtual space in which orchestra player placement is virtually possible. Note that the content file 106b may be obtained by temporarily or permanently acquiring content information from the external device 200 such as a server via the network 300 and storing the content information.
  • the input / output control interface unit 108 is an example of an interface unit that controls the detection unit 112 and the output unit 114 such as a keyboard.
  • the input / output control interface unit 108 includes one or a plurality of interface circuits.
  • the output unit 114 as a display unit, a monitor (including a home television, a touch screen monitor, or the like) can be used.
  • position information acquisition means such as a GPS sensor or an IMES sensor, various sensors such as a touch panel, a voice microphone, a keyboard, a camera, and an acceleration sensor can be used.
  • the detection unit 112 and the output unit 114 may be input / output means such as a touch panel in which the output unit 114 such as a liquid crystal panel and the detection unit 112 such as a touch position input device are combined.
  • control unit 102 has an internal memory for storing a control program such as an OS (Operating System), a program defining various processing procedures, and necessary data.
  • the control unit 102 is a processor such as a CPU that performs information processing for executing various processes according to a program or the like stored in an internal memory.
  • the control unit 102 includes a display control unit 102a, a sound source calculation unit 102b, a wavefront output control unit 102c, and a reproduction method conversion unit 102d in terms of functional concept.
  • the display control unit 102a is a display control unit that performs display control of content information.
  • the display control unit 102a may perform display control of content information according to the movement of the body part detected by the detection unit 112.
  • the display control unit 102a may perform display control involving movement of content information instructed by an operation such as a user's finger detected by the detection unit 112.
  • the display control unit 102a displays each element of the virtual three-dimensional space read from the content file 106b on the display unit 114 such as an HMD, and controls the user to point the element with a finger through the detection unit 112. Then, the instructed element may be moved according to the movement of the user's hand as a movement target.
  • the display control unit 102a is not limited to the above example, and the display control unit 102a displays a game space including game elements, and responds to a movement of a user to throw a virtual ball or the like, a kick or heading movement, and a movement captured by both hands. Then, an element such as a ball may be moved on the display.
  • the display control unit 102a may cause not only the movement of the element but also the generation or disappearance of the element according to the user's operation.
  • a known non-contact game control method such as Microsoft Xbox may be used as a control method by the display control unit 102a via the detection unit 112.
  • the display control unit 102a Since the user and the content are in a relative positional relationship in the virtual space, the display control unit 102a performs display control of the content information according to the operation detected by the detection unit 112. The case where the user changes his / her position in accordance with the operation in the virtual space is also included.
  • the sound source calculation unit 102b uses an inverse system that takes into account the time-varying transfer characteristic from the moving sounding body to the sound pressure signal on the boundary surface of the region including the user's head. Sound source calculation means for calculating an input signal to the speaker from the sound source signal. For example, the sound source calculation unit 102b may calculate the input signal from the sound source signal based on a function stored in the function file 106a.
  • the sound source calculation unit 102b may calculate a sound function signal of a corresponding sounding body and a time function of position coordinates in accordance with a change in content information according to the movement of the user's body part. That is, the sound source calculation unit 102b reads the sound source signal s (t) associated with the content element that is the target of change such as movement from the content file 106b or the like in accordance with the change in content information by the display control unit 102a. time function r i coordinates in association with the change of the content information according to the user's operation of the body part through the detection unit 112 (t), performs signal processing from r'i (t).
  • the sound source calculating unit 102b the source signal s (t) and r i (t), r'i a (t), a function file 106a stored in the above-mentioned formula (41), (42 ).
  • the sound source calculation unit 102b may calculate a reproduced acoustic wavefront signal that reproduces the Doppler shift according to the speed of the user and / or sounding body in the virtual three-dimensional space. Specifically, as an example, the sound source calculation unit 102b obtains a reproduced acoustic wavefront signal in consideration of the Doppler shift by substituting it into the above formulas (43) to (45) stored in the function file 106a. it can.
  • the sound source calculation unit 102b uses a time function r i (t) of position coordinates, r i ′ (t), and a relative positional relationship between the user and the sounding body in a virtual three-dimensional space. May be calculated. Thus, for example, not only the sounding body is moving towards the area V of the listener at a velocity v s, even if the region V of the listener is moving relative to the sounding body, the Doppler effect Can be generated.
  • the wavefront output control unit 102c inputs the input signal obtained by the sound source calculation unit 102b to each speaker of the speaker array 116, so that a three-dimensional acoustic wavefront by a sounding body moving in a virtual three-dimensional space is obtained.
  • the wavefront output control means for forming For example, the wavefront output control unit 102c inputs an input signal derived by inputting the sound source signal of the sounding body and the time function of the position coordinates obtained by the sound source calculation unit 102b into the reproduction signal output function of the function file 106a. By inputting to each speaker of the array 116, output control of a three-dimensional acoustic wavefront by a sounding body moving in a virtual three-dimensional space may be performed.
  • the wavefront output control unit 102c converts the sound source signal s (t) of the sounding body and the time function r i (t), r i ′ (t) of the position coordinate into the reproduction signal output function (described above).
  • An input signal y i (t) input and derived from the equations (4) to (42) or the like is input to each speaker of the speaker array 116, thereby forming a 3D acoustic wavefront in the sound field reproduction chamber. Thereby, it is possible to perform sound output with improved sound image localization accuracy.
  • the reproduction method conversion unit 102d is reproduction method conversion means for converting an acoustic wavefront output or the like based on the reproduction acoustic wavefront signal into another known reproduction method.
  • the playback system conversion unit 102d converts the acoustic wavefront output of the 96-channel playback acoustic wavefront signal from the speaker array 116 into a 2ch stereo playback system or a 5.1ch playback system using a known playback system conversion method. can do.
  • creators and other users can convert and distribute the produced 3D sound source space layout results so that they can be reproduced by stereo speakers and surround speakers in an environment with good sound localization accuracy. it can.
  • the playback method conversion unit 102d may transmit the converted music data or the like to another external device 200 via the network 300.
  • the spatial sound generation device 100 may be communicably connected to the network 300 via a communication device such as a router and a wired or wireless communication line such as a dedicated line.
  • the spatial sound generation device 100 may be configured to be communicably connected via the network 300 to a content database that stores content information, an external device 200 that provides an external program such as a spatial sound generation program, and the like. Good.
  • the communication control interface unit 104 is a device that performs communication control between the spatial sound generation device 100 and the network 300 (or a communication device such as a router). That is, the communication control interface unit 104 has a function of communicating data with other terminals or stations via a communication line (whether wired or wireless). In the present embodiment, the communication control interface unit 104 controls communication with the external device 200 and the like. That is, the external device 200 is connected to the spatial sound generation device 100, the detection unit 112, and the display unit 114 via the network 300, and is a web that executes an external program such as an external database or a program for each terminal. It may have a function of providing a site.
  • the external device 200 may be realized by hardware elements such as a personal computer and a server computer and software elements such as an operating system, application programs, and other data.
  • the external device 200 may be configured as a WEB server, an ASP server, or the like, and the hardware configuration thereof is configured by an information processing device such as a commercially available workstation or a personal computer and an accessory device thereof. Also good.
  • Each function of the external device 200 is realized by a processor such as a CPU, a disk device, a memory device, an input device, an output device, a communication control device, etc. in the hardware configuration of the external device 200 and a program for controlling them.
  • the external device 200 may be realized by hardware elements such as a personal computer and a server computer and software elements such as an operating system, application programs, and other data.
  • the external device 200 may be configured as a WEB server, an ASP server, or the like, and the hardware configuration thereof is configured by an information processing device such as a commercially available workstation or a personal computer and an accessory
  • FIG. 5 is a flowchart showing an example of basic processing in the spatial sound generation system of the present embodiment.
  • the spatial sound generation device 100 of the present spatial sound generation system controls the sound source signal s (t) and position coordinates of a sounding body that can move in the virtual three-dimensional space under the control of the sound source calculation unit 102b.
  • Time functions r i (t), r ′ i (t) are calculated (step SA-1).
  • the movement of the sounding body may be determined in advance or may be accompanied by an input from the user.
  • the sound source calculation unit 102b may calculate the position coordinates and the sound source signal based on the movement trajectory data stored in the content file 106b or the like.
  • the sound source calculation unit 102b generates a sound source signal s (t) corresponding to the content to be moved and the position coordinates of the content element associated with the change in the content information in accordance with a change in the game content information or the like by the user input of the time function r i (t), may be calculated r'i a (t).
  • step SA-2 the space sound generating device 100 of this spatial sound generation system, the control of the sound source calculating unit 102b, the sound source signal s (t) and the moving coordinate time function r i (t), r'i a (t), the function Substitute into the signal output function for reproduction stored in the file 106a (step SA-2).
  • steps SA-1 and 2 using an inverse system that takes into account the time-varying transfer characteristics from the moving sounding body to the sound pressure signal on the boundary surface of the region including the user's head, An input signal to the speaker can be calculated from the sound source signal of the moving sounding body.
  • the reproduction signal output function is obtained from the sound pressure signal p (r ⁇ j , t) on the boundary surface S ′ of the region V ′ including the user's head, and the input signal Y i to each speaker of the speaker array 116.
  • step SA-3 to SA4 the input signal calculated as described above is input to each speaker of the speaker array, thereby forming a three-dimensional acoustic wavefront.
  • the spatial acoustic generation device 100 of the present spatial acoustic generation system uses the input signal y i (t) obtained in step SA-2 to control each speaker (1) of the speaker array 116 under the control of the wavefront output control unit 102c. ... Signal input to M) (step SA-3).
  • the speaker array 116 of the spatial sound generation system outputs a three-dimensional acoustic wavefront by a sounding body moving in a virtual three-dimensional space by a speaker output according to the input signal y i (t) (step SA ⁇ 4).
  • the above is an example of the basic processing of the spatial sound generation system. Thereby, even if content etc. can move arbitrarily in a virtual three-dimensional space, a sound field with a realistic three-dimensional acoustic wavefront can be generated.
  • FIG. 6 is a flowchart showing an example of the realization process in the spatial sound generation system of the present embodiment.
  • FIG. 7 is a diagram schematically showing a spatial sound generation algorithm based on the boundary sound field control (BoSC) principle in relation to FIG.
  • BoSC boundary sound field control
  • the detection unit 112 such as a body motion sensor recognizes the movement of the user's body part (step SB-1). For example, the detection unit 112 moves from pointing to a certain direction, pushing a hand in a certain direction, kicking a leg in a certain direction, moving a ball, moving a heading, what to do with both hands. Predetermined gestures such as a movement for catching or a movement of swinging a conductor may be detected.
  • the spatial acoustic generation device 100 of the spatial acoustic generation system displays a three-dimensional display HMD or the like according to the movement of the user's body part recognized by the detection unit 112 under the control of the display control unit 102a.
  • Display control for displaying the content information stored in the content file 106b is performed via the unit 114 (step SB-2).
  • the display control unit 102a moves the user's ball detected by the detection unit 112, moves to kick or head, and swings a command stick.
  • Display control may be performed to change the corresponding content element in accordance with a gesture such as movement.
  • the spatial sound generation device 100 of the spatial sound generation system controls the sound source signal s ( t) and coordinates time function r i (t), to obtain r'i a (t) (step SB-3).
  • the sound source calculation unit 102b reads the sound source signal s (t) associated with the content element that is the target of the change such as movement from the content file 106b or the like according to the change of the content information by the display control unit 102a.
  • time function r i coordinates of the content elements with changes in the content information according to the user's operation of the body part through the detection unit 112 (t), may obtain r'i a (t).
  • the spatial sound generation device 100 of the present spatial sound generation system stores the sound source signals s (t) and r i (t), r ′ i (t) in the function file 106a under the control of the sound source calculation unit 102b. Is substituted into the reproduction signal output function (step SB-4).
  • the reproduction signal output function is the input signal Y to each speaker of the speaker array 116 from the sound pressure signal p (r ⁇ j , t) on the boundary surface S ′ of the region V ′ including the user's head.
  • the spatial acoustic generation device 100 of the present spatial acoustic generation system converts the input signal y i (t) obtained by the sound source calculation unit 102b into the speakers (1 ⁇ 1) of the speaker array 116 under the control of the wavefront output control unit 102c. ..Signal input to M) (step SB-5).
  • the speaker array 116 of the spatial sound generation system outputs a three-dimensional acoustic wavefront by a sounding body moving in a virtual three-dimensional space by a speaker output according to the input signal y i (t) (step SB ⁇ ). 6).
  • the spatial sound generation device 100 of the spatial sound generation system repeats the above-described process unless there is an instruction to end such as pressing an end button such as a touch panel (step SB-7, NO).
  • the spatial sound generation device 100 ends the process when there is an instruction to end such as pressing an end button such as a touch panel (step SB-7, YES).
  • the spatial sound generation device 100 of the present spatial sound generation system uses a reproduction method conversion unit 102d as a processing method for reproducing a signal indicating a time-series acoustic wavefront output formed by the above processing, a surround reproduction method, or the like. It is also possible to convert to another reproduction method and output the conversion result signal to the external device 200 or the like.
  • the reproduction system conversion unit 102d may record the signals before and after conversion in the storage unit 106 as appropriate.
  • the above is an example of the processing of the spatial sound generation system.
  • a user such as a creator can interactively and intuitively edit content using a body motion such as pointing in an environment with good sound image localization accuracy. Accordingly, even a user who is not familiar with computer engineering such as programming can easily generate a realistic sound field.
  • FIG. 8 is a diagram showing the relationship between the sounding body moving in the three-dimensional sound field and the wavefront observation target region V.
  • FIG. 9 is a workflow diagram showing processing contents and storage contents in the specific device configuration of the spatial sound generation device 100.
  • the CPU 102 ′ of the spatial sound generation device 100 determines the position information of the sounding body from the physical condition of the moving sounding body stored in the memory 106 ′ and the time ⁇ of the timer. r ⁇ j is obtained (step SC-1).
  • the CPU 102 ′ of the spatial sound generation device 100 transfers the transfer function c (r j , j) from the sound generator position information r j stored in the memory 106 ′ to the boundary surface S surrounding the wavefront observation target region V. t, ⁇ ) is calculated (step SC-3).
  • the CPU 102 ′ control unit
  • the CPU 102 ′ performs numerical calculation of the boundary element method using the corresponding positional information r ⁇ j and the boundary surface S as boundary conditions, thereby transferring the transfer function c at each time t. Calculate (r ⁇ j , t, ⁇ ).
  • the transfer function c (r ⁇ j , t, ⁇ ) is folded and calculated to obtain acoustic physical information such as the sound pressure signal p (r ⁇ j , t) on the boundary surface S (step SC-4).
  • the CPU 102 ′ of the spatial acoustic generation device 100 calculates the sound pressure wavefront in the region V from the acoustic physical information such as the sound pressure signal p (r ⁇ j , t) on the boundary surface S with the region V ( Step SC-5).
  • the above is the procedure for calculating the wavefront in the region V from the physical conditions of the moving sounding body and the sound source signal.
  • a speaker The input signal to the array 116 needs to be determined.
  • FIG. 10 is a diagram schematically showing obtaining an input signal to each speaker of the speaker array 116 using the MIMO inverse system.
  • FIG. 11 is a workflow diagram showing processing contents and storage contents in a specific device configuration of the spatial sound generation device 100.
  • the CPU 102 ′ of the spatial sound generation device 100 determines the position information of the sounding body from the physical conditions of the moving sounding body stored in the memory 106 ′ and the time ⁇ of the timer. r ⁇ j is obtained (step SC-1). Similarly, the CPU 102 ′ of the spatial sound generation device 100 performs the above-described steps SC-1 to SC-4.
  • a transfer function measurement system in the reproduction sound field is obtained based on sound data or the like previously recorded in the reproduction sound field by a microphone array or the like, and the transfer function is obtained.
  • the information is stored in the memory 106 '(refer to Japanese Unexamined Patent Application Publication Nos. 2011-182135 and 2008-118559 for specific methods).
  • the CPU 102 ′ of the spatial sound generation device 100 obtains a reproduction sound field inverse system from the transfer function in the reproduction sound field stored in the memory 106 ′ (step SC-51).
  • Information indicating the reverse system of the reproduction sound field may be stored in advance in the memory 106 ′ (storage unit).
  • the CPU 102 ′ of the spatial sound generation device 100 uses the inverse system of the reproduced sound field stored in the memory 106 ′ and the acoustic physical information such as the sound pressure signal p (r ⁇ j , t) on the boundary surface S, An input signal y j (t) to each speaker of the speaker array 116 is obtained (step SC-52).
  • the above is the procedure for calculating the speaker input signal in the sound field reproduction room from the physical condition of the moving sounding body, the sound source signal, and the transfer function of the reproduction sound field. Thereby, a sound field with a realistic three-dimensional acoustic wavefront can be generated.
  • the acoustic barrel-type speaker array 116 illustrated in FIG. 2 has been described in the above-described embodiment, but the plurality of speakers in the spatial sound generation system is not limited to FIG. Speakers may be used in various arrangements. A modification of the speaker array in the spatial sound generation system will be described with reference to FIG.
  • FIG. 12 illustrates a speaker array 400 that can be attached to the chair 410 in the spatial sound generation system.
  • a plurality of speakers 401 are attached to the cover unit 402 so as to surround the head of the user 500 when the user 500 is sitting on the chair 410.
  • the plurality of speakers 401 are three-dimensionally arranged in the cover unit 402 so as to be positioned in front, above, and side of the user 500 sitting on the chair 410, for example.
  • the cover unit 402 is a member formed in a dome shape so that each speaker 401 covers the head or upper body at a distance from the user 500 sitting on the chair 410.
  • the attachment part 403 which can move the cover part 402 up and down with respect to the chair 410 is provided, for example. Thereby, the position of the cover part 402 can be appropriately adjusted at the time before and after the user 500 sits on the chair 410.
  • a space capable of forming various wavefronts generated by the spatial acoustic generation device 100 can be provided between the user 500 sitting on the chair 410 and the speaker 401.
  • the spatial sound generation system including the speaker array 400 can be applied to various uses such as viewing games and various entertainments.
  • the speaker array 400 of the spatial sound generation system may be provided separately from the chair 410 or may be provided as a single unit.
  • the detection target of the detection unit 112 in the spatial sound generation system is not limited to the gesture motion, and may be various information for linking the detection result of the detection unit 112 with the movement of the sounding body. It may be used as a detection target of the unit 112.
  • the position of the player (sounding body) in the video may be detected when performing ice skating on television.
  • a sound source signal is obtained from a microphone or the like installed on a skating rink, and spatial sound generation is performed so that a TV broadcast viewer can view a running sound according to the movement of the player in the video.
  • the system can be used.
  • the movement of the game content (sounding body) is set and set according to the vibration of the detection result, with the vibration generated by the user etc. as the detection target A wavefront that interlocks with the movement may be formed.
  • the detection unit 112 in the spatial sound generation system may detect information related to the movement of various sounding bodies.
  • video analysis means various sensors such as an acceleration sensor and a gyro sensor, and the like may be used.
  • control unit 106 in the spatial sound generation device 100 may calculate information indicating the moving sounding body such as the position of the sounding body and the sound source signal based on the information regarding the movement of the sounding body detected by the detection unit 112.
  • information indicating the sounding body that moves may be acquired separately.
  • the control unit 106 may acquire information indicating a moving sounding body by reading data stored in the storage unit 102 in advance, or may acquire the information from the outside via the network 300 or the like. Also good.
  • the spatial acoustic generation device 100 various calculation simplification processes can be applied.
  • an implementation example of the spatial sound generation device 100 will be described using an example in which a sounding body is one point sound source that moves in free space.
  • w j (t) represents a sound pressure signal
  • a j (t) represents a distance between the sound source and the sound receiving point.
  • the above formulas (9) and (10) are expressed as the following formulas (11) and (12) by discretizing with the sampling frequency F s (Hz).
  • w j [n] is a time signal that changes in amplitude and extends in time according to the distance a j [n] between the sound source and the sound receiving point at discrete time n.
  • the Doppler effect is also included when the distance between the sound source and the receiving point changes rapidly.
  • Non-Patent Document 3 proposes a method of calculating the value of the sound source signal s [n ⁇ a j [n] F s / v c ] at such a real sample point by a Lagrange interpolation method or the like.
  • a Lagrange interpolation method or the like.
  • the control unit 106 in the spatial acoustic generation device 100 uses the round function for the sample point ( na ⁇ [ j ] F s / v c ) having a delay according to the movement of the sounding body according to the above equation (13). Perform rounding.
  • the control unit 106 calculates an input signal y i (t) to the speaker from the sound source signal as a result of the fraction processing, for example, by frame processing described later. Thereby, the calculation cost at the time of obtaining the input signal y i (t) that reproduces the moving sound source can be reduced.
  • an example of the frame processing based on the above equation (13) will be described.
  • the distance a j [n] in Expression (13) changes for each sample according to the movement of the sound source (sound generator), but linear interpolation can be used for distance calculation in the frame processing. For example, for a sound source whose moving speed is sufficiently smaller than the sound speed, the distance a j [n] is considered to change linearly during a certain frame interval.
  • the calculation of the distance a j [n] based on the position of the sounding body is performed based on the beginning of each frame, and the distance at each sample position up to the beginning of the next frame is I think that it changes linearly.
  • the distance a j [m, k] of the sample number k in one frame in the frame number m is expressed as the following equation (14).
  • Equation (13) is obtained by frame processing. It can be expressed as.
  • the control unit 106 of the spatial acoustic generation device 100 calculates the distance a j [m, 1] between the sound source and the sound receiving point for each frame section L in the frame processing, and calculates the intra-frame from Expression (15).
  • the signal w j [m, k] of the moving sound source is calculated.
  • the control unit 106 obtains an input signal y i [n] to the speaker by convolving an inverse filter using Equation (11).
  • the input signal y i [n] to the speaker is obtained without generating noise for each frame as expected when the moving sound source is convoluted by the known OverLap Add method. Can do. Further, the processing algorithm is simpler than the above method, and the calculation cost can be reduced. Furthermore, the Doppler effect can be handled according to the moving speed of the sound source.
  • the sounding body is one point sound source.
  • the input signal y i to the speaker is obtained by calculating and superimposing Equation (10) for each point sound source and convolving an inverse filter using Equation (11). [N] can be obtained.
  • the sounding body is approximately represented as a set of point sound sources, so that the input signal y i [n] to the speaker can be expressed in the same manner as described above. Desired.
  • the inverse system is applied to the signal w j [m, k] of the moving sound source obtained by the processing of the implementation example, and the input signal y i [n] to the speaker in the boundary sound field control is obtained.
  • the example to ask was explained.
  • the above processing is not limited to boundary sound field control, and can be applied to various reproduction methods such as a WFS (wavefront synthesis) method, a 2ch stereo method, and a binaural method. Thereby, the calculation cost at the time of producing
  • WFS wavefront synthesis
  • the detection unit 112 the display unit 114, the speaker array 116, and the like are illustrated as separate housings, but the present invention is not limited thereto, and the same housing may be used.
  • the spatial sound generation device 100 may perform processing in response to a request from a client terminal such as the external device 200 and return the processing result to the client terminal.
  • all or part of the processes described as being automatically performed can be performed manually, or the processes described as being performed manually can be performed. All or a part can be automatically performed by a known method.
  • each illustrated component is functionally conceptual and does not necessarily need to be physically configured as illustrated.
  • each device of the spatial acoustic generation device 100 is all or any part of a processor such as a CPU (Central Processing Unit) and the processor. It may be realized by a program that is interpreted and executed by, or may be realized as a hardware processor by wired logic.
  • the program is recorded on a non-transitory computer-readable recording medium including programmed instructions for causing the computer to execute the method according to the present invention, which will be described later, and generates spatial sound as necessary. It is mechanically read by the device 100 or the external device 200.
  • the storage unit 106 such as a ROM or an HDD (Hard Disk Drive)
  • a computer program for giving instructions to the CPU in cooperation with an OS (Operating System) and performing various processes is recorded.
  • This computer program is executed by being loaded into the RAM, and constitutes a control unit in cooperation with the CPU.
  • the computer program may be stored in an application program server connected to the spatial sound generation device 100 or the external device 200 via an arbitrary network 300, and all or part of the computer program is stored as necessary. It can also be downloaded.
  • the program according to the present invention may be stored in a computer-readable recording medium, or may be configured as a program product.
  • the “recording medium” includes a memory card, USB memory, SD card, flexible disk, magneto-optical disk, ROM, EPROM, EEPROM, CD-ROM, MO, DVD, and Blu-ray (registered trademark). It includes any “portable physical medium” such as Disc.
  • program is a data processing method described in an arbitrary language or description method, and may be in any form such as source code or binary code.
  • program is not necessarily limited to a single configuration, and functions are achieved in cooperation with a separate configuration such as a plurality of modules and libraries or a separate program represented by the OS. Including things. Note that a well-known configuration and procedure can be used for a specific configuration for reading a recording medium, a reading procedure, an installation procedure after reading, and the like in each device described in the embodiment.
  • the present invention may be configured as a program product in which a program is recorded on a computer-readable recording medium that is not temporary.
  • Various databases and the like (function file 106a, content file 106b, etc.) stored in the storage unit 106 are storage means such as a memory device such as a RAM and a ROM, a fixed disk device such as a hard disk, a flexible disk, and an optical disk.
  • Various programs, tables, databases, web page files, and the like used for various processes and website provision are stored.
  • the spatial acoustic generation device 100, the external device 200, the detection unit 112, the display unit 114, and the speaker array 116 may be configured as an information processing device such as a known personal computer or workstation. Arbitrary peripheral devices may be connected to.
  • the spatial acoustic generation device 100, the external device 200, the detection unit 112, the display unit 114, and the like are realized by installing software (including programs, data, and the like) that causes the information processing apparatus to implement the method of the present invention. May be.
  • the specific form of distribution and / or integration of the devices is not limited to that shown in the figure, and all or a part of them may be functional in arbitrary units according to various additions or according to functional loads. Alternatively, it can be physically distributed and / or integrated. That is, the above-described embodiments may be arbitrarily combined and may be selectively implemented. Hereinafter, the aspect which concerns on this invention is illustrated.
  • a first aspect according to the present invention is a spatial sound generation device including a storage unit and a control unit connected to a plurality of speakers.
  • the control unit applies an inverse system based on the information indicating the sounding body to be moved while changing the transmission characteristics for each time according to the movement of the sounding body, and from each sound source signal indicating the sound emitted by the sounding body, A plurality of input signals are calculated.
  • the inverse system outputs an input signal according to transfer characteristics in a space where a plurality of speakers are arranged so that the speaker forms a three-dimensional acoustic wavefront based on the input signal in boundary sound field control.
  • the storage unit transmits time-varying information from a position coordinate of the sounding body to a boundary of a region to be observed for sound pressure in a virtual three-dimensional space.
  • a reproduction signal output function defined by a transfer function indicating characteristics and an inverse system is stored.
  • the information indicating the moving sounding body includes a sound source signal of the sounding body in a virtual three-dimensional space and a time function of position coordinates.
  • the control unit inputs the sound source signal of the sounding body and the time function of the position coordinates to the reproduction signal output function to derive an input signal.
  • the information indicating the moving sounding body includes a time function of the position coordinates of the sounding body in a virtual three-dimensional space and a sound source signal of the sounding body.
  • the control unit calculates a transfer function indicating a time-varying transfer characteristic from the position coordinate of the sounding body to the boundary of the region where the sound pressure is to be observed. Based on the above, the input signal is calculated from the sound source signal.
  • the control unit calculates the time function of the position coordinate as a relative positional relationship between the user and the sounding body in the virtual three-dimensional space. Calculate based on
  • the spatial acoustic generation device further includes a display unit.
  • the control unit controls to display a sounding body in a virtual three-dimensional space on the display unit.
  • the spatial acoustic generator further includes a body sonic transducer.
  • the control unit controls the body sonic transducer to vibrate the user according to the content information.
  • the control unit reproduces the Doppler shift according to the speed of the user and / or the sounding body in the virtual three-dimensional space.
  • the reproduced acoustic wavefront signal is calculated.
  • the eighth aspect is further connected to a detection unit that detects information related to movement of the sounding body.
  • the control unit calculates at least one of the sound source signal of the sounding body and the time function of the position coordinates based on the detection result of the detection unit.
  • the detection unit detects an operation of at least one body part of the user.
  • the control unit calculates a sound source signal of the sounding body and a time function of the position coordinates according to the motion of the body part detected by the detection unit.
  • the control unit includes display control means for performing display control of the content information in accordance with the action of the body part detected by the detection unit.
  • the display control means may control a display unit of a component of the spatial sound generation device, or may control a display unit having an external configuration connected to the spatial sound generation device.
  • the control unit calculates the time function of the sound source signal and the position coordinate of the corresponding sounding body according to the change of the content information according to the motion of the body part.
  • the detection unit detects the movement of the user's finger.
  • the display control means performs display control accompanied by movement of the content information instructed by the finger movement detected by the detection unit.
  • the display control means controls a head-mounted display that is an example of a display unit, and the three-dimensional content information is obtained in a virtual three-dimensional space. Perform display control.
  • control unit includes a reproduction method conversion unit that converts a reproduction method in a signal indicating the formed acoustic wavefront.
  • control unit performs fraction processing on the sound source signal in accordance with the movement of the sounding body, and inputs the sound source signal as a result of the fraction processing. Calculate the signal.
  • the fifteenth aspect is a spatial sound generation system including a plurality of speakers, a storage unit, and a control unit.
  • the control unit applies an inverse system based on the information indicating the sounding body to be moved while changing the transmission characteristics for each time according to the movement of the sounding body, and from each sound source signal indicating the sound emitted by the sounding body, A plurality of input signals are calculated.
  • the inverse system outputs an input signal according to transfer characteristics in a space where a plurality of speakers are arranged so that the speaker forms a three-dimensional acoustic wavefront based on the input signal in boundary sound field control.
  • the sixteenth aspect is a spatial sound generation method executed in a computer including a storage unit and a control unit connected to a plurality of speakers.
  • the control unit applies a reverse system while changing a transmission characteristic for each time according to the movement of the sounding body based on the information indicating the moving sounding body, and the sound source signal indicating the sound emitted by the sounding body And calculating a plurality of input signals to each speaker.
  • the inverse system outputs an input signal according to transfer characteristics in a space where a plurality of speakers are arranged so that the speaker forms a three-dimensional acoustic wavefront based on the input signal in boundary sound field control.
  • the method includes a step of a control unit controlling each speaker based on an input signal.
  • the seventeenth aspect is a spatial sound generation program that is executed by a computer including a storage unit and a control unit, connected to a plurality of speakers.
  • This program applies a reverse system to the control unit based on information indicating the sounding body to be moved, changing the transmission characteristics for each time according to the movement of the sounding body, and a sound source signal indicating the sound emitted by the sounding body.
  • the step of calculating a plurality of input signals to each speaker is executed.
  • the inverse system outputs an input signal according to transfer characteristics in a space where a plurality of speakers are arranged so that the speaker forms a three-dimensional acoustic wavefront based on the input signal in boundary sound field control.
  • the program causes the control unit to execute a step of controlling each speaker based on the input signal.
  • a spatial acoustic generation device a spatial acoustic generation system, a spatial acoustic generation method, a spatial acoustic generation program, and a recording medium that can generate a field can be provided.
  • a creator who is not familiar with computer engineering can change the arrangement of each sound source while operating the content easily with a pointing etc. in an environment with good sound image localization accuracy. It is useful in various industrial fields such as the content industry.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Otolaryngology (AREA)
  • General Health & Medical Sciences (AREA)
  • Stereophonic System (AREA)
  • Circuit For Audible Band Transducer (AREA)

Abstract

複数のスピーカ(116)に接続された、記憶部(106)と制御部(102)とを備えた空間音響生成装置(100)が提供される。空間音響生成装置において、制御部は、移動する発音体を示す情報に基づき、発音体の移動に応じて時間毎の伝達特性を変化させながら逆システムを適用して、発音体が発する音を示す音源信号から、各スピーカへの複数の入力信号を算出する。逆システムは、境界音場制御において入力信号に基づきスピーカに三次元的な音響波面を形成させるように、複数のスピーカが配置された空間中の伝達特性に応じて入力信号を出力する。

Description

空間音響生成装置、空間音響生成システム、空間音響生成方法、および、空間音響生成プログラム
 本発明は、空間音響生成装置、空間音響生成システム、空間音響生成方法、および、空間音響生成プログラムに関する。
 従来、音響の再生方法としては、サラウンド再生方式が知られている。サラウンド再生方式は、2.0chのステレオ音響再生よりも多くのチャンネルを有しており、ステレオ音響よりも臨場感の高い音響を再生することを目的としている。しかしながら、従来のサラウンド再生方式は、音像定位精度が低いため、クリエータ等が求めるような高い品質の音響再生を実現することは難しかった。
 そこで、より高い臨場感のある音場を生成するため、境界音場制御(Boundary Surface Control:BoSC)の原理に基づいた音場再現方法が提案されている(特許文献1参照)。境界音場制御(BoSC)は、境界から離れた点に音源を設置し、逆システムを用いて生成された信号を音源から出力させる方法を原理としている。それにより、領域を囲む境界上の音圧と音圧勾配を制御することにより、三次元音場内の任意の領域の音圧を制御することができ、没入感のある音響システムを構築することができる。これにより、聴覚刺激としての臨場感や没入感を得ることができるものの、BoSC音響システムそれ自体は、利用者の身体と相互作用するインタラクティブな対話型音響システムではなかった。
 ここで、非特許文献1に記載のバーチャル卓球システムでは、フラーレン構造のマイクロホンアレイで予めサウンドボールの転がり音等を収録して、再生音場のスピーカから制御点までの伝達関数を打ち消す逆フィルタで畳み込んだ状態でデータベースに記憶させておき、マイクロソフト社製Kinectを介して打球動作の身体動作を検出したタイミングで、打球音や転がり音を三次元音場にて再現することが記載されている。
 また、非特許文献2では、マイクロソフト社製Kinectを介して身体動きを検知し、動きのパターンから身体動作に合った音を推定しパラメータを変化させていくシステムについて記載されている。
特開2008-118559号公報
小笠原圭祐、他,「身体運動と相互作用する三次元音場再生システムの構築―システムの基本構成―」,日本音響学会講演論文集,2013年9月,p.715~716 北洞穂高、他,「身体動作認識に基づくインタラクティブサウンド生成システム」,Human-Agent Interaction Symposium 2013,p.51~54 豊田将志(東北大学)、他,「3次元音空間内におけるドップラー効果のリアルタイムレンダリングに関する考察」,日本バーチャルリアリティ学会大会論文集(CD-ROM)9巻2C3-3、2004年9月8日
 しかしながら、従来の音響再生システムは、フラーレン構造のマイクロホンアレイ等により予め収録された音響波面を再現するものであり、ゲーム空間のように仮想三次元空間上でコンテンツ等が任意に移動しうる場合等において、臨場感のある三次元的な音響波面を生成することができないという問題点を有していた。
 本発明は、臨場感のある三次元的な音響波面を伴う音場を生成することができる、空間音響生成装置、空間音響生成システム、空間音響生成方法、および、空間音響生成プログラムを提供するものである。
 このような目的を達成するため、本発明の空間音響生成装置は、複数のスピーカに接続された、記憶部と制御部とを備えた空間音響生成装置であって、前記制御部は、移動する発音体を示す情報に基づき、前記発音体の移動に応じて時間毎の伝達特性を変化させながら逆システムを適用して、前記発音体が発する音を示す音源信号から、前記各スピーカへの複数の入力信号を算出し、前記逆システムは、境界音場制御において前記入力信号に基づき前記スピーカに三次元的な音響波面を形成させるように、前記複数のスピーカが配置された空間中の伝達特性に応じて前記入力信号を出力すること、を特徴とする。
 また、本発明は、空間音響生成システムに関するものである。本発明の空間音響配置システムは、複数のスピーカと、記憶部と、制御部とを備えた空間音響生成システムであって、前記制御部は、移動する発音体を示す情報に基づき、前記発音体の移動に応じて時間毎の伝達特性を変化させながら逆システムを適用して、前記発音体が発する音を示す音源信号から、前記各スピーカへの複数の入力信号を算出し、前記逆システムは、境界音場制御において前記入力信号に基づき前記スピーカに三次元的な音響波面を形成させるように、前記複数のスピーカが配置された空間中の伝達特性に応じて前記入力信号を出力すること、を特徴とする。
 また、本発明は、空間音響生成方法に関するものである。本発明の空間音響配置方法は、複数のスピーカに接続された、記憶部と制御部とを備えたコンピュータにおいて実行される空間音響生成方法であって、前記制御部が、移動する発音体を示す情報に基づき、前記発音体の移動に応じて時間毎の伝達特性を変化させながら逆システムを適用して、前記発音体が発する音を示す音源信号から、前記各スピーカへの複数の入力信号を算出するステップであって、前記逆システムは、境界音場制御において前記入力信号に基づき前記スピーカに三次元的な音響波面を形成させるように、前記複数のスピーカが配置された空間中の伝達特性に応じて前記入力信号を出力する、ステップと、前記入力信号に基づき各スピーカを制御するステップと、を実行することを特徴とする。
 また、本発明は、空間音響配置プログラムに関するものである。本発明の空間音響配置プログラムは、複数のスピーカに接続された、記憶部と制御部とを備えたコンピュータに実行させるための空間音響生成プログラムであって、前記制御部に、移動する発音体を示す情報に基づき、前記発音体の移動に応じて時間毎の伝達特性を変化させながら逆システムを適用して、前記発音体が発する音を示す音源信号から、前記各スピーカへの複数の入力信号を算出するステップであって、前記逆システムは、境界音場制御において前記入力信号に基づき前記スピーカに三次元的な音響波面を形成させるように、前記複数のスピーカが配置された空間中の伝達特性に応じて前記入力信号を出力する、ステップと、前記入力信号に基づき各スピーカを制御するステップと、を実行させることを特徴とする。
 本発明によれば、臨場感のある三次元的な音響波面を伴う音場を生成することができる、という効果を奏する。
図1は、本発明の実施形態にかかる空間音響生成システムの構成を示す構成図である。 図2は、本実施の形態におけるBoSC再生方式のスピーカアレイの一例を示す図である。 図3は、境界音場制御(BoSC)の原理に基づいた、移動する発音体による3D波面生成システムの構成例を示す図である。 図4は、移動する発音体と領域Vの関係を模式的に示す図である。 図5は、本実施の形態の空間音響生成システムにおける基本処理の一例を示すフローチャートである。 図6は、本実施の形態の空間音響生成システムにおける具体化処理の一例を示すフローチャートである。 図7は、図3に関連して、境界音場制御(BoSC)の原理に基づく空間音響生成アルゴリズムを模式的に示した図である。 図8は、三次元音場を移動する発音体と波面観測対象領域Vの関係を示す図である。 図9は、空間音響生成装置100の具体的装置構成における処理内容や記憶内容を示すワークフロー図である。 図10は、MIMO逆システムを用いてスピーカアレイ116の各スピーカへの入力信号を求めることを模式的に示した図である。 図11は、空間音響生成装置100の具体的装置構成における処理内容や記憶内容を示すワークフロー図である。 図12は、空間音響生成システムにおけるスピーカアレイの変形例を示す図である。
 以下に、本発明の実施の形態にかかる空間音響生成装置、空間音響生成システム、空間音響生成方法、および、空間音響生成プログラム、並びに、記録媒体について、図面に基づいて詳細に説明する。なお、この実施の形態によりこの発明が限定されるものではない。
 まず、以下、本発明にかかる本実施の形態の構成について説明し、その後、本実施の形態の処理等について詳細に説明する。ここで、図1は、本発明の実施形態にかかる空間音響生成システムの構成を示す構成図であり、該構成のうち本実施の形態に関係する部分を主に概念的に示している。
 図1に示すように、本実施の形態において、空間音響生成システムは、空間音響生成装置100と、検出部112と、表示部114と、スピーカアレイ116とを備えて構成される。なお、図1に示すように、空間音響生成装置100は、ネットワーク300を介して外部機器200と接続されてもよい。ここで、空間音響生成装置100は、パーソナルコンピュータや、サーバ用コンピュータ、タブレット型コンピュータなどである。ネットワーク300は、空間音響生成装置100と外部機器200とを相互に接続する機能を有し、例えば、LANやインターネット等である。
 ここで、図1において、検出部112は、利用者の少なくとも一つの身体部位の動作を認識する動作認識手段である。例えば、検出部112は、カメラや赤外線センサ等の任意の検出手段によって、人物の動きを認識してもよい。一例として、検出部112は、公知のジェスチャー認識技術や、公知のモーションセンサ等を用いて利用者の動きを検出してもよい。ジェスチャーは、物理空間における利用者の位置および動きから得ることができ、手指や腕や脚の動き、または静止姿勢というような、動的または静的な、任意の利用者の動きを含むことができる。
 本実施の形態の一例として、検出部112において、カメラのようなキャプチャー・デバイスが、ユーザー画像データを取り込み、このユーザー画像データから、利用者のジェスチャー(1つまたは複数)を認識してもよい。より具体的には、検出部112は、コンピュータ環境を使用して、利用者の三次元物理空間において利用者によって行われたジェスチャーを認識および分析し、解釈した利用者の動作データや属性データ等または解析前ローデータを、空間音響生成装置100に送信してもよい。一例として、検出部112は、ある方向を指さす動き、ある方向に手を押し出す動き、ある方向に脚を蹴り上げる動き、あたかもボールを投げる動き、ヘディングする動き、両手で何かを捕まえる動き、指揮棒を振る動き等の動きを認識してもよい。
 公知のモーション認識手段の一例として、マイクロソフト社製Xbox One用モーションセンサのKinectセンサを用いてもよい。Kinect技術によれば、全身骨格のスケルトン動作データや属性データを得ることができる。なお、公知のモーションセンサでは、センサ内蔵の制御手段を用いて人物の動きや属性が解析されるか、あるいは、接続されたコンピュータの制御手段にて人物の動きや属性が解析されるが、本実施の形態はいずれであってもよい。例えば、本実施の形態は、これら解析機能を、検出部112の制御手段(プロセッサ等)により実現してもよく、空間音響生成装置100の制御手段(後述する音源算出部102b等)により実現してもよく、あるいは両者の制御手段により解析機能を実現してもよい。
 このほか、検出部112は、タッチパッドやタッチパネルやマイクロホンアレイ等の検出手段を更に備えてもよい。また、検出部112は、直接、人の身体を検出することに限られず、Facebook社製Oculus RiftのOculus Touchコントローラのように、利用者が装着したコントローラや標識(例えば二次元コードタグ)等の動きを検出することによって、間接的に、身体の動きを検出してもよいものである。
 また、図1において、表示部114は、コンテンツ情報を表示する表示手段である。一例として、表示部114は、頭部装着ディスプレイ(HMD)、液晶ディスプレイ、プロジェクタ等であってもよい。なお、表示部114は、二次元表示を行うものであってもよいし、三次元表示を行うものであってもよい。後述するように、受聴者はこの表示部114に表示される音源の位置に音像が定位されるように合成された音波を受聴する。
 また、図示しないが受聴者はシートに着座したり、加振版の上に立つようにしてもよい。このシートや加振板にボディソニックトランスデューサを接続し、制御部がコンテンツ情報に合わせて受聴者に振動を加えるようにトランスデューサを制御すれば、受聴者は迫力のあるコンテンツを楽しむことができる。
 また、図1において、スピーカアレイ116は、複数のスピーカが三次元配置された音声出力手段である。本実施の形態において、スピーカアレイ116は、音場制御(BoSC)再生方式のスピーカアレイである。ここで、図2は、本実施の形態におけるBoSC再生方式のスピーカアレイの一例を示す図である。
 図2は、樽状の音場再生室を形成する音響樽型のスピーカアレイ116を例示している。また、図2に示すように、本実施の形態のスピーカアレイ116は、楕円形のドーム部220および柱部222を含む。この楕円形のドーム部220は、たとえば木製の架台220a、220b、220c、220dによって構成される。ただし、図2は、ドーム部220の内部をその斜め下方から見た図であり、架台220dおよび柱部222についてはその一部のみを示している。図示しないが、ドーム部220および柱部222の内部は空洞であり、架台220a-220d自体が密室型エンクロージャの役割を果たす。
 また、本実施形態のスピーカアレイ116の各々には、一例として96個のラウドスピーカ230が設置される。ここで、ラウドスピーカ230として、フルレンジユニット(Fostex FE83E)のスピーカや、低域を補うためのサブウーファーユニット(Fostex FW108N)のスピーカが設置されてもよい。このようなスピーカアレイ116は、音場再生室内に設置されてもよく、例えば、1.5帖の防音室である、YAMAHAウッディボックス(遮音性能Dr-30)を用いてもよい。また、音場再生室内には、リフト付きの椅子(図示せず)や上述のKINECT等の検出部112や表示部114が設けられてもよい。
 なお、BoSC再生方式のスピーカアレイ114や、そのためのコンピュータシステム等を含む音場再現システムについては、「1.数値解析技術と可視化・可聴化 1.7三次元音場通信システム」 榎本成悟 音響技術 No.148/Dec.2009 pp37-42や特開2012-85035号公報等の公知の文献を参照してもよい。
 つづいて、本実施の形態の空間音響生成装置100の構成について説明する。図1に示すように、空間音響生成装置100は、概略的に、空間音響生成装置100の全体を統括的に制御するCPU等の制御部102、通信回線等に接続されるルータ等の通信装置(図示せず)に接続される通信制御インターフェース部104、タッチパネル等の検出部112や表示部114やスピーカアレイ116等に接続される入出力制御インターフェース部108、および、各種のデータベースやテーブルなどを格納する記憶部106を備えて構成されており、これら各部は任意の通信路を介して通信可能に接続されている。
 記憶部106は、各種のデータベースやテーブル(例えば、関数ファイル106aやコンテンツファイル106b等)を格納する。記憶部106は、SRAM(Static Random Access Memory)等を用いて構成される小容量高速メモリ(例えば、キャッシュメモリ)等や、HDD(Hard Disk Drive)やSSD(Solid State Drive)等の固定ディスク装置等のストレージ手段であり、各種処理に用いる各種のプログラムやテーブルやファイルやデータベースやウェブページ等を格納する。
 関数ファイル106aは、信号処理を行うための関数を記憶する関数記憶手段である。例えば、本実施形態において、関数ファイル106aは、利用者の頭部を含む領域の境界面上の音圧信号からスピーカアレイ116の各スピーカへの入力信号を出力する逆システム、および、仮想的な三次元空間における発音体の位置座標から境界面上の音圧信号の位置座標までの伝達関数に基づく、再生用信号出力関数を記憶する。ここで、図3を参照して、本実施形態の再生用信号出力関数を説明する。図3は、境界音場制御(BoSC)の原理に基づいた、移動する発音体による3D波面生成システムの構成例を示す図である。以下では、本システムについて境界要素法の適用例を説明する。
1.発音体の物理条件
1.1 N個の点音源
 まず、発音体において、i番目の点音源の大きさをq(ω)、時間tにおける位置をr´(t)とする。
1.2 形状を有する発音体
 ここで、移動する発音体の形状の境界面をSとする。境界面Sは、振動面が既知の面S´と、音響アドミタンスが既知の壁面S´´から構成される。境界面Sを、M個の微小要素に分割したとき、1・・・M´番目の要素が面S´に含まれ、M´+1・・・M番目の要素が面S´´に含まれるものとする。
1.2.1 振動面
 i番目の要素の振動速度をu(ω)(i=1・・・M´)、時間tにおける位置をr(t)(∈S´)とする。
1.2.2 非振動面
 壁面のi番目の要素の音響アドミタンスをz(ω)(i=M´+1・・・M)、時間tにおける位置をr(t)(∈S´)とする。
1.3 発音体を駆動する音源信号S(ω)
 点音源の大きさq(ω)および音源の振動速度u(ω)は、音源信号S(ω)に比例し、比例定数a(ω),b(ω)を用いて、q(ω)=a(ω)S(ω),u(ω)=b(ω)S(ω)と表される。
 以上が、発音体の物理条件である。つづいて、上記物理条件の発音体による波面を観測する対象領域(すなわち受聴者の頭部を含む領域に対応)Vを取り囲む境界面S上の音圧信号について説明する。
2.波面観測対象領域Vを取り囲む境界面S上の音圧信号
 境界面SをN点の要素に離散化し、j番目の要素の位置r^(表記上“^”を手前の文字に続けて記載しているが正式には手前の文字の上に記載される(以下も同じ))、時間tにおける音圧信号をp(r^,t)とする。
3.システムc(r^,t,τ)
 このような場合、移動する発音体(r´(t)に位置する点音源、各要素がr(t)に位置する形状を有する発音体の合成)を駆動する音源信号s(t)を入力として、受音点における音圧信号p(r^,t)を出力とするシステムc(r^,t,τ)は、以下のように表せる。
Figure JPOXMLDOC01-appb-M000001
 ここで、c(r^,t,τ)は、時変の伝達特性を表しており、発音体が移動することにより伝達関数が時間tに応じて変化する時変システムである。このため、式(1)のフーリエ変換による周波数軸上での以下の演算式は成り立たない(c(r^,t,τ)の算出方法は7.にて後述する)。
Figure JPOXMLDOC01-appb-M000002
4.逆システム
 ここで、波面観測対象領域V(閉領域)を取り囲む境界面S(閉曲面)上のN点で計測した音圧信号p(r^,t)から、音場再生用スピーカアレイ116のスピーカへの入力信号を出力する逆システムについて考える。本実施形態において、逆システムとは、M×N個の逆フィルタ群の総称である。なお、逆フィルタの設計方法として、公知の文献(S.Enomoto et al., “Three-dimensional sound field reproduction and recording systems based on boundary surface control principle”, Proc. of 14th ICAD, Presentation o 16, 2008 Jun.)を参照することができる。
 まず、スピーカアレイ116が設置された音場再生室内にM個のスピーカを設置し、波面再生対象領域V´(閉領域)を取り囲む境界面S´(閉曲面)上のN個にマイクロホンを設置する。そして、i番目のスピーカ(i=1・・・M)からj番目のマイクロホン(j=1・・・N)へのインパルス応答hij(t)(i=1・・・M,j=1・・・N)を計測し、フーリエ変換する。ここで、Hij(ω)は、音源iからマイクロホンの位置点jまでの伝達関数であり、以下の式で表せる。
Figure JPOXMLDOC01-appb-M000003
 さらに、Hij(ω)は、各々の角速度ω毎に、以下のマトリクスで表せる。
Figure JPOXMLDOC01-appb-M000004
 そして、逆システムH^ji(ω)を求めるため、[H^ji(ω)][Hij(ω)]=I(ただし、IはN次元単位行列)となるような[Hij(ω)]の擬似逆行列[H^ji(ω)]を求める。ここで、擬似逆行列[H^ji(ω)]は、以下のように表せる。
Figure JPOXMLDOC01-appb-M000005
 そして、スピーカアレイ116のi番目のスピーカ(i=1・・・M)から出力する再生用信号Y(ω)は、原音場における境界面S上の音圧信号P(r^,t)と逆システムH^ji(ω)を乗算して、jに関する総和を求める以下の数式で算出される。
Figure JPOXMLDOC01-appb-M000006
 上の式をフーリエ変換すれば以下の式で表せる。
Figure JPOXMLDOC01-appb-M000007
 ただし、h^ji(t)は、以下となる。
Figure JPOXMLDOC01-appb-M000008
 以上のような逆システムH^ji(ω)(或いは等価的にh^ji(t))のアルゴリズムによると、スピーカアレイ116が設置された空間中の伝達関数Hij(ω)の影響を打ち消すように、再生用信号Y(ω)(或いはy(t))を出力することができる。
5.再生用信号出力関数f(t,τ)
 ここで、式(2)に式(1)を代入すると、再生用信号y(t)は以下のように表せる。
Figure JPOXMLDOC01-appb-M000009
 したがって、f(t,τ)を以下とおくと、再生用信号y(t)の出力関数が定められる。
Figure JPOXMLDOC01-appb-M000010
 上記の再生用信号y(t)についての再生用信号出力関数は、音源信号s(t)を入力として受音点における再生用信号y(t)を出力とするシステムf(t,τ)である。これにより、移動する発音体から利用者の頭部を含む領域の境界面上の音圧信号への時変の伝達特性を考慮して逆システムを用いて、移動する発音体の音源信号から、スピーカへの入力信号を求めることができる。例えば、上式(41)の位置座標r^を時間tの関数として設定可能に関数化することにより、上式(42)等に対応する再生用信号出力関数が構成されてもよい。
6.ドップラー効果の考慮
 発音体が高速で移動する場合、ドップラー効果による周波数シフトが生じる。ここで、図4は、移動する発音体と領域Vの関係を模式的に示す図である。図4に示すように、発音体の大きさと波面観測対象領域の大きさが発音体の中心座標と波面観測対象領域の中心座標の距離に比較して十分小さい場合、発音体の速度v、発音体の移動方向と波面進行方向のなす角度θ、音速vとすると、波面観測対象領域で計測する音圧信号は以下となる。
Figure JPOXMLDOC01-appb-M000011
 この場合、上述の再生用信号出力関数(式(42))は、ドップラー効果を考慮した以下の式にて表せる。
Figure JPOXMLDOC01-appb-M000012
7.伝達関数c(r^,t,τ)の算出方法
7.1 時間を固定した場合の伝達関数の定式化
 上述の〈1.発音体の物理モデル〉にて記載した物理パラメータを用いて、キルヒホッフ-ヘルムホルツ積分方程式を記述する。ある時間tにおける発音体の位置ベクトルを固定した場合、すなわちr´(t)=r´,r(t)=rとすると、点音源の大きさは以下の式で表せる。
Figure JPOXMLDOC01-appb-M000013
 ここで、さらに離散化することにより次式が得られる。
Figure JPOXMLDOC01-appb-M000014
 s=r(j=1・・・M)として、上記の式(5)を連立させると、α(s)=1/2(s∈S´,S´´)であるため、以下の式が得られる。

Figure JPOXMLDOC01-appb-M000015
 P(r,ω)の項を左辺へ移項し、マトリクスで表すと以下のようになる。
Figure JPOXMLDOC01-appb-M000016
ただし、
Figure JPOXMLDOC01-appb-M000017
 したがって、境界面S´およびS´´上の音圧は、次式で求めることができる。
Figure JPOXMLDOC01-appb-M000018
 発音体の外部領域にある受音点r^(α(s)=1)における音圧信号は、以下のように式(5)に式(6)を代入することにより得られる。
Figure JPOXMLDOC01-appb-M000019
 上記の式を解くことにより、発音体の外部領域にある受音点r^(α(s)=1)における音圧信号が得られる。また、q(ω)=aS(ω),u(ω)=bS(ω)であるため、音源信号S(ω)を入力として受音点における音圧P(r^,ω)を出力とするシステムC(r^,ω)は、以下のとおりに得られる。
Figure JPOXMLDOC01-appb-M000020
7.2 時間を考慮した場合の伝達関数の定式化
 つづいて、時間固定を解除するため、発音体の位置ベクトルをr´=r´(t),r=r(t)として、移動する発音体の時間tにおける伝達関数c(r^,t,τ)を求める。すなわち、上記の式(7)の中で用いられる、│r´-r│,│r-r│,│r´-r^│などのベクトル間の距離計算を│r´(t)-r│,│r(t)-r(t)│,│r´(t)-r^│に置き換えたc(r^,ω)をc(r^,t,ω)とする。さらに、求めたc(r^,t,ω)を逆フーリエ変換すれば、時間を考慮したシステムの伝達関数c(r^,t,τ)が以下の式で得られる。
Figure JPOXMLDOC01-appb-M000021
 以上が、関数ファイル106aに記憶される本実施形態の再生用信号出力関数の一例である。なお、上記の再生用信号出力関数に限られず、境界音場制御(BoSC)の原理に基づいて、公知の近似的手法等により再生用信号出力関数を求めて用いてもよい。例えば、上記の説明では再生用信号出力関数を求めるために境界要素法を用いる例を説明したが、境界要素法の代わりに有限要素法や差分法などの各種の数値計算手法が用いられてもよい。
 再び図1に戻り、コンテンツファイル106bは、コンテンツ情報を記憶するコンテンツ情報記憶手段である。例えば、コンテンツファイル106bは、仮想空間上に配置可能な種々のデータ(画像データや音源データ等)を記憶してもよい。一例として、コンテンツファイル106bは、ゲーム空間などの三次元仮想空間を構成する種々の要素データ(ポリゴンデータや属性データ等)を記憶してもよい。このような要素データのうちいくつかは、上述した発音体として、音源信号等のデータに関連づけられている。コンテンツデータは、発音体の物理条件(即ち境界条件)を示す情報の一例である。
 一例として、コンテンツファイル106bは、仮想的にオーケストラの奏者配置が可能な三次元仮想空間を規定するコンテンツ情報を記憶してもよい。なお、コンテンツファイル106bは、ネットワーク300を介して、サーバ等の外部機器200からコンテンツ情報を一時的に又は恒久的に取得して記憶してもよいものである。
 また、図1において、入出力制御インターフェース部108は、キーボード等の検出部112や出力部114の制御を行うインターフェース部の一例である。入出力制御インターフェース部108は、一つ又は複数のインターフェース回路を含む。表示手段としての出力部114としては、モニタ(家庭用テレビやタッチスクリーンモニタ等を含む)等を用いることができる。また、検出部112としては、GPSセンサやIMESセンサなどの位置情報取得手段や、タッチパネル、音声マイク、キーボード、カメラ、加速度センサなどの各種センサ等を用いることができる。一例として、検出部112および出力部114は、液晶パネル等の出力部114と、タッチ位置入力装置等の検出部112とを組み合わせたタッチパネル等の入出力手段であってもよい。
 また、図1において、制御部102は、OS(Operating System)等の制御プログラム、各種の処理手順等を規定したプログラム、および所要データを格納するための内部メモリを有する。制御部102は、内部メモリに格納されたプログラム等により、種々の処理を実行するための情報処理を行うCPU等のプロセッサである。制御部102は、機能概念的に、表示制御部102a、音源算出部102b、波面出力制御部102c、および、再生方式変換部102dを備えて構成されている。
 表示制御部102aは、コンテンツ情報の表示制御を行う表示制御手段である。例えば、表示制御部102aは、検出部112により検出される身体部位の動作に応じてコンテンツ情報の表示制御を行ってもよい。一例として、表示制御部102aは、検出部112により検出される利用者の手指等の動作で指示されたコンテンツ情報の移動を伴う表示制御を行ってもよい。例えば、表示制御部102aは、コンテンツファイル106bから読み出された仮想三次元空間の各要素をHMD等の表示部114に表示し、検出部112を介して利用者に手指で要素を指し示すよう制御して、指示された要素を移動対象として利用者の手の動きに合わせて移動させてもよい。
 上記の例に限られず、表示制御部102aは、ゲーム要素を含むゲーム空間を表示させて、利用者の仮想上のボール等を投げる動きや、キックやヘディングをする動き、両手で捉える動きに応じて、ボール等の要素を表示上、移動させてもよい。なお、表示制御部102aは、要素の移動のみならず、要素の発生や消滅などを利用者の動作に応じて引き起こしてもよいものである。なお、このような検出部112を介した表示制御部102aによる制御方法として、マイクロソフト社製Xbox等の公知の非接触ゲーム制御方法を用いてもよい。なお、仮想空間上において利用者とコンテンツとは相対的な位置関係にあることから、表示制御部102aが、検出部112により検出される動作に応じてコンテンツ情報の表示制御を行うことには、仮想空間上において、利用者が動作に応じて自らの位置を変更する場合も含まれる。
 また、音源算出部102bは、移動する発音体から利用者の頭部を含む領域の境界面上の音圧信号への時変の伝達特性を考慮した逆システムを用いて、移動する発音体の音源信号から、スピーカへの入力信号を算出する音源算出手段である。例えば、音源算出部102bは、関数ファイル106aに記憶された関数に基づいて、音源信号から入力信号を算出してもよい。
 一例として、音源算出部102bは、利用者の身体部位の動作に応じたコンテンツ情報の変化に従って、対応する発音体の音源信号および位置座標の時間関数を算出してもよい。すなわち、音源算出部102bは、表示制御部102aによるコンテンツ情報の変化に応じて、移動等の変化の対象となったコンテンツ要素に関連付けられた音源信号s(t)をコンテンツファイル106b等から読み出し、検出部112を介した利用者の身体部位の動作に応じたコンテンツ情報の変化に伴う位置座標の時間関数r(t),r´(t)から信号処理を行う。例えば、本実施形態において、音源算出部102bは、音源信号s(t)およびr(t),r´(t)を、関数ファイル106aに記憶された上述の式(41),(42)に代入する。
 また、音源算出部102bは、仮想的な三次元空間における利用者および/または発音体の速度に応じてドップラーシフトを再現する再生音響波面信号を演算してもよい。具体的には、音源算出部102bは、一例として、関数ファイル106aに記憶された上述の式(43)~(45)等に代入することによりドップラーシフトを考慮した再生音響波面信号を求めることができる。なお、音源算出部102bは、位置座標の時間関数r(t),を、r´(t)を、仮想的な三次元空間における利用者と発音体との相対的な位置関係に基づいて算出してもよい。これにより、例えば、発音体が速度vで受聴者の領域Vに向かって移動している場合のみならず、受聴者の領域Vが発音体に対して移動している場合も、ドップラー効果を発生させることができる。
 また、波面出力制御部102cは、音源算出部102bにより得られる入力信号を、スピーカアレイ116の各スピーカへ入力することにより、仮想的な三次元空間を移動する発音体による三次元的な音響波面を形成させる波面出力制御手段である。例えば、波面出力制御部102cは、音源算出部102bにより得られる、発音体の音源信号および位置座標の時間関数を、関数ファイル106aの再生用信号出力関数に入力して導出した入力信号を、スピーカアレイ116の各スピーカへ入力することにより、仮想的な三次元空間を移動する発音体による三次元的な音響波面を出力制御してもよい。より具体的には、波面出力制御部102cは、発音体の音源信号s(t)および位置座標の時間関数r(t),r´(t)を、再生用信号出力関数(上述の式(4)~(42)等)に入力して導出した入力信号y(t)を、スピーカアレイ116の各スピーカへ入力することにより、音場再生室内に3D音響波面を形成させる。これにより、音像定位精度を高めた音声出力を行うことができる。
 また、再生方式変換部102dは、再生音響波面信号による音響波面出力等を、他の公知の再生方式へ変換する再生方式変換手段である。例えば、再生方式変換部102dは、スピーカアレイ116による96chの再生音響波面信号の音響波面出力を、公知の再生方式変換手法を用いて、2chのステレオ再生方式や、5.1chの再生方式に変換することができる。これにより、クリエータ等の利用者が、音像定位精度のよい環境下で、制作した三次元的音源空間配置結果を、ステレオスピーカやサラウンドスピーカ群でも再生可能なようにデータ変換して配布することができる。例えば、再生方式変換部102dは、変換した音楽データ等を、ネットワーク300を介して、他の外部機器200へ送信してもよい。
 本実施形態において、空間音響生成装置100は、ルータ等の通信装置および専用線等の有線または無線の通信回線を介して、ネットワーク300に通信可能に接続されてもよい。なお、空間音響生成装置100は、コンテンツ情報を記憶するコンテンツデータベースや、空間音響生成プログラム等の外部プログラム等を提供する外部機器200と、ネットワーク300を介して通信可能に接続して構成されてもよい。
 また、図1において、通信制御インターフェース部104は、空間音響生成装置100とネットワーク300(またはルータ等の通信装置)との間における通信制御を行う装置である。すなわち、通信制御インターフェース部104は、他の端末または局と、通信回線(有線、無線を問わない)を介してデータを通信する機能を有する。本実施の形態において、通信制御インターフェース部104は、外部機器200等との通信制御を行う。すなわち、外部機器200は、ネットワーク300を介して、空間音響生成装置100、検出部112、表示部114と相互に接続され、各端末に対して外部データベースやプログラム等の外部プログラム等を実行するウェブサイトを提供する機能を有してもよい。
 ここで、外部機器200は、例えば、パーソナルコンピュータや、サーバ用のコンピュータなどのハードウェア要素と、オペレーティングシステム、アプリケーションプログラム、その他のデータなどのソフトウェア要素とで実現されてもよい。例えば、外部機器200は、WEBサーバやASPサーバ等として構成していてもよく、そのハードウェア構成は、一般に市販されるワークステーション、パーソナルコンピュータ等の情報処理装置およびその付属装置により構成していてもよい。また、外部機器200の各機能は、外部機器200のハードウェア構成中のCPU等のプロセッサ、ディスク装置、メモリ装置、入力装置、出力装置、通信制御装置等およびそれらを制御するプログラム等により実現される。
 以上で、本実施の形態の空間音響生成システムの各構成の説明を終える。
[基本処理]
 まず、本実施の形態における空間音響生成システムの基本処理の一例について、図5を参照して説明する。ここで、図5は、本実施の形態の空間音響生成システムにおける基本処理の一例を示すフローチャートである。
 図5に示すように、まず、本空間音響生成システムの空間音響生成装置100は、音源算出部102bの制御により、仮想三次元空間を移動しうる発音体の音源信号s(t)および位置座標の時間関数r(t),r´(t)を算出する(ステップSA-1)。ここで、発音体の移動は、予め定められたものであってもよいし、利用者からの入力に伴うものであってもよい。
 例えば、音源算出部102bは、コンテンツファイル106b等に記憶された移動軌跡データに基づいて位置座標と音源信号を算出してもよい。また、音源算出部102bは、利用者の入力によるゲームコンテンツ情報等の変化に応じて、移動対象のコンテンツに対応する音源信号s(t)と、コンテンツ情報の変化に伴う当該コンテンツ要素の位置座標の時間関数r(t),r´(t)を算出してもよい。
 そして、本空間音響生成システムの空間音響生成装置100は、音源算出部102bの制御により、音源信号s(t)および移動座標の時間関数r(t),r´(t)を、関数ファイル106aに記憶された再生用信号出力関数に代入する(ステップSA-2)。以上の処理(ステップSA-1~2)により、移動する発音体から利用者の頭部を含む領域の境界面上の音圧信号への時変の伝達特性を考慮した逆システムを用いて、移動する発音体の音源信号から、スピーカへの入力信号を算出することができる。
 すなわち、再生用信号出力関数は、利用者の頭部を含む領域V´の境界面S´上の音圧信号p(r^,t)からスピーカアレイ116の各スピーカへの入力信号Y(ω)(i=1・・・M)を出力する逆システムH^ji(ω)、および、仮想的な三次元空間における発音体の位置座標r(t)(j=1・・・N)から境界面S´上の音圧信号p(r^,t)の位置座標r^までの伝達関数c(r^,t,τ)に基づく、再生用信号出力関数「y(t)=Σf(t,τ´)s(t-τ)dτ(例:式(41),(42))」であるので、スピーカアレイ116の各スピーカへの入力信号Y(ω)を求めることができる。
 つづいて、以下の処理(ステップSA-3~4)では、上記のように算出した入力信号を、スピーカアレイの各スピーカへ入力することにより、三次元的な音響波面を形成させる。すなわち、本空間音響生成システムの空間音響生成装置100は、波面出力制御部102cの制御により、ステップSA-2にて得られた入力信号y(t)を、スピーカアレイ116の各スピーカ(1・・・M)へ信号入力する(ステップSA-3)。
 そして、本空間音響生成システムのスピーカアレイ116は、入力信号y(t)に従うスピーカ出力により、仮想的な三次元空間を移動する発音体による三次元的な音響波面を出力する(ステップSA-4)。
 以上が、空間音響生成システムの基本処理の一例である。これにより、仮想的な三次元空間において任意にコンテンツ等が移動しうる場合であっても、臨場感のある三次元的な音響波面を伴う音場を生成することができる。
[具体化処理]
 次に、本実施の形態における空間音響生成システムの具体化処理の一例について、図6および図7を参照して説明する。具体化処理では、利用者の身体において表示コンテンツを変化させ、その変化に応じて三次元音響波面を伴う音場を生成する処理を行う。ここで、図6は、本実施の形態の空間音響生成システムにおける具体化処理の一例を示すフローチャートである。図7は、図3に関連して、境界音場制御(BoSC)の原理に基づく空間音響生成アルゴリズムを模式的に示した図である。
 まず、図6および図7に示すように、本空間音響生成システムにおいて、身体運動センサー等の検出部112は、利用者の身体部位の動作を認識する(ステップSB-1)。例えば、検出部112は、利用者の身体運動から、ある方向を指さす動き、ある方向に手を押し出す動き、ある方向に脚を蹴り上げる動き、あたかもボールを投げる動き、ヘディングする動き、両手で何かを捕まえる動き、指揮棒を振る動きなどの所定のジェスチャーを検出してもよい。
 つづいて、本空間音響生成システムの空間音響生成装置100は、表示制御部102aの制御により、検出部112にて認識される利用者の身体部位の動作に応じて、三次元表示HMD等の表示部114を介して、コンテンツファイル106bに記憶されたコンテンツ情報を表示させる表示制御を行う(ステップSB-2)。例えば、表示制御部102aは、ゲーム空間などの仮想現実空間を表示させた状態において、検出部112にて検出された利用者のボール等を投げる動きやキックやヘディングをする動き、指揮棒を振る動きなどのジェスチャーに応じて、対応するコンテンツ要素を変化させる表示制御を行ってもよい。
 そして、本空間音響生成システムの空間音響生成装置100は、音源算出部102bの制御により、表示制御部102aにより表示制御されたコンテンツ情報の変化に従って、対応するコンテンツ要素を発音体として音源信号s(t)および位置座標の時間関数r(t),r´(t)を取得する(ステップSB-3)。例えば、音源算出部102bは、表示制御部102aによるコンテンツ情報の変化に応じて、移動等の変化の対象となったコンテンツ要素に関連付けられた音源信号s(t)をコンテンツファイル106b等から読み出し、検出部112を介した利用者の身体部位の動作に応じたコンテンツ情報の変化に伴う当該コンテンツ要素の位置座標の時間関数r(t),r´(t)を取得してもよい。
 そして、本空間音響生成システムの空間音響生成装置100は、音源算出部102bの制御により、音源信号s(t)およびr(t),r´(t)を、関数ファイル106aに記憶された再生用信号出力関数に代入する(ステップSB-4)。ここで、再生用信号出力関数は、利用者の頭部を含む領域V´の境界面S´上の音圧信号p(r^,t)からスピーカアレイ116の各スピーカへの入力信号Y(ω)(i=1・・・M)を出力する逆システムH^ji(ω)、および、仮想的な三次元空間における発音体の位置座標r(t)(j=1・・・N)から境界面S´上の音圧信号p(r^,t)の位置座標r^までの伝達関数c(r^,t,τ)に基づく、再生用信号出力関数「y(t)=Σf(t,τ´)s(t-τ)dτ」であり、例えば上述の式(41),(42)で規定される。
 そして、本空間音響生成システムの空間音響生成装置100は、波面出力制御部102cの制御により、音源算出部102bにより得られた入力信号y(t)を、スピーカアレイ116の各スピーカ(1・・・M)へ信号入力する(ステップSB-5)。
 そして、本空間音響生成システムのスピーカアレイ116は、入力信号y(t)に従うスピーカ出力により、仮想的な三次元空間を移動する発音体による三次元的な音響波面を出力する(ステップSB-6)。
 そして、本空間音響生成システムの空間音響生成装置100は、タッチパネル等の終了ボタンが押下される等の終了の指示がない限り(ステップSB-7,NO)、上述した処理を繰り返す。空間音響生成装置100は、タッチパネル等の終了ボタンが押下される等の終了の指示があった場合に(ステップSB-7,YES)、処理を終了する。ここで、本空間音響生成システムの空間音響生成装置100は、再生方式変換部102dの処理により、以上の処理により形成された時系列的音響波面出力を示す信号の再生方式を、サラウンド再生方式等の他の再生方式に変換して、変換結果の信号を外部機器200等に出力してもよい。この際、再生方式変換部102dは適宜、変換前後の信号を記憶部106に記録してもよい。
 以上が、空間音響生成システムの処理の一例である。これにより、クリエータ等の利用者は、音像定位精度の良好な環境下で、指さし等の身体動作を使ってインタラクティブに直感的にコンテンツの編集を行うことができる。したがって、プログラミング等のコンピュータエンジニアリングに詳しくない利用者であっても、簡単に臨場感のある音場生成を行うことができる。
 以上で、本実施の形態の空間音響生成システムの処理の説明を終える。
[実施例]
 つづいて、本発明の実施の形態における実施例として、移動する発音体の物理条件と音源信号から領域V内の波面を計算する手順について、図8および図9を参照して説明する。図8は、三次元音場を移動する発音体と波面観測対象領域Vの関係を示す図である。図9は、空間音響生成装置100の具体的装置構成における処理内容や記憶内容を示すワークフロー図である。
 図8および図9に示すように、まず、空間音響生成装置100のCPU102´は、メモリ106´に記憶された、移動する発音体の物理条件と、タイマーの時刻τから、発音体の位置情報r^を求める(ステップSC-1)。
 そして、空間音響生成装置100のCPU102´は、ディスク106´´に記憶された音源信号s(ω)と、タイマーが示す時刻τから、Δτ経過した時刻t=τ~τ+Δτについての音源信号s(t)を求める(ステップSC-2)。
 そして、空間音響生成装置100のCPU102´は、メモリ106´に記憶された、発音体の位置情報r^から、波面観測対象領域Vを囲む境界面Sへの伝達関数c(r^,t,τ)を算出する(ステップSC-3)。例えば、CPU102´(制御部)は、各時刻tに関して、対応する位置情報r^及び境界面Sを境界条件とする境界要素法の数値計算を実行することにより、時刻t毎の伝達関数c(r^,t,τ)を算出する。
 そして、空間音響生成装置100のCPU102´は、時刻t=τ~τ+Δτの音源信号s(t)に基づいて、ステップSC-3にて求めた時刻0~τの発音体から境界面Sへの伝達関数c(r^,t,τ)を折り畳み計算して、境界面S上の音圧信号p(r^,t)等の音響物理情報を求める(ステップSC-4)。
 そして、空間音響生成装置100のCPU102´は、領域Vとの境界面S上の音圧信号p(r^,t)等の音響物理情報から、領域V内の音圧波面を計算する(ステップSC-5)。
 以上が、移動する発音体の物理条件と音源信号から領域V内の波面を計算する手順である。以上のような移動する発音体の物理条件と音源信号からの領域V内の波面の計算を用いて、本実施の形態において最終的に三次元音響波面の音場を形成させるためには、スピーカアレイ116への入力信号を求める必要がある。
 そのため、つづいて、移動する発音体の物理条件、音源信号、再生音場の伝達関数から、音場再生室内のスピーカ入力信号を計算する手順の実施例について、図10および図11を参照して説明である。ここで、図10は、MIMO逆システムを用いてスピーカアレイ116の各スピーカへの入力信号を求めることを模式的に示した図である。図11は、空間音響生成装置100の具体的装置構成における処理内容や記憶内容を示すワークフロー図である。
 図10および図11に示すように、まず、空間音響生成装置100のCPU102´は、メモリ106´に記憶された、移動する発音体の物理条件と、タイマーの時刻τから、発音体の位置情報r^を求める(ステップSC-1)。同様に、空間音響生成装置100のCPU102´は、上述したステップSC-1~SC-4までの処理を行う。
 ここで、空間音響生成装置100のメモリ106´には、予め再生音場においてマイクロホンアレイ等で収録した音声データ等に基づいて、再生音場における伝達関数の計測システムを求め、伝達関数を求めてメモリ106´に記憶させておく(以下、具体的手法について、特開2011-182135,特開2008-118559等参照)。
 そして、空間音響生成装置100のCPU102´は、メモリ106´に記憶された、再生音場における伝達関数から再生音場の逆システムを求める(ステップSC-51)。再生音場の逆システムを示す情報は、予めメモリ106´(記憶部)に記憶されていてもよい。
 そして、空間音響生成装置100のCPU102´は、メモリ106´に記憶された再生音場の逆システムと、境界面S上の音圧信号p(r^,t)等の音響物理情報から、スピーカアレイ116の各スピーカへの入力信号y(t)を求める(ステップSC-52)。
 以上が、移動する発音体の物理条件、音源信号、再生音場の伝達関数から、音場再生室内のスピーカ入力信号を計算する手順である。これにより、臨場感のある三次元的な音響波面を伴う音場を生成させることができる。
[他の実施の形態]
 さて、これまで本発明の実施の形態について説明したが、本発明は、上述した実施の形態以外にも、特許請求の範囲に記載した技術的思想の範囲内において種々の異なる実施の形態にて実施されてよいものである。
 例えば、上述した実施の形態では、上述した実施の形態では、図2に例示した音響樽型のスピーカアレイ116について説明したが、空間音響生成システムにおける複数のスピーカは図2に限定されず、種々のスピーカが各種の配置で用いられてもよい。空間音響生成システムにおけるスピーカアレイの変形例について、図12を用いて説明する。
 図12は、空間音響生成システムにおいて椅子410に取付け可能なスピーカアレイ400を例示している。本変形例のスピーカアレイ400では、複数のスピーカ401が、利用者500が椅子410に座った状態において利用者500の頭部を取り囲むように、カバー部402に取り付けられている。
 複数のスピーカ401は、例えば、椅子410に座った利用者500の前方、上方及び側方に位置するように、カバー部402内に三次元的に配置される。カバー部402は、各スピーカ401が椅子410に座った利用者500と間隔をあけて頭部或いは上半身を覆うように、ドーム状に形成された部材である。カバー部402と椅子410との間には、例えばカバー部402を椅子410に対して上下に移動可能な取付け部403が設けられる。これにより、利用者500が椅子410に座る前後の時点などにカバー部402の位置を適宜、調整することができる。
 図12の例のスピーカアレイ400によると、椅子410に座った利用者500とスピーカ401との間に、空間音響生成装置100が生成する種々の波面を形成可能な空間を設けることができる。スピーカアレイ400を備えた空間音響生成システムは、例えばゲームや各種エンターテインメントの視聴等の種々の用途に適用可能である。空間音響生成システムのスピーカアレイ400は、椅子410とは別体で提供されてもよいし、一位的に提供されてもよい。
 また、上述した実施の形態では、検出部112が、利用者の身体部位の動作(ジェスチャー動作)を検出して、検出結果を発音体の移動に連動させる例を説明した。空間音響生成システムにおける検出部112の検出対象はジェスチャー動作に限らず、検出部112の検出結果を発音体の移動に連動させるための種々の情報であってもよく、例えば映像や振動などを検出部112の検出対象として用いてもよい。
 例えば、アイススケートのテレビ中継を行う場合等に、映像中における競技者(発音体)の位置検出が行われてもよい。この場合、例えばスケートリンクに設置されたマイク等から音源信号を取得して、テレビ中継の視聴者に、映像中の競技者の動きに合わせて走行音などが視聴されるように、空間音響生成システムを用いることができる。また、サッカーやボクシング等の体験型ゲームなどにおいて、利用者等が発生させた振動を検出対象として、検出結果の振動に応じてゲームのコンテンツ(発音体)の動きを設定すると共に、設定された動きに連動するような波面が形成されるようにしてもよい。
 以上のように、空間音響生成システムにおける検出部112は、種々の発音体の移動に関する情報を検出してもよい。空間音響生成システムにおける検出部112としては、映像解析手段や、加速度センサ、ジャイロセンサなどの各種センサ等が用いられてもよい。
 また、空間音響生成装置100における制御部106は、検出部112によって検出された発音体の移動に関する情報に基づいて、発音体の位置及び音源信号といった移動する発音体を示す情報を算出してもよいし、別途、移動する発音体を示す情報を取得してもよい。例えば、制御部106は、記憶部102に予め格納されたデータ等を読み出すことによって移動する発音体を示す情報を取得してもよいし、外部からネットワーク300等を介して当該情報を取得してもよい。
 また、空間音響生成装置100の実装においては、各種の計算簡略化の処理を適用可能である。以下、空間音響生成装置100の実装例について、発音体が自由空間を移動する一つの点音源である例を用いて説明する。
 本例においては、自由空間内において一つの点音源(大きさ1)の位置r´(t))が移動するという発音体の物理条件に対応して、時刻tにおける位置r^への伝達関数c(r^,t,τ)は、次式(8)のように表される。
Figure JPOXMLDOC01-appb-M000022
 上式(8)において、δ(τ)はデルタ関数であり、vは音速である。上述した式(3)に式(8)を代入することにより、次式(9),(10)が得られる。
Figure JPOXMLDOC01-appb-M000023
 上式(9),(10)において、w(t)は音圧信号を示し、a(t)は音源と受音点間の距離を示す。上式(9),(10)は、サンプリング周波数F(Hz)で離散化することにより、次式(11),(12)のように表される。
Figure JPOXMLDOC01-appb-M000024
 上式(11),(12)のw[n]は、離散的な時間nにおいて音源と受音点の間の距離a[n]に応じて振幅変化および時間伸長する時間信号であり、音源と受音点間の距離が急速に変化する場合にはドップラー効果も含まれる。
 ところで、上式(12)の右辺におけるs[n-a[n]F/v]のサンプル点(n-a[n]F/v)は、実数になる。このような実数のサンプル点における音源信号s[n-a[n]F/v]の値について、非特許文献3は、ラグランジェ補間法などにより計算する手法を提案している。しかし、上記のような従来の手法によると、計算コストがかかるという課題がある。
 そこで、本実装例では、式(12)におけるs[n-a[n]F/v]を補間計算する代わりに、サンプル点(n-a[n]F/v)の小数点以下を四捨五入して丸めるという方法を採用する。本方法によると、式(12)は次式(13)のように計算される。
Figure JPOXMLDOC01-appb-M000025
 空間音響生成装置100における制御部106は、上式(13)に従い、発音体の移動に応じた遅延を有するサンプル点(n-a[n]F/v)に対してround関数による端数処理を行う。制御部106は、例えば後述するフレーム処理により、端数処理の結果の音源信号からスピーカへの入力信号y(t)を算出する。これにより、移動音源を再現するような入力信号y(t)を得る際の計算コストを低減することができる。以下、上式(13)に基づくフレーム処理の一例を説明する。
 式(13)における距離a[n]は、音源(発音体)の移動に応じて1サンプル毎に変化するが、フレーム処理においては、距離計算に線形補間を用いることができる。例えば、移動速度が音速よりも充分に小さい音源に関して、距離a[n]は一定のフレーム区間中に線形に変化すると考えられる。
 本実装例のフレーム処理においては、発音体の位置に基づく距離a[n]の計算は各フレームの最初を基準に行われ、次のフレームの最初に至るまでの各々のサンプル位置では距離は線形に変化すると考える。この場合、フレーム番号mにおいて1フレーム内のサンプル番号kの距離a[m,k]は、次式(14)のように表される。
Figure JPOXMLDOC01-appb-M000026
 上式(14)において、a[m,k]=a[n]に対応する「n」は、1フレーム分のサンプル数Lを用いてn=(m-1)×L+kであり、β[k]=(L-k)/(L-1)である。式(13)は、フレーム処理により
Figure JPOXMLDOC01-appb-M000027
と表すことができる。
 本実装例において空間音響生成装置100の制御部106は、フレーム処理において、フレーム区間L毎に音源と受音点間の距離a[m,1]を計算し、式(15)からフレーム内の移動音源の信号w[m,k]を計算する。計算した信号w[m,k]に基づき、制御部106は、式(11)を用いて逆フィルタを畳み込むことにより、スピーカへの入力信号y[n]を求める。
 以上の処理によると、例えば公知のOverLap Add法により移動音源について畳み込みを行った場合に想定されるようなフレーム毎のノイズを生じさせずに、スピーカへの入力信号y[n]を得ることができる。また、処理のアルゴリズムが上記の手法よりも単純であり、計算コストを低減できる。さらに、音源の移動速度に応じてドップラー効果にも対応可能である。
 以上の説明では、発音体が一つの点音源である例を説明した。発音体が複数の点音源である場合にも、各点音源ごとに式(10)を計算して重ね合わせ、式(11)を用いて逆フィルタを畳み込むことにより、スピーカへの入力信号y[n]を求めることができる。また、発音体が振動面や非振動面を有している場合においても、発音体を点音源の集合として近似的に表すことにより、上記と同様にスピーカへの入力信号y[n]を求められる。
 また、以上の説明では、実装例の処理によって得られた移動音源の信号w[m,k]に逆システムを適用して、境界音場制御におけるスピーカへの入力信号y[n]を求める例を説明した。上記の処理は、境界音場制御に限らず、例えばWFS(波面合成)方式や2chステレオ方式、バイノーラル方式などの各種再生方式に適用可能である。これにより、移動音源を再現するような各種スピーカやヘッドフォンへの入力信号を生成する際の計算コストを低減することができる。
 また、空間音響生成装置100において、検出部112や表示部114やスピーカアレイ116等を別筐体として表したが、これに限られず、同一筐体で構成してもよい。
 また、空間音響生成装置100が、外部機器200等のクライアント端末からの要求に応じて処理を行い、その処理結果を当該クライアント端末に返却してもよい。
 また、実施の形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。
 このほか、上記文献中や図面中で示した処理手順、制御手順、具体的名称、各処理の登録データや検索条件等のパラメータを含む情報、画面例、データベース構成については、特記する場合を除いて任意に変更することができる。
 また、空間音響生成装置100や外部機器200等に関して、図示の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。
 例えば、空間音響生成装置100の各装置が備える処理機能、特に制御部102にて行われる各処理機能については、その全部または任意の一部を、CPU(Central Processing Unit)などのプロセッサおよび当該プロセッサにて解釈実行されるプログラムにて実現してもよく、また、ワイヤードロジックによるハードウェアプロセッサとして実現してもよい。尚、プログラムは、後述する、コンピュータに本発明に係る方法を実行させるためのプログラム化された命令を含む、一時的でないコンピュータ読み取り可能な記録媒体に記録されており、必要に応じて空間音響生成装置100や外部機器200に機械的に読み取られる。すなわち、ROMまたはHDD(Hard Disk Drive)などの記憶部106などには、OS(Operating System)と協働してCPUに命令を与え、各種処理を行うためのコンピュータプログラムが記録されている。このコンピュータプログラムは、RAMにロードされることによって実行され、CPUと協働して制御部を構成する。
 また、このコンピュータプログラムは、空間音響生成装置100や外部機器200に対して任意のネットワーク300を介して接続されたアプリケーションプログラムサーバに記憶されていてもよく、必要に応じてその全部または一部をダウンロードすることも可能である。
 また、本発明に係るプログラムを、コンピュータ読み取り可能な記録媒体に格納してもよく、また、プログラム製品として構成することもできる。ここで、この「記録媒体」とは、メモリーカード、USBメモリ、SDカード、フレキシブルディスク、光磁気ディスク、ROM、EPROM、EEPROM、CD-ROM、MO、DVD、および、Blu-ray(登録商標)Disc等の任意の「可搬用の物理媒体」を含むものとする。
 また、「プログラム」とは、任意の言語や記述方法にて記述されたデータ処理方法であり、ソースコードやバイナリコード等の形式を問わない。なお、「プログラム」は必ずしも単一的に構成されるものに限られず、複数のモジュールやライブラリとして分散構成されるものや、OSに代表される別個のプログラムと協働してその機能を達成するものをも含む。なお、実施の形態に示した各装置において記録媒体を読み取るための具体的な構成、読み取り手順、あるいは、読み取り後のインストール手順等については、周知の構成や手順を用いることができる。プログラムが、一時的でないコンピュータ読み取り可能な記録媒体に記録されたプログラム製品として本発明を構成してもよい。
 記憶部106に格納される各種のデータベース等(関数ファイル106a,コンテンツファイル106b等)は、RAM、ROM等のメモリ装置、ハードディスク等の固定ディスク装置、フレキシブルディスク、および、光ディスク等のストレージ手段であり、各種処理やウェブサイト提供に用いる各種のプログラム、テーブル、データベース、および、ウェブページ用ファイル等を格納する。
 また、空間音響生成装置100や外部機器200や検出部112や表示部114やスピーカアレイ116は、既知のパーソナルコンピュータ、ワークステーション等の情報処理装置として構成してもよく、また、該情報処理装置に任意の周辺装置を接続して構成してもよい。また、空間音響生成装置100や外部機器200や検出部112や表示部114等は、該情報処理装置に本発明の方法を実現させるソフトウェア(プログラム、データ等を含む)を実装することにより実現してもよい。
 更に、装置の分散及び/又は統合の具体的形態は図示するものに限られず、その全部または一部を、各種の付加等に応じて、または、機能負荷に応じて、任意の単位で機能的または物理的に分散及び/又は統合して構成することができる。すなわち、上述した実施形態を任意に組み合わせて実施してもよく、実施形態を選択的に実施してもよい。以下、本発明に係る態様を例示する。
 本発明に係る第1の態様は、複数のスピーカに接続された、記憶部と制御部とを備えた空間音響生成装置である。制御部は、移動する発音体を示す情報に基づき、発音体の移動に応じて時間毎の伝達特性を変化させながら逆システムを適用して、発音体が発する音を示す音源信号から、各スピーカへの複数の入力信号を算出する。逆システムは、境界音場制御において入力信号に基づきスピーカに三次元的な音響波面を形成させるように、複数のスピーカが配置された空間中の伝達特性に応じて入力信号を出力する。
 第2の態様では、第1の態様の空間音響生成装置において、記憶部は、仮想的な三次元空間における発音体の位置座標から音圧の観測対象とする領域の境界までの時変の伝達特性を示す伝達関数と逆システムとによって規定される再生用信号出力関数を記憶する。移動する発音体を示す情報は、仮想的な三次元空間における発音体の音源信号と位置座標の時間関数とを含む。制御部は、発音体の音源信号および位置座標の時間関数を、再生用信号出力関数に入力して入力信号を導出する。
 第3の態様では、第1の態様の空間音響生成装置において、移動する発音体を示す情報は、仮想的な三次元空間における発音体の位置座標の時間関数と発音体の音源信号とを含む。制御部は、位置座標の時間関数に基づいて、発音体の位置座標から音圧の観測対象とする領域の境界までの時変の伝達特性を示す伝達関数を算出し、伝達関数と逆システムとに基づいて、音源信号から入力信号を算出する。
 第4の態様では、第2または第3の態様の空間音響生成装置において、制御部は、位置座標の時間関数を、仮想的な三次元空間における利用者と発音体との相対的な位置関係に基づいて算出する。
 第5の態様では、第4の態様の空間音響生成装置において、空間音響生成装置は更に表示部を有する。制御部は表示部に仮想的な三次元空間上の発音体を表示するよう制御する。
 第6の態様では、第5の態様の空間音響生成装置において、空間音響生成装置は更にボディソニックトランスデューサを有する。制御部はコンテンツ情報に応じて利用者を加振するようボディソニックトランスデューサを制御する。
 第7の態様では、第2乃至第6のいずれか一つの空間音響生成装置において、制御部は、仮想的な三次元空間における利用者および/または発音体の速度に応じてドップラーシフトを再現する再生音響波面信号を演算する。
 第8の態様は、第2乃至第7のいずれか一つの空間音響生成装置において、更に、発音体の移動に関する情報を検出する検出部に接続されている。制御部は、検出部の検出結果に基づいて、発音体の音源信号および位置座標の時間関数のうちの少なくとも一方を算出する。
 第9の態様では、第8の空間音響生成装置において、検出部は、利用者の少なくとも一つの身体部位の動作を検出する。制御部は、検出部により検出される身体部位の動作に応じて、発音体の音源信号および位置座標の時間関数を算出する。
 第10の態様は、第9の空間音響生成装置において、制御部は、検出部により検出される身体部位の動作に応じてコンテンツ情報の表示制御を行う表示制御手段を備える。表示制御手段は、空間音響生成装置の構成要素の表示部を制御してもよいし、空間音響生成装置に接続された外部構成の表示部を制御してもよい。制御部は、身体部位の動作に応じたコンテンツ情報の変化に従って、対応する発音体の音源信号および位置座標の時間関数を算出する。
 第11の態様では、第10の空間音響生成装置において、検出部は、利用者の手指の動作を検出する。表示制御手段は、検出部により検出される手指の動作で指示されたコンテンツ情報の移動を伴う表示制御を行う。
 第12の態様では、第10または第11の空間音響生成装置において、表示制御手段は、表示部の一例である頭部装着ディスプレイを制御して、仮想的な三次元空間においてコンテンツ情報の三次元表示制御を行う。
 第13の態様では、第1乃至12のいずれか一つの空間音響生成装置において、制御部は、形成された音響波面を示す信号において再生方式を変換する再生方式変換手段を備える。
 第14の態様では、第1乃至13のいずれか一つの空間音響生成装置において、制御部は、発音体の移動に応じて音源信号において端数処理を行って、端数処理の結果の音源信号から入力信号を算出する。
 第15の態様は、複数のスピーカと、記憶部と、制御部とを備えた空間音響生成システムである。制御部は、移動する発音体を示す情報に基づき、発音体の移動に応じて時間毎の伝達特性を変化させながら逆システムを適用して、発音体が発する音を示す音源信号から、各スピーカへの複数の入力信号を算出する。逆システムは、境界音場制御において入力信号に基づきスピーカに三次元的な音響波面を形成させるように、複数のスピーカが配置された空間中の伝達特性に応じて入力信号を出力する。
 第16の態様は、複数のスピーカに接続された、記憶部と制御部とを備えたコンピュータにおいて実行される空間音響生成方法である。本方法は、制御部が、移動する発音体を示す情報に基づき、発音体の移動に応じて時間毎の伝達特性を変化させながら逆システムを適用して、発音体が発する音を示す音源信号から、各スピーカへの複数の入力信号を算出するステップを含む。逆システムは、境界音場制御において入力信号に基づきスピーカに三次元的な音響波面を形成させるように、複数のスピーカが配置された空間中の伝達特性に応じて入力信号を出力する。本方法は、制御部が、入力信号に基づき各スピーカを制御するステップを含む。
 第17の態様は、複数のスピーカに接続された、記憶部と制御部とを備えたコンピュータに実行させるための空間音響生成プログラムである。本プログラムは、制御部に、移動する発音体を示す情報に基づき、発音体の移動に応じて時間毎の伝達特性を変化させながら逆システムを適用して、発音体が発する音を示す音源信号から、各スピーカへの複数の入力信号を算出するステップを実行させる。逆システムは、境界音場制御において入力信号に基づきスピーカに三次元的な音響波面を形成させるように、複数のスピーカが配置された空間中の伝達特性に応じて入力信号を出力する。本プログラムは、制御部に、入力信号に基づき各スピーカを制御するステップを実行させる。
 以上詳述に説明したように、本発明によれば、仮想的な三次元空間において、任意にコンテンツ等が移動しうる場合であっても、臨場感のある三次元的な音響波面を伴う音場を生成することができる、空間音響生成装置、空間音響生成システム、空間音響生成方法、および、空間音響生成プログラム、ならびに、記録媒体を提供することができる。例えば、コンピュータエンジニアリングに詳しくないクリエータ等であっても、音像定位精度の良好な環境下で、指差し等で簡単にコンテンツを操作しながら各音源の配置等を変更することができるので、ゲーム産業やコンテンツ産業など多様な産業分野において有用である。

Claims (17)

  1.  複数のスピーカに接続された、記憶部と制御部とを備えた空間音響生成装置であって、
     前記制御部は、
     移動する発音体を示す情報に基づき、前記発音体の移動に応じて時間毎の伝達特性を変化させながら逆システムを適用して、前記発音体が発する音を示す音源信号から、前記各スピーカへの複数の入力信号を算出し、
     前記逆システムは、境界音場制御において前記入力信号に基づき前記スピーカに三次元的な音響波面を形成させるように、前記複数のスピーカが配置された空間中の伝達特性に応じて前記入力信号を出力すること、
     を特徴とする空間音響生成装置。
  2.  請求項1に記載の空間音響生成装置において、
     前記記憶部は、
     仮想的な三次元空間における前記発音体の位置座標から音圧の観測対象とする領域の境界までの時変の伝達特性を示す伝達関数と前記逆システムとによって規定される再生用信号出力関数を記憶し、
     前記移動する発音体を示す情報は、前記仮想的な三次元空間における前記発音体の音源信号と前記位置座標の時間関数とを含み、
     前記制御部は、
     前記発音体の音源信号および前記位置座標の時間関数を、前記再生用信号出力関数に入力して前記入力信号を導出すること、
     を特徴とする空間音響生成装置。
  3.  請求項1に記載の空間音響生成装置において、
     前記移動する発音体を示す情報は、仮想的な三次元空間における前記発音体の位置座標の時間関数と前記発音体の音源信号とを含み、
     前記制御部は、
     前記位置座標の時間関数に基づいて、前記発音体の位置座標から音圧の観測対象とする領域の境界までの時変の伝達特性を示す伝達関数を算出し、
     前記伝達関数と前記逆システムとに基づいて、前記音源信号から前記入力信号を算出すること、
     を特徴とする空間音響生成装置。
  4.  請求項2または3に記載の空間音響生成装置において、
     前記制御部は、
     前記位置座標の時間関数を、前記仮想的な三次元空間における利用者と発音体との相対的な位置関係に基づいて算出することを特徴とする、空間音響生成装置。
  5.  請求項4に記載の空間音響生成装置において、
     前記空間音響生成装置は更に表示部を有し、
     前記制御部は前記表示部に前記仮想的な三次元空間上の前記発音体を表示するよう制御すること、
     を特徴とする、空間音響生成装置。
  6.  請求項5に記載の空間音響生成装置において、
     前記空間音響生成装置は更にボディソニックトランスデューサを有し、
     前記制御部はコンテンツ情報に応じて利用者を加振するよう前記トランスデューサを制御すること、
     を特徴とする、空間音響生成装置。
  7.  請求項2乃至6のいずれか一つに記載の空間音響生成装置において、
     前記制御部は、
     前記仮想的な三次元空間における利用者および/または発音体の速度に応じてドップラーシフトを再現する再生音響波面信号を演算することを特徴とする、空間音響生成装置。
  8.  請求項2乃至7のいずれか一つに記載の空間音響生成装置において、
     更に、前記発音体の移動に関する情報を検出する検出部に接続されており、
     前記制御部は、
     前記検出部の検出結果に基づいて、前記発音体の音源信号および前記位置座標の時間関数のうちの少なくとも一方を算出すること、
     を特徴とする、空間音響生成装置。
  9.  請求項8に記載の空間音響生成装置において、
     前記検出部は、利用者の少なくとも一つの身体部位の動作を検出し、
     前記制御部は、
     前記検出部により検出される前記身体部位の動作に応じて、前記発音体の音源信号および前記位置座標の時間関数を算出すること、
     を特徴とする、空間音響生成装置。
  10.  請求項9に記載の空間音響生成装置において、
     前記制御部は、
     前記検出部により検出される前記身体部位の動作に応じてコンテンツ情報の表示制御を行う表示制御手段を備え、
     前記身体部位の動作に応じた前記コンテンツ情報の変化に従って、対応する前記発音体の音源信号および前記位置座標の時間関数を算出すること、
     を特徴とする、空間音響生成装置。
  11.  請求項10に記載の空間音響生成装置において、
     前記検出部は、利用者の手指の動作を検出し、
     前記表示制御手段は、
     前記検出部により検出される前記手指の動作で指示された前記コンテンツ情報の移動を伴う表示制御を行うこと、
     を特徴とする、空間音響生成装置。
  12.  請求項10または11に記載の空間音響生成装置において、
     前記表示制御手段は、
     頭部装着ディスプレイを制御して、前記仮想的な三次元空間において前記コンテンツ情報の三次元表示制御を行うこと、
     を特徴とする、空間音響生成装置。
  13.  請求項1乃至12のいずれか一つに記載の空間音響生成装置において、
     前記制御部は、
     前記形成された音響波面を示す信号において再生方式を変換する再生方式変換手段を備えたことを特徴とする、空間音響生成装置。
  14.  請求項1乃至13のいずれか一つに記載の空間音響生成装置において、
     前記制御部は、
     前記発音体の移動に応じて前記音源信号において端数処理を行って、端数処理の結果の音源信号から前記入力信号を算出すること
     を特徴とする、空間音響生成装置。
  15.  複数のスピーカと、記憶部と、制御部とを備えた空間音響生成システムであって、
     前記制御部は、
     移動する発音体を示す情報に基づき、前記発音体の移動に応じて時間毎の伝達特性を変化させながら逆システムを適用して、前記発音体が発する音を示す音源信号から、前記各スピーカへの複数の入力信号を算出し、
     前記逆システムは、境界音場制御において前記入力信号に基づき前記スピーカに三次元的な音響波面を形成させるように、前記複数のスピーカが配置された空間中の伝達特性に応じて前記入力信号を出力すること、
     を特徴とする空間音響生成システム。
  16.  複数のスピーカに接続された、記憶部と制御部とを備えたコンピュータにおいて実行される空間音響生成方法であって、
     前記制御部が、
     移動する発音体を示す情報に基づき、前記発音体の移動に応じて時間毎の伝達特性を変化させながら逆システムを適用して、前記発音体が発する音を示す音源信号から、前記各スピーカへの複数の入力信号を算出するステップであって、
      前記逆システムは、境界音場制御において前記入力信号に基づき前記スピーカに三次元的な音響波面を形成させるように、前記複数のスピーカが配置された空間中の伝達特性に応じて前記入力信号を出力する、ステップと、
     前記入力信号に基づき各スピーカを制御するステップと、
     を実行することを特徴とする空間音響生成方法。
  17.  複数のスピーカに接続された、記憶部と制御部とを備えたコンピュータに実行させるための空間音響生成プログラムであって、
     前記制御部に、
     移動する発音体を示す情報に基づき、前記発音体の移動に応じて時間毎の伝達特性を変化させながら逆システムを適用して、前記発音体が発する音を示す音源信号から、前記各スピーカへの複数の入力信号を算出するステップであって、
      前記逆システムは、境界音場制御において前記入力信号に基づき前記スピーカに三次元的な音響波面を形成させるように、前記複数のスピーカが配置された空間中の伝達特性に応じて前記入力信号を出力する、ステップと、
     前記入力信号に基づき各スピーカを制御するステップと、
     を実行させるための空間音響生成プログラム。
PCT/JP2017/037043 2016-10-14 2017-10-12 空間音響生成装置、空間音響生成システム、空間音響生成方法、および、空間音響生成プログラム WO2018070487A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018545055A JP6882785B2 (ja) 2016-10-14 2017-10-12 空間音響生成装置、空間音響生成システム、空間音響生成方法、および、空間音響生成プログラム
US16/341,539 US10812927B2 (en) 2016-10-14 2017-10-12 Spatial sound generation device, spatial sound generation system, spatial sound generation method, and spatial sound generation program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016-203129 2016-10-14
JP2016203129 2016-10-14

Publications (1)

Publication Number Publication Date
WO2018070487A1 true WO2018070487A1 (ja) 2018-04-19

Family

ID=61906443

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/037043 WO2018070487A1 (ja) 2016-10-14 2017-10-12 空間音響生成装置、空間音響生成システム、空間音響生成方法、および、空間音響生成プログラム

Country Status (3)

Country Link
US (1) US10812927B2 (ja)
JP (1) JP6882785B2 (ja)
WO (1) WO2018070487A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114143697A (zh) * 2021-05-27 2022-03-04 音王电声股份有限公司 一种基于对象的环屏扬声器阵列的运动声源合成算法及其应用
US20240259748A1 (en) * 2023-01-26 2024-08-01 Alps Alpine Co., Ltd. Apparatus and method for controlling sound field

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006246310A (ja) * 2005-03-07 2006-09-14 Sony Corp オーディオ信号の再生方法および再生装置
WO2014010290A1 (ja) * 2012-07-13 2014-01-16 ソニー株式会社 情報処理システムおよび記憶媒体
WO2014069112A1 (ja) * 2012-11-02 2014-05-08 ソニー株式会社 信号処理装置、信号処理方法
JP2014090910A (ja) * 2012-11-05 2014-05-19 Nintendo Co Ltd ゲームシステム、ゲーム処理制御方法、ゲーム装置、および、ゲームプログラム
JP2014094160A (ja) * 2012-11-09 2014-05-22 Nintendo Co Ltd ゲームシステム、ゲーム処理制御方法、ゲーム装置、および、ゲームプログラム
US20150110310A1 (en) * 2013-10-17 2015-04-23 Oticon A/S Method for reproducing an acoustical sound field
WO2015076149A1 (ja) * 2013-11-19 2015-05-28 ソニー株式会社 音場再現装置および方法、並びにプログラム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008118559A (ja) 2006-11-07 2008-05-22 Advanced Telecommunication Research Institute International 3次元音場再生装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006246310A (ja) * 2005-03-07 2006-09-14 Sony Corp オーディオ信号の再生方法および再生装置
WO2014010290A1 (ja) * 2012-07-13 2014-01-16 ソニー株式会社 情報処理システムおよび記憶媒体
WO2014069112A1 (ja) * 2012-11-02 2014-05-08 ソニー株式会社 信号処理装置、信号処理方法
JP2014090910A (ja) * 2012-11-05 2014-05-19 Nintendo Co Ltd ゲームシステム、ゲーム処理制御方法、ゲーム装置、および、ゲームプログラム
JP2014094160A (ja) * 2012-11-09 2014-05-22 Nintendo Co Ltd ゲームシステム、ゲーム処理制御方法、ゲーム装置、および、ゲームプログラム
US20150110310A1 (en) * 2013-10-17 2015-04-23 Oticon A/S Method for reproducing an acoustical sound field
WO2015076149A1 (ja) * 2013-11-19 2015-05-28 ソニー株式会社 音場再現装置および方法、並びにプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
ISE, SHIRO: "The Boundary Surface Control Principle and Its Applications, IEICE TRANSACTIONS on Fundamentals of Electronics", COMMUNICATIONS AND COMPUTER SCIENCES, vol. E88-A, no. 7, 1 July 2005 (2005-07-01), pages 1656 - 1664, XP001231939 *

Also Published As

Publication number Publication date
US10812927B2 (en) 2020-10-20
JP6882785B2 (ja) 2021-06-02
US20190373393A1 (en) 2019-12-05
JPWO2018070487A1 (ja) 2019-08-08

Similar Documents

Publication Publication Date Title
US11778412B2 (en) Head pose mixing of audio files
US9968846B2 (en) Information processing apparatus, storage medium having stored therein information processing program, information processing system, and information processing method
JP6923245B2 (ja) 観衆ベースのハプティック
JP5890523B2 (ja) オーディオ信号処理装置及びオーディオ信号処理方法
US11632646B2 (en) Physics-based audio and haptic synthesis
JP7313361B2 (ja) 複合現実楽器
JP6893561B2 (ja) 振動制御装置
JP2022538714A (ja) 人工現実環境のためのオーディオシステム
JP6882785B2 (ja) 空間音響生成装置、空間音響生成システム、空間音響生成方法、および、空間音響生成プログラム
Ren et al. Tabletop ensemble: touch-enabled virtual percussion instruments
US20230199420A1 (en) Real-world room acoustics, and rendering virtual objects into a room that produce virtual acoustics based on real world objects in the room
JP7140237B2 (ja) 振動体感装置
JP5352628B2 (ja) 近接通過音発生装置
Grani et al. Spatial sound and multimodal interaction in immersive environments
JP6475921B2 (ja) 通信ユニット
JP6159515B2 (ja) ゲームシステム、ゲーム装置、ゲームプログラム、およびゲーム処理制御方法
WO2020031527A1 (ja) 信号生成装置、信号生成方法、プログラム、再生装置
WO2024079910A1 (ja) コンテンツ再生装置、振動制御信号生成装置、サーバ装置、振動制御信号生成方法、コンテンツ再生システム、及び設計支援装置
WO2023166721A1 (ja) 情報処理装置、情報処理システムおよび情報処理方法
JP3813919B2 (ja) 音情報生成システム及び音情報生成方法
Cannon et al. Expression and Spatial Motion: Playable Ambisonics.
WO2023060050A1 (en) Sound field capture with headpose compensation
JP2023130246A (ja) 立体像表示システム及び立体像表示方法
JP2022182625A (ja) 音響可聴化装置及び音響可聴化プログラム
Todoroff et al. Capturing gestures for expressive sound control

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17860057

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2018545055

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17860057

Country of ref document: EP

Kind code of ref document: A1