WO2014069112A1 - 信号処理装置、信号処理方法 - Google Patents
信号処理装置、信号処理方法 Download PDFInfo
- Publication number
- WO2014069112A1 WO2014069112A1 PCT/JP2013/074744 JP2013074744W WO2014069112A1 WO 2014069112 A1 WO2014069112 A1 WO 2014069112A1 JP 2013074744 W JP2013074744 W JP 2013074744W WO 2014069112 A1 WO2014069112 A1 WO 2014069112A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- sound
- signal processing
- unit
- curved surface
- transfer function
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/165—Management of the audio stream, e.g. setting of volume, audio stream path
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/162—Interface to dedicated audio devices, e.g. audio drivers, interface to CODECs
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R1/00—Details of transducers, loudspeakers or microphones
- H04R1/20—Arrangements for obtaining desired frequency or directional characteristics
- H04R1/32—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
- H04R1/40—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R3/00—Circuits for transducers, loudspeakers or microphones
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/11—Positioning of individual sound objects, e.g. moving airplane, within a sound field
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/15—Aspects of sound capture and related signal processing for recording or reproduction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2420/00—Techniques used stereophonic systems covered by H04S but not provided for in its groups
- H04S2420/13—Application of wave-field synthesis in stereophonic audio systems
Definitions
- the present technology relates to a signal processing apparatus and method suitable for giving a user an immersive feeling about a certain place.
- map information services provided on the Internet and as application software, in addition to the overhead map shown with graphics and symbols, etc., it can be displayed in combination with photos from satellites
- -New services have been proposed, such as displaying images that record the situation according to the map position.
- a service using image information taken from the ground is very useful for confirming a place where the user has never visited.
- immersive technology Immersive Reality
- 5 or 6 surfaces including the ceiling and floor surfaces
- project projected images.
- 5 or 6 surfaces including the ceiling and floor surfaces
- This technology has been made under such circumstances, and an object thereof is to provide a technology capable of enhancing the user's immersive feeling as compared with the case of only presenting image information.
- the present technology has the following configuration of the signal processing device. That is, the signal processing device of the present technology includes a display control unit that displays an image corresponding to a place specified from the designated position information on a required display unit.
- a sound collection signal input unit that inputs a sound collection signal from a sound collection unit that collects the sound emitted by the user with a plurality of microphones arranged to surround the user is provided. Further, it represents how the sound emitted from the closed curved surface in the place measured at the place specified from the designated position information is reflected at the place and transmitted to the closed curved surface side.
- a sound field that reproduces the sound input by the user as if reverberated at a place specified by the position information is reproduced with respect to the signal input from the sound pickup signal input unit.
- An acoustic signal processing unit that performs first acoustic signal processing.
- a sound generation control unit is provided that causes a sound based on the signal subjected to the first sound signal processing by the sound signal processing unit to be sounded by a plurality of speakers arranged so as to surround the user.
- the present technology proposes the following method as a signal processing method. That is, the signal processing method of the present technology is arranged so as to surround the display unit, a sound collecting unit that collects sound emitted by the user by a plurality of microphones arranged so as to surround the user, and the user.
- a signal processing method using a sound generation unit that generates sound by using a plurality of speakers includes a display control procedure for displaying an image corresponding to a location specified from designated position information on the display unit.
- it represents how the sound emitted from the closed curved surface side in the location, which is measured at the location specified from the specified position information, is reflected at the location and transmitted to the closed curved surface side.
- the sound generation unit includes a sound generation control procedure that causes the sound generation unit to generate a sound based on the signal subjected to the first sound signal processing according to the sound signal processing procedure.
- an image corresponding to a place specified from the designated position information is presented to the user, and sound generated by the user is reflected at the place specified from the designated position information.
- the sound field that can be felt in the future will be provided.
- FIG. It is a figure for demonstrating the structure of the signal processing system for implement
- FIG. 1 It is a figure showing an example of system configuration at the time of performing rendering processing about method 2 on a cloud. It is the figure which illustrated the relationship between the closed curved surface formed by arranging a speaker and the closed curved surface formed by arranging a microphone in a reproduction environment. It is explanatory drawing about the shape of a closed curved surface. It is the figure which showed the case where the closed curved surface formed with the microphone in the reproduction environment is set inside the closed curved surface formed with the speaker. It is the figure which showed the relationship of the closed curved surface in the measurement environment corresponding to the case shown in FIG. It is the figure which illustrated the composition for obtaining the output equivalent to a directional microphone using the omnidirectional microphone.
- the site A means a place where the user 0 is to be immersed, that is, a place where the scene or the spread of sound is desired to be reproduced (a place to be reproduced).
- the site B in the figure means a place where a scene to be reproduced and a sound spread are reproduced. This site B may be considered as the room of the user 0 itself, for example.
- a plurality of speakers 2B arranged so as to surround the user 0 and a display device 3 for displaying an image are installed.
- the reproduction method realized by the signal processing system according to the present embodiment roughly includes displaying the image information corresponding to the site A by the display device 3 arranged at the site B, and a plurality of the same.
- the sound field 100 of the site A is reproduced by the speaker 2B.
- FIG. 1 illustrates the display device 3 having only one display surface, but in order to increase the immersive feeling, the front / left / right / up / down as shown in FIG. It is desirable to arrange the display device 3 having at least five display surfaces.
- the site to be reproduced as the site A can be selected from a plurality of candidates.
- the location to be reproduced is designated by the user 0, for example.
- an arbitrary position is designated from the map image displayed on the display device 3. From the position information of the designated position, a place corresponding to the position is specified, and the place is reproduced by the image and sound as described above.
- a space surrounding the user 0 is formed by the plurality of speakers 2B on the side B shown in FIG.
- a space formed by a plurality of microphones in addition to the space surrounded by a plurality of speakers as described above, there is also a space formed by a plurality of microphones.
- the interface of the space formed by surrounding a plurality of speakers or microphones in this way in other words, the interface of the space formed by connecting the plurality of speakers or microphones is referred to as “acoustics”. It will be referred to as “closed curved surface” or simply “closed curved surface”.
- the acoustic closed surface formed by the plurality of speakers 2B in the site B is referred to as a closed surface 1B.
- the microphone may be simply abbreviated as a microphone.
- the sound field of site A is reproduced at site B.
- the present embodiment mainly uses two methods shown in FIG. (Method 1 and Method 2) are proposed.
- Method 1 the sound generated by the user 0 located inside the closed curved surface 1B at the site B (for example, the voice emitted by the user 0, the collision sound when an object is dropped, or the tableware or the like touches when eating)
- the sound field 100 in which the sound of time, etc. feels reverberating at the site A is reproduced by the plurality of speakers 2B.
- sounds emitted by the user 0 are collected in real time by a plurality of microphones 5B arranged so as to surround the user 0, and processed by a corresponding transfer function.
- an acoustic signal for reproducing the sound field is generated.
- the user 0 can perceive the impression of the space acoustically not only based on the image but also based on the sound emitted by the user 0. In other words, this makes it possible to increase the feeling of immersion.
- Method 2 is to cause the user 0 in the closed curved surface 1B to perceive the environmental sound at the site A to be reproduced, including the reverberation at the site A.
- the closed curved surface 1B is in the site A as shown in the figure, and the sound is emitted at a certain position outside the closed curved surface 1B in the site A, the sound is
- there may be a component of reflected sound / reverberation sound (different for each material / structure) through the structure or obstacle in the site A.
- the environmental sound in the site A is perceived including such a reverberant sound.
- FIG. 4 is a diagram for explaining a transfer function measurement technique for realizing sound field reproduction according to the embodiment.
- FIG. 4A schematically shows a plurality of microphones 5A arranged in the site A for measurement.
- 4B schematically shows a measurement technique (denoted as measurement 1) corresponding to technique 1
- FIG. 4C schematically shows a measurement technique (measurement 2) corresponding to technique 2.
- FIG. 4D schematically shows a method of recording the environmental sound of the site A as it is by using the plurality of microphones 5A arranged at the site A.
- an interface of a space surrounded by a plurality of microphones 5A arranged for measurement at site A is defined as a closed curved surface 1A.
- the closed curved surface 1A should have the same size and shape as the closed curved surface 1B of the site B where the user 0 is located.
- the microphones 5A on the closed curved surface 1A are arranged in the same number and in the same positional relationship as the speakers 2B on the closed curved surface 1B.
- the transfer function used when processing the sound emitted by the user 0 himself who is inside the closed curved surface 1B by the method 1 shown in FIG. 3 is measured.
- the sound (measurement signal) emitted outward from the measurement speaker 2A arranged at the site A is affected by the echoes at the site A, and each of the sounds arranged at the site A is also the same.
- a transfer function (impulse response) representing how to reach the microphone 5A is measured. Therefore, using this transfer function, the signal (sound emitted by the user 0) picked up by the microphone 5B at the site B is processed and output by the speaker 2B, so that the sound emitted by the user 0 is reflected at the site A.
- the sound field 100 that feels like this can be constructed at the site B.
- the measurement speaker 2A is arranged inside the closed curved surface 1A where a plurality of microphones 5A are arranged, and this is measured at the site B as a reproduction environment.
- the positional relationship between the closed curved surface 1B and the closed curved surface 4B can be reversed.
- the measurement speaker 2A is disposed outside the closed curved surface 1A (FIG. 5 and the like). See).
- the environmental sound of the site A is collected by the plurality of microphones 5A arranged at the site A, and the collected sound signals are closed.
- This can be realized by outputting from the corresponding speakers 2B on the curved surface 1B (especially when the number of speakers 2A arranged at the site B and the number of microphones 5A arranged at the site A are the same and have the same arrangement relationship. ).
- the recorded environmental sound is simply played in this way, it is necessary to record multiple times at that site when trying to reproduce two or more environmental sounds for one site. There are problems such as.
- object-based audio will be briefly described.
- sound recorded on conventional media such as CD (Compact Disc) and DVD (Digital Versatile Disc) is a package completed for each channel under the intention of the production side, and each channel contained in the package The sound signal has been made to correspond to the corresponding speaker channel, and the sound quality and sound field intended by the production side have been realized.
- CD Compact Disc
- DVD Digital Versatile Disc
- the sound field / sound quality that we want to hear is a set of “meta information” of “acoustic stream signal of each sound source” and “how the sound source moves and where it is” "Object-based audio (or sound field expression)” that entrusts the playback environment side to realize how to implement (render) according to the playback environment.
- An idea came out. With this object-based method, not only in the current situation where the playback environment is diversifying, but also in the case where the playback environment has improved dramatically in the future, the playback environment will be in accordance with the intention of the creator.
- the sound field and sound quality can be reproduced according to the nature and performance of the sound.
- renderers that realize the above "rendering”
- various renderers depending on the playback environment, ranging from the renderer for headphones to the sound field renderer with a large number of speakers for 22.2ch systems and Immersive environments.
- WFS Wide Field Synthesis
- BoSC Boundary Surface Control Principle
- Kirchhoff integration Various techniques are known, such as a technique that simplifies the rules (Japanese Patent No. 4775487, Japanese Patent No. 4675505, etc.).
- the sound source to be localized at an arbitrary position outside the closed curved surface 1B is localized at the position, and the position A transfer function for allowing the user 0 to perceive a more emitted sound in the form of being reverberated at the site A is measured.
- the sound (measurement signal) emitted from the measurement speaker 2A arranged at an arbitrary position outside the closed curved surface 1A where the plurality of microphones 5A are arranged is reflected on the site A.
- a transfer function (impulse response) representing how to reach each microphone 5A is measured including the influence.
- sound field reproduction using the transfer functions measured in Measurement 1 and Measurement 2 is realized based on the following concept. That is, assuming a wavefront when a sound reaching the closed curved surface 1B intersects the closed curved surface 1B, the assumed wavefront is reproduced from a plurality of speakers 2B so as to create the assumed wavefront inside the closed curved surface 1B. Is.
- FIG. 5 shows a plurality of speakers 2B and a closed curved surface 1B, a plurality of microphones 5B and a closed curved surface 4B arranged in a site B (reproduction environment) where the user 0 is located.
- the microphone 5B disposed at the site B is provided to collect sound generated by the user 0 in real time.
- the microphone 5B in order to realize a system in which the sound emitted by the user 0 located inside the closed curved surface 4B is output from the speaker 2B with the influence of reverberation at the site A, the microphone 5B is inward (closed curved surface 4B It is necessary to have directivity in the inner direction). For this reason, in this example, a directional microphone is used as each microphone 5B, and the microphone 5B is installed so that its directing direction is inward of the closed curved surface 4B.
- the speaker 2B is installed so that the sound generation direction is inward of the closed curved surface 1B. That is, a directional speaker is used as the speaker 2B, and the directivity is set inward.
- the direction of directivity is preferably perpendicular to the closed curved surface.
- the number of speakers 2B arranged at the site B is N and the number of microphones 5B arranged at the site B is M.
- the microphone 5B is disposed at each position of V1, V2, V3,..., VM on the closed curved surface 4B, and the speaker 2B is respectively W1, W2, W3,. ...
- the microphones 5B arranged at the respective positions may be referred to as microphones V1, V2, V3,.
- the speaker 2B may be referred to as speakers W1, W2, W3,.
- FIG. 6 and 7 are explanatory diagrams of a specific method for measuring the transfer function as the measurement 1.
- FIG. 6 and 7 show a plurality of speakers 2A and a closed curved surface 1A, and a plurality of microphones 5A and a closed curved surface 4A in the site A (measurement environment).
- the speaker 2A and the microphone 5A of the site A are obtained for the purpose of obtaining a transfer function for causing the user 0 to perceive the sound emitted from the user 0 and affected by the echo at the site A.
- 5A needs to have outward directivity. From this point, a directional speaker is used as the speaker 2A and the directivity is outward, and a directional microphone is also used as the microphone 5A so that the directivity direction is outward as shown in the figure. . Also in this case, it is desirable that the direction of directivity is perpendicular to the closed curved surface.
- the closed curved surface 4A at the site A has the same size and shape as the closed curved surface 4B at the site B, and the positional relationship (Q1, Q2, Q3, etc.) of each speaker 2A on the closed curved surface 4A. .., QM arrangement order and arrangement interval thereof) are the same as the positional relationship of the microphones 5B on the closed curved surface 4B (V1, V2, V3,..., VM arrangement order and arrangement interval thereof).
- the closed curved surface 1A at the site A has the same size and shape as the closed curved surface 1B at the site B, and the positional relationship of each microphone 5A on the closed curved surface 1A (R1, R2, R3,... It is assumed that the arrangement order and the arrangement interval thereof are the same as the positional relationship (the arrangement order of W1, W2, W3,..., WN and the arrangement interval thereof) of each speaker 2B on the closed curved surface 1B.
- the measurement sound is sequentially output from the speaker 2A at each position (Q1 to QM) on the closed curved surface 4A, and each of the closed surface 1A is output from the speaker 2A that outputs the measurement sound.
- Each transfer function up to the position (R1 to RN) of the microphone 5A is sequentially obtained.
- FIG. 6 shows a state in which the measurement sound is output from the speaker 2A at the position Q1, and the measurement sound affected by the reflection at the site A is collected by the microphones 5A of R1 to RN.
- N transfer functions from the speaker 2A at the position of Q1 to each microphone 5A of R1 to RN can be obtained based on the sound pickup signal of each microphone 5A thus obtained.
- the measurement sound a sound based on a TSP (Time Stretched Pulse) is also output, and the impulse response is measured from the collected sound signal.
- the impulse response data is a transfer function representing how a sound emitted from a certain speaker 2A reaches a certain microphone 5A under the influence of the echo of the site A.
- FIG. 7 shows a state in which the measurement sound is output from the speaker 2A at the position Q2, and the measurement sound affected by reflection at the site A is collected by the microphones 5A of R1 to RN. Based on the sound pickup signal of each microphone 5A obtained in this way, the impulse response from the speaker 2A at the position Q2 to each microphone 5A of R1 to RN is measured. As a result, N transfer functions from the speaker 2A at the position of Q2 to each of the microphones 5A of R1 to RN can be obtained.
- the measurement of the transfer function based on the collected sound signal by the microphones 5A of R1 to RN is executed up to the QM position by sequentially changing the speaker 2A that outputs the measurement sound.
- N transfer functions (denoted as QR 11 to QR 1N ) from the speaker 2A of Q1 to each microphone 5A of R1 to RN, and from the speaker 2A of Q2 to each microphone 5A of R1 to RN N transfer functions (denoted as QR 21 to QR 2N ),..., N transfer functions (denoted as QR M1 to QR MN ) from the speaker 2A of the QM to each microphone 5A of the R1 to RN, A total of M ⁇ N transfer functions are obtained.
- the measurement sound can be sequentially output at each position of Q1 to QM, and the number of speakers 2A required for this purpose is at least one. That is, the measurement necessary to obtain the above M ⁇ N transfer functions can be performed by sequentially arranging and sounding one speaker 2A at each position of Q1, Q2, Q3,..., QM. it can. However, since it is troublesome to move the speaker 2A for each measurement, in this example, the speaker 2A is arranged at each position of Q1 to QM, and the speaker 2A that outputs the measurement sound is sequentially selected from the speakers 2A. By selecting, it is assumed that M ⁇ N transfer functions are measured.
- the transfer function that is measured in the measurement 1 and represents how the sound generated by the user 0 is transmitted in response to the echo at the site A is also referred to as a first transfer function.
- FIG. 8 is an explanatory diagram of a system configuration for measuring a transfer function as the measurement 1 described above. As shown in FIG. 8, in order to realize measurement 1, M speakers 2A, N microphones 5A, and a measuring device 10 are provided.
- the measuring apparatus 10 includes M terminal portions 11 (11-1 to 11-M) for connecting M speakers 2A and N terminal portions 12 (for connecting N microphones 5A). 12-1 to 12-N).
- an ADC A / D converter
- amplifier unit 13 a transfer function measuring unit 14
- control unit 15 a measurement signal output unit 16
- DAC D / A converter
- amplifier unit 17 and a selector 18 are provided.
- the measurement signal output unit 16 outputs a TSP signal as a measurement signal to the DAC / amplifier unit 17 based on control by the control unit 15.
- the DAC / amplifier unit 17 D / A converts and amplifies the input measurement signal and outputs it to the selector 18.
- the selector 18 alternatively outputs the measurement signal input from the DAC / amplifier unit 17 to the terminal unit 11 (that is, the speaker 2A) designated by the control unit 15 among the terminal units 11-1 to 11-M. To do.
- the ADC / amplifier unit 13 amplifies and A / D-converts the collected sound signal from each microphone 5 ⁇ / b> A input from each terminal unit 12 and outputs the signal to the transfer function measurement unit 14.
- the transfer function measurement unit 14 measures an impulse response (transfer function) based on the collected sound signal from each microphone 5 ⁇ / b> A input from the ADC / amplifier unit 13.
- the control unit 15 is configured by a microcomputer including, for example, a CPU (Central Processing Unit), a ROM (Read Only Memory), and a RAM (Random Access Memory), and executes processing according to a program stored in the ROM or the like. Thus, the entire control of the measuring apparatus 10 is performed.
- the control unit 15 in this case controls the measurement signal output unit 16, the selector 18, and the transfer function measurement unit 14 so that the measurement operation as the measurement 1 described above is realized.
- the measurement signal output unit 16 and the selector 18 are controlled so that sound generation based on the measurement signal is sequentially performed from the respective speakers 2A of Q1, Q2, Q3,.
- the measurement timing by the transfer function measuring unit 14 is controlled so that the transfer function is measured based on the collected sound signal by each microphone 5A.
- the above-described measurement of M ⁇ N transfer functions is realized.
- the impulse response which is the time axis representation of the transfer function, includes direct sound and early reflection sound in addition to the reverberation sound component as shown in FIG. 9 depending on the directivity of each speaker and microphone. In some cases, these may be an impediment to the presence of the presence.
- the direct sound means sound emitted from the speaker 2A (without passing through reflection at the site A) and directly reaching the microphone 5A.
- the measured impulse response is decomposed into direct sound, early reflection sound, and reverberation sound on the time axis, and the balance is changed to re-synthesize.
- FIG. 10 shows a configuration for that purpose.
- the impulse response measurement data in the figure means impulse response data (time-axis waveform data) measured based on a sound collection signal from the microphone 5A.
- the impulse response measurement data is decomposed into a direct sound, initial reflected sound, and reverberation sound on the time axis by the signal component decomposition processing unit 19 as shown in the figure.
- the multipliers 20 and 21 change the balance (level adjustment), respectively.
- the adder 22 adds the components of the direct sound and the initial reflected sound that have been balanced in this way and the reverberant sound component obtained by the signal component decomposition processing unit 19. It is assumed that the transfer function used in this example is obtained by subjecting the measured (raw) impulse response data to the component decomposition / balance adjustment as described above.
- FIG. 11 is an explanatory diagram of a specific method of measuring a transfer function as the measurement 2.
- the measurement 2 is performed in such a manner that the sound source to be localized at an arbitrary position outside the closed curved surface 1B is localized at the position, and the sound emitted from the position is reflected by the site A. How the sound emitted from the measurement speaker 2A arranged at an arbitrary position outside the closed curved surface 1A reaches each microphone 5A including the influence of reverberation at the site A.
- a transfer function impulse response
- the speaker 2A is arranged at the position where the sound source to be reproduced is located at the site A, and the measurement sound output by the speaker 2A is collected by each microphone 5A on the closed curved surface 1A.
- Each measures impulse response.
- the same transfer function is measured at a plurality of positions in the site A. For example, after measuring the transfer function by emitting the measurement sound at the position of the speaker 2A indicated by the solid line in FIG. 11 and collecting the sound by each microphone 5A, the measurement sound is emitted at the position of the speaker 2A indicated by the broken line. In addition, the transfer function is measured by collecting sound by each microphone 5A. As described above, when there are a plurality of “positions where the sound source is to be localized”, the transfer function is measured for each “position where the sound source is to be localized”.
- the measurement 2 can obtain a transfer function that can express the directivity of the sound source depending on the direction in which the speaker 2A that emits the measurement sound is directed to the closed curved surface 1A. It is.
- the measurement 2 as described above can also be realized by using the measurement apparatus 10 shown in FIG.
- the number of connected speakers 2A is a number corresponding to the number of positions where the sound source is to be localized.
- the control unit 15 causes the selector 18 to sequentially select the speakers 2A to which the measurement sound is to be output, and the output timing of the measurement sound.
- the transfer function measuring unit 14 is controlled to execute the transfer function measurement process in synchronization with the above.
- the first transfer function includes the N transfer functions (QR 11 to QR 1N ) from the Q2 speaker 2A to the R1 to RN microphones 5A, and the Q2 speakers 2A to R1 to RN microphones 5A. Up to N transfer functions (QR 21 to QR 2N ),..., The total M ⁇ N of N transfer functions (Q R M1 to QR MN ) from the QM speaker 2A to the R1 to RN microphones 5A It is a piece.
- the number of speakers 2B arranged on the closed curved surface 1B is N, and therefore it is understood that the acoustic signals to be finally obtained are N systems.
- N the number of speakers 2B arranged on the closed curved surface 1B
- the acoustic signals to be finally obtained are N systems.
- the V 1 ⁇ V M is intended to mean a sound collection signal of the microphone V1 ⁇ VM.
- the W 1 signal the sounds emitted in the directions V1 to VM (Q1 to QM) are transferred to the W1 (R1) by the transfer functions (QR 11 , QR 21 ,..., QR M1 ), respectively.
- M signals obtained by processing with the corresponding one transfer function are added together.
- W 2 V 1 ⁇ QR 12 + V 2 ⁇ QR 22 + V 3 ⁇ QR 32 + ... + V M ⁇ QR M2
- W 3 V 1 ⁇ QR 13 + V 2 ⁇ QR 23 + V 3 ⁇ QR 33 + ... + V M ⁇ QR M3 It can be expressed as.
- the W 2 signal, the transfer function of the sound output in each direction V1 ⁇ VM (Q1 ⁇ QM) to each W2 (R2) (QR 12, QR 22, ⁇ , QR M2) of the corresponding M signals obtained by processing with a transfer function of 1 are added together, and the W 3 signal is a sound obtained in each direction of V1 to VM (Q1 to QM) by W3 (R3).
- the transfer functions QR 13 , QR 23 ,..., QR M3
- the M signals obtained by processing with the corresponding one transfer function are added.
- the other signals W 4 to W N are obtained in the same manner.
- Each of the speakers W1 to WN is made to cause the user 0 to perceive the sound field in which the sound generated by the user 0 in the closed curved surface 1B feels reverberating at the site A by performing the calculation represented by the above formula 2.
- Signals W 1 to W N to be output from 2B can be obtained.
- the method 2 using the second transfer function allows the user 0 to perceive the environmental sound at the site A including the echo at the site A.
- the processing by the transfer function is not performed on the sound collection signal from the microphone 5B.
- processing based on the second transfer function is performed on a predetermined sound source recorded in advance, not on a sound pickup signal from the microphone 5B.
- the processing is performed on a predetermined sound source using the second transfer function that is measured N for each placement position of one speaker 2A according to the previous measurement 2, so that the placement is performed on the site B as a reproduction environment.
- a signal to be output is obtained from each speaker 2B.
- N signals may be obtained by processing with the second transfer function, and these signals may be output from the corresponding one of the speakers 2B of W1 to WN in the reproduction environment.
- N second transfer functions obtained by measuring an acoustic signal based on the sound source A with respect to the position a.
- the acoustic signal based on the sound source B is processed with N second transfer functions obtained by the measurement for the position b, and N signals are obtained.
- Get a signal The N signals obtained for the sound source A side and the sound source B side are added for each position (W1 to WN) of the speaker 2B, and the signal to be output from the speaker 2B at each position of W1 to WN. Get.
- FIG. 12 is a diagram for explaining a configuration of a signal processing system for realizing the signal processing technique according to the embodiment described above.
- the signal processing system according to the present embodiment includes at least M microphones 5B, a signal processing device 30, N speakers 2B, a display device 3, and a server device 25. Configured.
- the server device 25 stores map data 25A, image data 25B, first transfer function information 25C, correspondence relationship information 25D, and object base data 25E.
- the map data 25A is data used for displaying the above map information (map image). Further, the image data 25B is image data regarding a place to be reproduced, for example, image data obtained by photographing the state of each place to be reproduced.
- the first transfer function information 25C represents information on the first transfer function measured for each place to be reproduced by the measurement 1 described above.
- the object base data 25E comprehensively represents the object base data used in the sound field reproduction as the method 2.
- the object base data 25E includes second transfer function information 25E1 that is information of a second transfer function measured for each place to be reproduced in the previous measurement 2, and an object separation sound source 25E2.
- the object separation sound source 25E2 is a sound source that exists at a location to be reproduced, and this can be considered as a required sound source extracted from a recorded signal at a location to be reproduced, for example.
- noise removal and reverberation suppression are performed on the recorded signal. Thereby, it is possible to obtain sound source data having a good S / N (noise-to-noise ratio) and suppressing reverberation. That is, sound source data suitable for object-based sound field reproduction can be obtained.
- the correspondence relationship information 25D is information used for realizing the operation of the system to display an image corresponding to a place corresponding to the designated position information and reproduce the sound field corresponding to the place. As shown in FIG. 13, the location, the image to be displayed corresponding to the location, the first transfer function used in the sound field reproduction of Method 1 corresponding to the location, and the location The information is obtained by associating the object separation sound source (object sound source in the figure) and the second transfer function used in the sound field reproduction of the method 2 described above.
- the image data, the first transfer function, the second transfer function, and the object separation sound source are each managed by an ID.
- the correspondence information 25D the image data to be used corresponding to the place, the first transfer function, the second transfer function, and the ID for the object separation sound source are described. From the ID, the image data 25B, the first transfer Of the actual data stored as the function information 25C, the second transfer function information 25E1, and the object separation sound source 25E2, actual data actually used can be specified.
- correspondence information 25D shown in this figure two object-separated sound sources and second transfer functions are associated with one place for each of the data used in the sound field reproduction of method 2, This corresponds to a method of localizing two sound sources at different positions for each place.
- the signal processing device 30 includes a communication unit 44, and the communication unit 44 can perform data communication with the server device 25 via a network 26 such as the Internet. It is possible.
- the signal processing device 30 has M terminal portions 31 (31-1 to 31-M) for connecting M microphones 5B and N terminal portions 39 for connecting N speakers 2B. (39-1 to 39-N) are provided.
- the signal processing device 30 is also provided with a terminal portion 43 for connecting the display device 3 shown in FIG.
- the signal processing apparatus 30 includes an ADC / amplifier unit 32, adders 33-1 to 33-M, howling control / echo cancel units 34 and 36, a matrix convolution unit 35, and adders 37-1 to 37-.
- N DAC / amplifier section 38, control section 40, operation section 41, display control section 42, communication section 44, memory 45, reference sound reproduction section 46, and bus 48 are provided.
- the matrix convolution unit 35, the control unit 40, the display control unit 42, the communication unit 44, the memory 45, the reference sound reproduction unit 46, and the rendering unit 47 are each connected to a bus 48, and are connected via the bus 48. Thus, mutual data communication can be performed.
- the collected sound signals from the microphones 5B input via the terminal units 31-1 to 31-M are A / D converted and amplified for each channel by the ADC / amplifier unit 32.
- the collected sound signal from each microphone 5B A / D converted and amplified for each channel by the ADC / amplifier unit 32 is input to the adder unit 33 of the corresponding channel among the adder units 33-1 to 33-M.
- the sound signal as the reference sound reproduced by the reference sound reproduction unit 46 is added to the collected sound signals of the channels V1 to VM. This will be explained later.
- the collected sound signals via the adding units 33-1 to 33-M are supplied to the howling control / echo canceling unit 34.
- This howling control / echo canceling unit 34 is provided together with the howling control / echo canceling unit 36 provided at the subsequent stage of the matrix convolution unit 35 in order to avoid feedback by feedback.
- these howling control / echo canceling units 34 and 36 are connected so that both can perform the cooperative processing.
- the microphone 5B and the speaker 2B are arranged in a reproduction environment, but the microphone 5B and the speaker 2B are arranged relatively close to each other. There is a possibility that an excessive oscillation operation may occur due to the action. Therefore, in this example, howling control / echo cancellation units 34 and 36 are provided to prevent the occurrence of such an excessive oscillation operation.
- the matrix convolution unit 35 performs processing based on the first transfer function on each signal picked up by each microphone 5B and input via the howling control / echo canceling unit 34, so that the sound field as the technique 1 is obtained. In order to realize reproduction, a signal to be output from each speaker 2B is generated. Specifically, the matrix convolution unit 35 applies the first transfer function (QR 11 ) instructed by the control unit 40 to the M signals (V 1 to V M ) input from the howling control / echo cancellation unit 34. ⁇ QR MN ) to generate N signals to be output from each speaker 2B in order to realize sound field reproduction as Method 1.
- FIG. 14 shows a specific internal configuration example of the matrix convolution unit 35.
- This figure shows a configuration example in the case of using a FIR (Finite Impulse Response) digital filter whose coefficient is a time-base expression (impulse response) of the first transfer function.
- signals V 1 to V M represent signals input to the matrix convolution unit 35 via the howling control / echo cancellation unit 34, as can be understood from FIG.
- Signals W 1 to W N represent signals input from the matrix convolution unit 35 to the howling control / echo cancellation unit 36.
- the filter 50 in this case is an FIR digital filter.
- the matrix convolution unit 35 is provided with N filters 50 (the end is 1 to N) for each of the signals V 1 to V M.
- a filter 50-11 ⁇ 50-1N inputting signals V 1 and the filter 50-21 ⁇ 50-2N inputting signals V 2, and inputs the signal V M filter 50-M1 ⁇ 50-MN It is shown as a representative.
- filter coefficients based on the first transfer functions QR 11 to QR 1N corresponding to the position of V1 (Q1) are set in the filters 50-11 to 50-1N to which the signal V 1 is input.
- the filter 50-21 ⁇ 50-2N inputting signals V 2 the filter coefficient based on the first transfer function QR 21 ⁇ QR 2N is set corresponding to the position of the V2 (Q2), and inputs the signal V M
- Filter coefficients based on the first transfer functions QR M1 to QR MN corresponding to the position of VM (QM) are set in the filters 50-M1 to 50-MN.
- each of the N filters 50 for inputting other signals also has N first filters corresponding to the microphone 5B positions where the signals are collected. Filter coefficients based on the transfer function are respectively set.
- the matrix convolution unit 35 is provided with N addition units 51 (51-1 to 51-N). These adders 51-1 to 51-N input corresponding signals among the signals subjected to the filter processing based on the corresponding first transfer function in the respective filters 50, and obtain signals W 1 to W N. Add. Specifically, the signal obtained by the filter 50 ending in one of the filters 50 is input to the adder 51-1 and the signal obtained by the filter 50 ending in 2 is input to the adder 51-2. Signal is input. Further, the signal obtained by the filter 50 ending in N is input to the adder 51-N. That is, M signals processed by the first transfer function at positions corresponding to the last numerical value among the positions W1 to WN (R1 to RN) are input to the adders 51-1 to 51-N. Is. Each of the adders 51-1 to 51-N adds (synthesizes) the M signals thus input.
- time axis calculation may be performed as time axis calculation.
- frequency calculation multiplication by a transfer function is performed.
- the N signals (W 1 to W N ) obtained by the matrix convolution unit 35 are processed by the howling control / echo cancellation unit 36 for each channel, and correspond to the addition units 37-1 to 37-N.
- the signals are input to the channel addition units 37, respectively.
- the addition units 37-1 to 37-N add the signal input from the rendering unit 47 to the signal input from the howling control / echo cancellation unit 36 and output the result to the DAC / amplifier unit 38.
- the DAC / amplifier unit 38 performs D / A conversion and amplification on the output signals from the adders 37-1 to 37-N for each channel, and outputs them to the terminal units 39-1 to 39-N.
- the speakers 2B of the respective channels W1 to WN perform sound generation according to the acoustic signals of the corresponding channels.
- the rendering unit 47 is provided to perform signal processing for realizing sound field reproduction as the technique 2.
- the rendering unit 47 performs processing based on the second transfer function similarly transmitted from the server device 25 via the network 26 to the object separation sound source transmitted from the server device 25 via the network 26 according to the instruction from the control unit 40.
- N types of acoustic signals to be output from each speaker 2B are generated.
- the rendering unit 47 obtains the sound sources by processing each sound source with the corresponding second transfer function (N). By adding the N systems of acoustic signals for each channel, N systems of acoustic signals to be output from each speaker 2B are obtained.
- the display control unit 42 performs display control of the display device 3 connected via the terminal unit 43. Specifically, the display control unit 42 in this case is transmitted from the server device 25 via the network 26 or an image based on the map data transmitted from the server device 25 via the network 26 based on an instruction from the control unit 40. An image based on the obtained image data is displayed on the display device 3.
- the memory 45 stores various data.
- the memory 45 in this case is used for temporarily storing (buffering) the data transmitted from the server device 25.
- the control unit 40 is composed of, for example, a microcomputer including a CPU, a ROM, a RAM, and the like, and performs overall control of the signal processing device 30 by executing processing according to a program stored in the ROM or the like, for example.
- An operation unit 41 is connected to the control unit 40, and the control unit 40 receives operation information corresponding to the operation by the user 0 performed on the operation unit 41, and corresponds to the operation information. By executing the processing, an operation corresponding to the operation by the user 0 is realized.
- control unit 40 in this case achieves the reproduction operation as the embodiment by executing the processing shown in FIG.
- FIG. 15 is a flowchart showing the contents of processing to be executed in the present system in order to realize the reproduction operation as the embodiment.
- the processing indicated as the signal processing device is executed by the control unit 40 included in the signal processing device 30, and the processing indicated as the server device is performed by the control unit (not shown) provided in the server device 25. Is to be executed.
- the processing shown in this figure is started, it is assumed that the required position information has already been specified based on the operation input of the user 0 via the operation unit 41.
- control unit 40 of the signal processing device 30 performs a process for transmitting the designated position information to the server device 25 in step S101. That is, the communication unit 44 causes the designated position information to be transmitted to the server device 25 via the network 26.
- the control unit of the server device 25 specifies a location corresponding to the designated position information in step S201.
- the location is identified with reference to, for example, predetermined positional information and location correspondence information.
- the control unit of the server device 25 receives the image data, the first transfer function, the second transfer function, and the object separation sound source corresponding to the location specified in step S202 as the signal processing device 30. Send to. Specifically, based on the correspondence information 25D, the image data 25B, the first transfer function information 25C, the second transfer function information 25E1, and the image data stored as the object separation sound source 25E2, the first transfer function, the second Of the transfer function and the object separation sound source, the image data corresponding to the specified location, the first transfer function, the second transfer function, and the object separation sound source are transmitted to the signal processing device 30.
- step S102 the image display, Process execution control using the second transfer function is performed. That is, for the image data transmitted from the server device 25 side, the display control unit 42 is instructed so that the image data is displayed on the display device 3. For the first transfer function transmitted from the server device 25 side, the matrix convolution unit 35 is instructed to execute the calculation of Expression 2 based on the first transfer function. For the second transfer function and the object separation sound source transmitted from the server device 25 side, the rendering unit 47 performs rendering processing based on the second transfer function and the object separation sound source. Give instructions.
- an image corresponding to the place specified from the designated position information can be presented to the user 0, and the sound field felt as if the sound emitted by the user 0 was reverberated at the place specified from the designated position information. And the environment sound of the place can be perceived by the user 0 including the reverberation sound at the place.
- the reference sound reproduction unit 46 is provided to output the reference sound.
- the reference sound not the real-time recording sound at the site B but sound data prepared in advance (which may be based on the collected sound or may be an artificial sound) is used.
- the intention is an echo location as in Method 1, and even if the location to be reproduced is different, the same sound source material is continuously output, so that the space is indicated in acoustic information. Is possible. In this case, it is possible to grasp the structure of the place by acoustic information with higher reproducibility than when only the sound collected in real time is processed and output by the first transfer function.
- the reference sound reproduced by the reference sound reproducing unit 46 is collected by the adder units 33-1 to 33-M and collected by the microphones 5B (A / D conversion and ADC / amplifier unit 32). Each is added after amplification).
- the matrix convolution unit 35 performs the calculation according to Equation 2 based on the collected sound signals (V 1 to V M ) of each channel to which the reference sound is added in this way.
- N-system signals (W 1 to W N ) obtained by such processing by the matrix convolution unit 35 are transferred via a howling control / echo canceling unit 36 ⁇ adding unit 37 ⁇ DAC / amplifying unit 38 ⁇ terminal unit 39. Each is output by the corresponding speaker 2B.
- the rendering process for realizing the method 2 is executed by the signal processing device 30 placed on the reproduction environment side where the user 0 is present is illustrated, but the rendering process is performed in the reproduction environment. It can also be performed by a required server device on the network 26 (that is, performed in a so-called cloud) that is separated from the network.
- FIG. 16 shows a system configuration example in the case where rendering processing for method 2 is performed on the cloud.
- the server apparatus 25 which stores data, such as map data 25A and 1st transfer function information 25C, and the server apparatus which performs a rendering process And may be separate.
- a rendering unit 52 is provided in the server device 25.
- the signal processing device 30 includes an output control unit 53 instead of the rendering unit 47.
- the server device 25 performs rendering processing using the second transfer function and the object separation sound source corresponding to the location in the rendering unit 52 in response to the location based on the designated position information being specified.
- the rendered acoustic signal (N system) obtained by the rendering unit 52 is transmitted from the server device 25 to the signal processing device 30.
- the control unit 40 in the signal processing device 30 in this case corresponds to the N-system acoustic signals transmitted from the server device 25 in this way by the output control unit 53 among the addition units 37-1 to 37-N. Each of the channels is output to the channel addition unit 37.
- whether the rendering process is performed on the signal processing device 30 side (local side) or on the cloud may be appropriately switched according to the speed of the network, the ratio of the cloud / local processing capability, and the like.
- the first transfer function information 25C and the object base data 25E are all stored in the server device 25. However, at least one of these pieces of information is stored in the signal processing device 30 side. You may let them. In that case, in the signal processing device 30, information on the first transfer function, the object separation sound source, and the second transfer function at the location specified from the designated position information is acquired from the storage unit in the signal processing device 30 and used for processing. It will be.
- FIG. 17 shows an example of the relationship between the closed curved surface 1B and the closed curved surface 4B.
- FIG. 17A is an example in which the closed curved surface 1B is set so as to surround the user 0 and the closed curved surface 1B is set inside the closed curved surface 4B.
- FIG. 17B is an example in which the closed curved surface 1B and the closed curved surface 4B are closer to each other in the example shown in FIG. 17A.
- FIG. 17C is an example in which the closed curved surface 1B and the closed curved surface 4B are both set to surround the user 0, but a part of the closed curved surface 1B protrudes outside the closed curved surface 4A.
- FIG. 17A is an example in which the closed curved surface 1B is set so as to surround the user 0 and the closed curved surface 1B is set inside the closed curved surface 4B.
- FIG. 17B is an example in which the closed curved surface 1B and the closed curved surface 4B are closer to each other in the example shown
- 17D is set so that only the closed curved surface 4B surrounds the user 0 in the example of FIG. 17C.
- the closed curved surface 1B is set inside the closed curved surface 4B and the closed curved surface 4B is set to surround the user 0.
- the closed curved surface 1B is set to surround the user 0. It is not.
- the closed curved surface 1B and the closed curved surface 4B may be set so that at least a part of them overlaps with each other. If the user exists in the overlapping area, the present technology is appropriately applied. It holds.
- the shape of the closed curved surface formed by the microphone and the speaker is not particularly limited as long as it can surround the user 0.
- the closed curved surface 1B-2 or a polygonal closed curved surface 1B-3 may be used.
- 18 illustrates the shape of the closed curved surface 1B formed by the plurality of speakers 2B, but the same applies to the shape of the closed curved surface 4B formed by the plurality of microphones 5B.
- the arrangement intervals of the speakers and the microphones on the closed curved surface should be arranged at intervals of a half wavelength or less of the target frequency.
- the number of speakers and microphones may be enormous. In practice, it is desirable to experience the effect and set a realistic number.
- the closed curved surface 1B is located inside the closed curved surface 4B, and the closed curved surface 4B is larger in size than the closed curved surface 1B. Even if the size is larger than the closed curved surface 4B, there is no problem.
- FIG. 19 shows a case where the closed curved surface 4B is set inside the closed curved surface 1B.
- the closed curved surface 4B is arranged inside the closed curved surface 1B in this way, in the site A as the measurement environment, the closed curved surface 4A on which the speaker 2A is arranged is arranged with the microphone 5A as shown in FIG. It is set inside the closed curved surface 1A.
- FIG. 21 shows an example of a configuration for obtaining an output equivalent to a directional microphone using the omnidirectional microphone 5A or 5B.
- microphones 5A or 5B are arranged in order from the end to the first to fifth as shown in the figure.
- two delay circuits each set of three, are provided (a set of delay circuits 54-11 to 54-13, and A set of delay circuits 54-21 to 54-23).
- the outputs from the delay circuits 54-11 to 54-13 are added by the adder 55-1, and the outputs from the delay circuits 54-21 to 54-23 are added by the adder 55-2 and output. Is done.
- the delay circuit 54-11 has the output of the first microphone 5A or 5B
- the delay circuit 54-12 has the output of the second microphone 5A or 5B
- the delay circuit 54-13 has the third microphone 5A or 5B.
- 5B outputs are input respectively.
- the delay circuit 54-21 has an output from the second microphone 5A or 5B
- the delay circuit 54-22 has an output from the third microphone 5A or 5B
- the delay circuit 54-23 has a fourth microphone 5A.
- the output of 5B is input.
- the sound collection signals of the first to third microphones 5A or 5B are output as the output of the adder 55-1.
- a sound pickup signal in a predetermined first direction that can be realized with the above can be obtained.
- the output of the adder 55-2 can be realized as a predetermined signal that can be realized by the collected sound signals of the second to fourth microphones 5A or 5B. In the second direction can be obtained.
- a microphone array By adding (synthesizing) the collected sound signals of the omnidirectional microphones arranged in this manner with an appropriate delay, a microphone array can be formed and an output equivalent to the directional microphone can be obtained.
- the collected sound signals from three microphones are delayed and added in order to realize one directivity direction. However, if the collected sound signals from at least two microphones are delayed and added. Directive expression is possible.
- FIG. 22 shows an example of a configuration for obtaining an output equivalent to a directional speaker by using the omnidirectional speaker 2A or 2B. Also in this case, it is assumed that the speakers 2A or 2B are arranged in order from the first to the fifth as shown in the figure. In addition to these first to fifth speakers 2A or 2B, two delay circuits each having a set of three are provided (a set of delay circuits 56-11 to 56-13 and a delay circuit 56-21 to 56). -23 pairs).
- acoustic signals to be output in the first direction are given to the delay circuits 56-11 to 56-13, and output in the second direction to the delay circuits 56-21 to 56-23.
- An acoustic signal to be given is given.
- the output of the delay circuit 56-11 is given to the first speaker 2A or 2B.
- the output of the delay circuit 56-12 and the output of the delay circuit 56-21 are added to the second speaker 2A or 2B by the adder 57-1 and given.
- the output from the delay circuit 56-13 and the output from the delay circuit 56-22 are added to the third speaker 2A or 2B by the adder 57-2.
- the output of the delay circuit 56-23 is given to the fourth speaker 2A or 2B.
- the delay amount of the delay circuits 56-11 to 56-13 the output sound from the first to third speakers 2A or 2B is output in a predetermined first direction. You can get a sound.
- an output sound in a predetermined second direction can be obtained as the output sound of the second to fourth speakers 2A or 2B. it can.
- the acoustic signal to be output in the first direction and the second direction is not supplied to the delay circuit 56 at the same time, but is given with a shifted timing.
- the measurement signal is given only to the delay circuits 56-11 to 56-13, not given to the delay circuits 56-21 to 56-23.
- the measurement signal is given only to the delay circuits 56-21 to 56-23 and not to the delay circuits 56-11 to 56-13. It is.
- a speaker array can be formed, and an action equivalent to that of a directional speaker can be obtained.
- FIG. 23 shows an example.
- the same closed curved surface 1B and closed curved surface 4B as those shown in FIG. 5 are set.
- the closed curved surface 1A having the same size and shape as the closed curved surface 1B and the closed curved surface 4A having the same size and same shape as the closed curved surface 4B are the closed curved surface, respectively.
- it should be set with the same positional relationship as the positional relationship between 1B and the closed curved surface 4B in practice this is very difficult.
- the speaker 2A disposed on the closed curved surface 4A ′ is an A-series measurement speaker.
- the microphone 5A arranged on the closed curved surface 1A ′ is a B-series measurement microphone.
- the speaker 2A arranged on the original closed curved surface 4A is the Q series and the microphone 5A arranged on the original closed curved surface 1A is the R series.
- the closed curved surface 4A ′ and the closed curved surface 4A are different in size and shape, the number of speakers 2A arranged is not necessarily the same.
- the number of speakers 2A arranged on the original closed curved surface 4A is M as described above, whereas the number of speakers 2A arranged on the closed curved surface 4A ′ is K.
- the number of microphones 5A arranged is not necessarily the same, and the number of microphones 5A arranged on the original closed curved surface 1A is the same as that described above.
- the number of microphones 5A arranged on the closed curved surface 4A ′ is L, whereas there are N as it is.
- M V-series microphones 5B are arranged on the closed curved surface 4B at the site B, and N W-series speakers 2B are arranged on the closed curved surface 1B.
- N W-series speakers 2B are arranged on the closed curved surface 1B.
- AB 11 to AB KL represent transfer functions from the A-series speaker positions (A1 to AK) to the B-series microphone positions (B1 to BL). These transfer functions of AB 11 to AB KL , like the previous transfer functions QR 11 to QR MN , sequentially output measurement sounds for each speaker position (in this case, K locations) in the measurement environment, and sequentially transfer them to each microphone. Each is measured from the result of sound collection at 5A (in this case, L).
- BR 11 to BR LN represent transfer functions from the B-sequence microphone positions (B1 to BL) to the R-sequence microphone positions (R1 to RN). These transfer functions BR 11 to BR LN can be used for a predetermined environment such as an anechoic room without actually constructing the closed curved surface 1A ′ and the closed curved surface 1A according to the positional relationship shown in FIG. Measurement is possible below. Specifically, when the closed curved surface 1A ′ and the closed curved surface 1A have the same size and shape as the closed curved surface 1a ′ and the closed curved surface 1a, the closed curved surface 1a ′ and the closed curved surface 1a are, for example, an anechoic chamber.
- QA 11 to QA MK represent transfer functions from the Q series speaker positions (Q1 to QM) to the A series speaker positions (A1 to AK). These transfer functions QA 11 to QA MK can also be measured, for example, in an anechoic room. Specifically, when the closed curved surface 4A and the closed curved surface 4A ′ have the same size and shape as the closed curved surface 4a and the closed curved surface 4a ′, the closed curved surface 4a and the closed curved surface 4a ′ are, for example, an anechoic chamber.
- the measurement sound is sequentially output from the respective positions (Q1 to QM) of the Q series as the closed curved surface 4a by the speakers.
- the microphones can be measured from the results of sound collection by microphones arranged at positions (A1 to AK) of the A series as the closed curved surface 4a ′.
- the transfer function group of the Q series ⁇ A series and the transfer function group of the B series ⁇ R series are separately measured, the size and shape of the closed curved surface are different between the measurement environment and the reproduction environment.
- the transfer function obtained in the measurement environment can be properly converted, and an appropriate sound field reproduction can be realized.
- Equation 3 above means that an appropriate sound field reproduction can be realized even when the number of microphones and speakers used in the reproduction environment and the measurement environment are different. For example, even in a case where a headphone device of L / R two channels is used in a reproduction environment, the same Q series ⁇ A series transfer function group and B series ⁇ R series transfer function group as described above. Thus, the sound field can be reproduced by converting the transfer function group obtained in the measurement environment into Equation 3 using these transfer function groups.
- the closed curved surface 1A is a Q series (M locations Q1 to QM), and the closed curved surface 1A ′ is a P sequence (J locations P1 to PJ).
- the transfer function measured at the site A which is the measurement environment in this case is the transfer function from the position to each of the microphone positions Q1 to QM. It becomes.
- These transfer functions are set as Q 1 to Q M. If the closed curved surface in the measurement environment and the closed curved surface in the reproduction environment have the same size and shape, the sound source S can be processed with the transfer functions Q 1 to Q M to reproduce an appropriate sound field.
- the transfer function group of the Q series ⁇ P series is measured under an environment such as an anechoic room, corresponding to the difference in size and shape between the closed curved surface 1A and the closed curved surface 1A ′.
- a closed curved surface 1A and a closed curved surface 1A ' are set in an anechoic chamber, and measurement sounds are sequentially output from the respective positions (Q1 to QM) of the Q series as the closed curved surface 1A by a speaker.
- the transfer functions QP 11 to QP MJ are measured from the results of sound collection by the microphones arranged at the respective positions (P1 to PJ) of the P series as the closed curved surface 1A ′.
- acoustic signals (X 1 to X J ) to be output from the J speakers (X 1 to XJ) arranged in the reproduction environment are obtained by the following Expression 4.
- method 2 can also cope with the case where the size and shape of the closed curved surface are different between the measurement environment and the reproduction environment (when the number of microphones in the measurement environment is different from the number of speakers in the reproduction environment). is there.
- FIG. 25 is an explanatory diagram of Measurement Example 1 using a moving object.
- a transfer function is measured by a vehicle 60 equipped with a plurality of speakers 2A and a plurality of microphones 5A.
- a plurality of speakers 2A and a plurality of microphones 5A having the arrangement shown in FIG. Measurement Example 1 is mainly suitable for measuring the first transfer function required in Method 1.
- the measurement and movement are repeated with the vehicle 60 as described above, and transfer functions at each location are sequentially acquired.
- FIG. 25B illustrates the contents of the database for the transfer function measured in Measurement Example 1.
- this database the correspondence between the transfer function ID, the sound generation position, the sound receiving position, the measurement date and time, and the data (impulse response measurement data) is taken.
- position information obtained by a GPS (Global Positioning System) receiver mounted on the vehicle 60 is used as the sound generation position information.
- the information of the sound receiving position is the identification number of the microphone 5A mounted on the vehicle 60.
- FIG. 26 is an explanatory diagram of Measurement Example 2 using a moving object.
- a plurality of microphones 5A are fixedly or semi-fixedly installed in the city. Examples of the installation position of the microphone 5A in the city include the ground, a power pole, a wall, and a sign. It is also conceivable to install the surveillance camera together.
- the vehicle 60 (mounted with the speaker 2A and the microphone 5A) used in Measurement Example 1 is used as the moving body.
- the first transfer function can be measured by the microphone 5A installed in the vehicle 60.
- the second transfer function is measured by receiving the measurement sound emitted from the speaker 2A installed in the vehicle 60 by the microphone 5A installed in the city (and the microphone A installed in the vehicle 60 may be used). Do it.
- the microphone 5A installed in the city
- many transfer functions can be obtained by one measurement.
- the database shown in FIG. 26B is different from the database shown in FIG. 25B in that the information on the sound receiving position is the absolute position information. This is because it is easy to specify the positional relationship with the pronunciation position when selecting a required transfer function from the database.
- FIG. 27 is an explanatory diagram of Measurement Example 3 and Measurement Example 4 using a moving body.
- Measurement examples 3 and 4 are measurement examples using a plurality of moving bodies.
- a vehicle 60, a vehicle 61 preceding the vehicle 60, and a vehicle 62 following the vehicle 60 are used as the moving body.
- a database as shown in FIG. 26B is constructed including the position (sound receiving position) of the microphone 5A on the vehicles 61 and 62.
- the first transfer function is measured using the microphone 5A in the city and the microphones 5A on the vehicles 61 and 62.
- the second transfer function it is possible to measure many transfer functions at a time using the microphone 5A in the city and the microphone 5A on the vehicles 61 and 62.
- the vehicle picks up sound while traveling, not when it is stopped. At that time, by recording the vehicle traveling speed at the time of sound collection in the database, the Doppler effect can be reduced later by signal processing.
- the microphone 5A when the microphone 5A is provided in the town, if the microphones 5A are directional microphones, it is very difficult to change the directivity direction after installation, and accordingly, the degree of freedom in measurement is hindered. . Considering this point, the directivity of the microphone 5A installed in the city can be changed by the above-described microphone array processing as a non-directional microphone. As a result, the degree of freedom of measurement can be improved, and this is very effective in obtaining a transfer function with more patterns.
- the sound field reproduction of the method 1 also performs noise removal, reverberation suppression, and the like on the collected sound signal by the microphone 5B. Can also be applied.
- a sound for reproducing the sound field is output from the speaker 2B arranged at the site B.
- the microphone 5B that picks up the sound emitted by the user 0 is disposed relatively close to the speaker 2B at the site B, the sound generated from the speaker 2B for reproducing the sound field is transmitted by the microphone 5B. Sound will be collected.
- the process based on the first transfer function should be performed only on the sound emitted by the user 0, but the process based on the first transfer function is performed on the sound to which the sound for reproducing the sound field is added. It means to end. Therefore, as described above, noise removal and reverberation suppression processing similar to those performed by the object-separated sound source is performed on the collected sound signal from the microphone 5B so that the sound component emitted from the user 0 is extracted. That is, the processing based on the first transfer function is performed on the sound source separated in this way. As a result, the S / N can be improved for the sound field reproduction of Method 1, and the quality of the sound field reproduction can be further improved.
- one image corresponding to one place is displayed.
- a different image may be displayed for each time zone.
- a plurality of images are taken and stored for each time zone at a place to be reproduced.
- the time zone according to the current time information timed by the signal processing device 30 placed in the reproduction environment, or the current time at the location to be reproduced (for example, the current time measured by the signal processing device 30).
- the image of the time zone according to (calculated from the time) is selected and displayed.
- an image in an arbitrary time zone designated by the user 0 may be selected and displayed.
- Such reproduction according to the time zone can also be applied to sound field reproduction as Method 2.
- a plurality of object-separated sound sources for each time zone are prepared for each location, and for example, a time zone corresponding to the current time in the reproduction environment or the location to be reproduced, or an arbitrary designated by the user 0
- the sound source in the time zone is output as a reproduced sound.
- the case where the location is reproduced according to the location information designated on the map is exemplified.
- information on the current location detected by the GPS may be used as the designated location information.
- the reproduction is performed for the place specified from the current position information detected by the GPS.
- this is suitable for a system in which a call partner of the user 0 who is in a reproduction environment is in a remote place and the sound field of the place where the call partner is located is reproduced.
- current position information detected by a mobile phone device used by the other party is transmitted to the server device 25, and the server device 25 identifies a corresponding location based on the current position information.
- a number of transfer functions are measured for various combinations of sound generation positions and sound reception positions in the city, and a transfer function required later is selected and used.
- a transfer function required later is selected and used.
- the microphone 5A when the microphone 5A is fixedly or semi-fixedly installed in the city, the sound of the place to be reproduced is picked up in real time by the microphone 5A, and this is signaled through the network 26 in a reproduction environment. 30 and may be output from the speaker 2B.
- a display control unit for displaying an image corresponding to a location specified from the specified position information on a required display unit;
- a sound collection signal input unit that inputs a sound collection signal from a sound collection unit that collects sound emitted by the user with a plurality of microphones arranged to surround the user;
- An acoustic signal processing unit for performing first acoustic signal processing comprising: a sound generation control unit that causes a sound based on the signal subjected to the first sound signal processing by the sound signal processing unit to be generated by a plurality of speakers arranged so as to surround the user.
- the addition part which adds the acoustic signal based on the sound source recorded in the place specified from the specified position information to the signal subjected to the first acoustic signal processing is described in (1). Signal processing device.
- the sound source is a sound source that has been decomposed into objects
- the adder is Based on the second transfer function that represents how the sound emitted from the outside of the closed curved surface in the location is transmitted to the closed curved surface side, measured at the location specified from the specified position information.
- An acoustic signal obtained by performing a second acoustic signal process for causing the sound signal based on the sound source to be perceived as if the sound based on the sound source is emitted at a place to be reproduced in the sound field. Is added to the signal subjected to the first acoustic signal processing.
- the signal processing device according to (2).
- the acoustic signal processing unit is The signal processing device according to any one of (1) to (3), wherein a required acoustic signal is added to the collected sound signal before the first acoustic signal processing is performed.
- the acoustic signal processing unit is The signal processing device according to any one of (1) to (4), wherein the first acoustic signal processing based on the first transfer function is performed on a sound source obtained by subjecting the collected sound signal to object decomposition.
- the first transfer function measured for each location to be reproduced is stored in an external device,
- the acoustic signal processing unit further includes an acquisition unit that acquires, from the external device, a transfer function to be used in the first acoustic signal processing based on the designated position information.
- the signal processing apparatus as described. (7)
- the object-decomposed sound source and the second transfer function for each location to be reproduced are stored in an external device, A rendering unit that performs the second acoustic signal processing;
- An acquisition unit for acquiring, from the external device, an acoustic signal based on the object-decomposed sound source and the second transfer function that the rendering unit should use in the second acoustic signal processing based on the designated position information;
- the adder is The sound obtained by performing the second acoustic signal processing based on the acoustic signal acquired by the rendering unit and the second transfer function by the rendering unit with respect to the signal subjected to the first acoustic signal processing.
- Add signals The signal processing device according to any one of (3) to (6) above.
- a rendering unit that executes the second acoustic signal processing is provided in an external device, And further comprising an acquisition unit for acquiring the acoustic signal obtained by performing the second acoustic signal processing from the external device;
- the adder is The signal processing device according to any one of (3) to (6), wherein the acoustic signal acquired by the acquisition unit is added to the signal subjected to the first acoustic signal processing.
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Acoustics & Sound (AREA)
- Stereophonic System (AREA)
- Circuit For Audible Band Transducer (AREA)
Abstract
Description
例えばこのような没入感ディスプレイを使って、先ほどの地図情報とリンクされた実際の写真を表示して(例えば人が等身大になるような処理を施して)臨場感を得ることが考えられている。
すなわち、本技術の信号処理装置は、指定された位置情報から特定される場所に対応する画像を所要の表示部に表示させる表示制御部を備える。
また、ユーザを取り囲むように配された複数のマイクロフォンで上記ユーザの発した音を収音する収音部による収音信号を入力する収音信号入力部を備える。
また、上記指定された位置情報から特定される場所において測定された、該場所内の閉曲面上から発せられた音が該場所で反響されて上記閉曲面側にどのように伝達するかを表す第1の伝達関数に基づき、上記収音信号入力部より入力された信号に対し、上記ユーザが発した音が上記位置情報から特定される場所で反響されたように感じられる音場を再現するための第1の音響信号処理を施す音響信号処理部を備える。
また、上記音響信号処理部により上記第1の音響信号処理が施された信号に基づく音を、上記ユーザを取り囲むように配された複数のスピーカにより発音させる発音制御部を備えるものである。
すなわち、本技術の信号処理方法は、表示部と、ユーザを取り囲むように配された複数のマイクロフォンにより上記ユーザの発した音を収音する収音部と、上記ユーザを取り囲むように配された複数のスピーカにより発音を行う発音部とを用いた信号処理方法であって、指定された位置情報から特定される場所に対応する画像を上記表示部に表示させる表示制御手順を有する。
また、上記指定された位置情報から特定される場所において測定された、該場所内の閉曲面側から発せられた音が該場所で反響されて上記閉曲面側にどのように伝達するかを表す第1の伝達関数に基づき、上記収音部による収音信号に対し、上記ユーザが発した音が上記位置情報から特定される場所で反響されたように感じられる音場を再現するための第1の音響信号処理を施す音響信号処理手順を有する。
また、上記音響信号処理手順により上記第1の音響信号処理が施された信号に基づく音を、上記発音部により発音させる発音制御手順を有するものである。
ここで、臨場感や没入感を増すためには、画像以外に空間情報を表現する「音」の存在が重要となる。従って上記本技術によれば、画像情報の提示のみを行う場合よりもユーザの没入感を高めることができる。
<1.実施の形態の信号処理システムで実現する再現手法の概要>
<2.音場再現の手法>
<3.音場再現のための測定手法>
(3-1.測定手法の概要)
(3-2.測定1について)
(3-3.測定2について)
<4.伝達関数に基づく音場再現>
(4-1.第1伝達関数に基づく音場再現)
(4-2.第2伝達関数に基づく音場再現)
<5.信号処理システムの構成>
<6.変形例>
(6-1.閉曲面について)
(6-2.指向性について)
(6-3.測定環境と再現環境とで閉曲面のサイズ・形状が異なる場合の対処)
(6-4.移動体を用いた測定手法)
(6-5.その他の変形例)
先ずは図1により、本実施の形態の信号処理システムで実現する再現手法の概要について説明しておく。
図1において、サイトAとは、ユーザ0を没入させたい場所、つまりはその情景や音の広がり等を再現したい場所(再現対象とする場所)を意味するものである。
また図中のサイトBは、再現対象とする場所の情景や音の広がりの再現を行う場所を意味する。このサイトBは、例えばユーザ0自身の部屋などと考えればよい。
図のようにサイドB内には、ユーザ0を取り囲むように配置された複数のスピーカ2Bと、画像表示を行う表示装置3とが設置されている。
没入したい場所の画像と共にその場所の音場100をユーザ0に提示することで、その場所に対するユーザ0の没入感をより高めることができる。
再現したい場所の指定は、例えばユーザ0により行う。例えば、本システムによるサービスを享受するにあたっては、表示装置3上に表示された地図画像から、任意の位置を指定する。この指定された位置の位置情報から、該位置に対応する場所が特定され、該場所について上記のような画像や音による再現を行う。
後述するように、本実施の形態では、このように複数のスピーカで取り囲んだ空間の他にも、複数のマイクロフォンで取り囲んで形成される空間も存在することになる。
本明細書においては、このように複数個のスピーカ又はマイクロフォンで取り囲んで形成される空間の界面、換言すれば、それら複数個のスピーカ又はマイクロフォン同士を結んで形成される空間の界面を、「音響閉曲面」或いは単に「閉曲面」と称することとする。
図1に示すように、サイトB内の複数のスピーカ2Bによって形成される音響閉曲面は、閉曲面1Bと表記する。
上記のように本実施の形態では、サイトBにおいてサイトAの音場を再現するが、この音場再現の具体的な手法として、本実施の形態では、主に図3に示される2つの手法(手法1及び手法2)を提案する。
先ず、手法1としては、サイトBにおける閉曲面1Bの内側に居るユーザ0が発した音(例えばユーザ0が発した声、物を落とした時の衝突音、食事中であれば食器等が触れ合う時の音など)が、サイトAで反響したように感じられる音場100を複数のスピーカ2Bによって再現するものである。後に詳述するように、この手法1の実現のためには、ユーザ0を取り囲むように配置した複数のマイク5Bによってユーザ0の発した音をリアルタイムに収音し、対応する伝達関数で処理することで、音場再現用の音響信号(スピーカ2Bより出力すべき音響信号)を生成することになる。
ここで、図中に示すように閉曲面1BがサイトA内にあるものと仮定し、該サイトA内における閉曲面1Bの外側の或る位置にて音が発せられたとした場合、該音は、閉曲面1Bに直接到達する成分の他に、サイトA内における構造物や障害物を介した反射音・残響音(各材質・構造ごとに異なる)の成分を伴う場合もある。手法2では、このような反響音も含めて、サイトAにおける環境音を知覚させるものである。
(3-1.測定手法の概要)
図4は、実施の形態の音場再現を実現するための伝達関数の測定手法について説明するための図である。
図4Aは、測定のためにサイトA内に配置する複数のマイク5Aを模式的に表す。
図4Bは、手法1に対応する測定手法(測定1と表記する)、図4Cは手法2に対応する測定手法(測定2)をそれぞれ模式的に表す。なお図4Dは、サイトAの環境音を、該サイトAに配置した複数のマイク5Aによりそのまま収録する手法を模式的に表している。
具体的に該測定1では、サイトAに配置した測定用のスピーカ2Aから外向きに発せられた音(測定用信号)が、サイトAにおける反響の影響を受けて、同じくサイトAに配置した各マイク5Aにどのように到達するかを表す伝達関数(インパルス応答)を測定する。
従ってこの伝達関数を用いて、サイトBのマイク5Bにより収音した信号(ユーザ0が発した音)を加工してスピーカ2Bにより出力することで、該ユーザ0が発した音がサイトAで反響したように感じられる音場100をサイトBにて構築することができる。
しかしながら、このように単に収録した環境音を流すとした場合は、1つのサイトについて2種以上の環境音を再現しようとしたときに、そのサイトにて複数回の収録を行うことが必要とされる等の問題がある。
例えばCD(Compact Disc)やDVD(Digital Versatile Disc)など従来のメディアに収録される音は、制作側の意図の下、チャンネル毎に完成されたパッケージとされており、パッケージに納められた各チャンネルの音響信号は対応するスピーカのチャンネルに対応して鳴らすことで、概ね制作側の意図する音質・音場を実現してきた。
しかしながら近年、制作側の意図として「聞かせたい」音場・音質などを、「各音源の音響ストリーム信号」と「その音源がどう動くか、どういう位置にあるか」の「メタ情報」のセット(暫定的にオブジェクトと呼ぶ)を複数個重ねたものと考え、これをどう再生環境に応じて実現(レンダリング)するかを再生環境側に委ねた「オブジェクトベースのオーディオ(または音場表現)」の考え方が出てきた。
このようなオブジェクトベースの手法により、再生環境の多様化が進みつつある現状においてだけでなく、再生環境が将来的に飛躍的な性能向上を行った場合でも、制作者の意図に応じて再生環境の性質・性能に合わせて、音場・音質の再現が可能となる。
具体的に、該測定2では、複数のマイク5Aが配される閉曲面1Aの外側の任意位置に配置した測定用のスピーカ2Aから発された音(測定用信号)が、サイトAにおける反響
の影響も含めて、各マイク5Aにどのように到達するかを表す伝達関数(インパルス応答)を測定する。
すなわち、閉曲面1Bに対して到達する音が該閉曲面1Bと交差するときの波面を想定したとき、該想定波面を、閉曲面1Bの内側に創造するように複数のスピーカ2Bから再生するというものである。
以下、測定1としての伝達関数の測定手法の具体的な例を図5~図7を参照して説明する。
先ず、図5に、ユーザ0の居るサイトB(再現環境)に配置された複数のスピーカ2B及び閉曲面1Bと、複数のマイク5B及び閉曲面4Bとを示す。先の説明からも理解されるように、サイトBに配置されるマイク5Bは、ユーザ0が発した音をリアルタイムに収音するために設けられたものである。
このとき、マイク5Bとしては、閉曲面4Bの内側に居るユーザ0が発した音をサイトAにおける反響の影響を与えてスピーカ2Bから出力するというシステムを実現する上では、内向き(閉曲面4Bの内側方向)の指向性を有することを要する。このため本例では、各マイク5Bとして有指向性のマイクロフォンを用い、その指向方向が閉曲面4Bの内側方向に向くように設置するものとしている。
また、スピーカ2Bとしては、その発音方向が閉曲面1Bの内側方向に向くように設置する。すなわち、スピーカ2Bとしては有指向性スピーカを用い、その指向性を内向きに設定する。
なおこのとき、指向性の方向は、閉曲面に対して垂直であることが望ましい。
なお以下では、上記の各位置に配置されたマイク5Bを、その配置位置に対応させてそれぞれマイクV1,V2,V3,・・・,VMと表記することもある。同様に、スピーカ2Bについても、それぞれその配置位置に対応させてスピーカW1,W2,W3,・・・,WNと表記することもある。
これら図6,図7では、サイトA(測定環境)における複数のスピーカ2A及び閉曲面1Aと、複数のマイク5A及び閉曲面4Aとを示している。
またサイトAの閉曲面1A上に配置されるマイク5Aの数はN個であるとし、それらの配置位置は図のようにR1,R2,R3,・・・,RNであるとする。
なおサイトAについても、上記の各位置に配置されたスピーカ2Aをその配置位置に対応させてそれぞれスピーカQ1,Q2,Q3,・・・,QMと表記し、またマイク5Aについてもそれぞれその配置位置に対応させてマイクR1,R2,R3,・・・,RNと表記することがある。
また、サイトAにおける閉曲面1Aは、サイトBにおける閉曲面1Bとそのサイズ・形状が同じで、且つ閉曲面1A上における各マイク5Aの位置関係(R1,R2,R3,・・・,RNの並び順及びそれらの配置間隔)は、閉曲面1B上における各スピーカ2Bの位置関係(W1,W2,W3,・・・,WNの並び順及びそれらの配置間隔)と同じであるとする。
このようにして得られる各マイク5Aの収音信号に基づき、Q1の位置のスピーカ2AからR1~RNの各マイク5AまでのN個の伝達関数を得ることができる。
このようにして得られる各マイク5Aの収音信号に基づき、Q2の位置のスピーカ2AからR1~RNの各マイク5Aまでのインパルス応答を測定する。これにより、Q2の位置のスピーカ2AからR1~RNの各マイク5AまでのN個の伝達関数を得ることができる。
得られる。
但し、測定ごとにスピーカ2Aを移動させるには煩わしさを伴うので、本例では、Q1~QMの各位置にスピーカ2Aを配置し、それらのスピーカ2Aのうち測定音を出力するスピーカ2Aを順次選択することで、M×N個の伝達関数の測定を行うものとする。
この図8に示されるように、測定1の実現のためには、M個のスピーカ2Aと、N個のマイク5Aと、測定装置10とを設ける。
セレクタ18は、DAC/アンプ部17から入力された測定用信号を、端子部11-1~11-Mのうち制御部15により指示された端子部11(つまりスピーカ2A)に択一的に出力する。
伝達関数測定部14は、制御部15からの指示に応じて、ADC/アンプ部13から入力された各マイク5Aからの収音信号に基づいてインパルス応答(伝達関数)の測定を行う。
特にこの場合の制御部15は、先に説明した測定1としての測定動作が実現されるように、測定用信号出力部16、セレクタ18、伝達関数測定部14に対する制御を行う。具体的には、Q1,Q2,Q3,・・・,QMの各スピーカ2Aより測定用信号に基づく発音が順次行われるように測定用信号出力部16及びセレクタ18に対する制御を行うと共に、各スピーカ2Aによる発音のタイミングに同期して、各マイク5Aによる収音信号に基づく伝達関数の測定が行われるように、伝達関数測定部14による測定タイミングを制御する。
これにより、前述したM×N個の伝達関数の測定が実現される。
なお確認のため述べておくと、直接音とは、スピーカ2Aから発せられ(サイトAでの反射を介さず)直接的にマイク5Aに到達する音を意味するものである。
図10にそのための構成を示した。
図中のインパルス応答測定データは、マイク5Aによる収音信号に基づき測定したインパルス応答のデータ(時間軸波形データ)を意味している。
このインパルス応答測定データを、図のように信号成分分解処理部19によって時間軸上で直接音、初期反射音、残響音に分解する。
直接音、初期反射音については、それぞれ乗算部20,21でそのバランスを変更(レベル調整)する。このようにバランス調整された直接音、初期反射音の成分と、信号成分分解処理部19で得られた残響音成分とを、加算部22により加算する。
本例で用いる伝達関数は、測定された(生の)インパルス応答データについて上記のような成分分解・バランス調整が行われたものであるとする。
図11は、測定2としての伝達関数の測定の具体的な手法についての説明図である。
前述のように測定2は、閉曲面1Bの外側の任意位置に定位されるべき音源を、該位置に定位させ、且つ該位置より発せられる音がサイトAでの反響を受けたかたちでユーザ0に知覚されるようにするべく、閉曲面1Aの外側の任意位置に配置した測定用のスピーカ2Aから発された音が、サイトAにおける反響の影響も含めて、各マイク5Aにどのように到達するかを表す伝達関数(インパルス応答)を測定するものである。
このように音源を「定位させたい位置」が複数ある場合には、その「定位させたい位置」ごとの伝達関数の測定を行う。
但しこの場合、スピーカ2Aの接続数は、音源を定位させたい位置の数に応じた数となる。具体的に、音源を定位させたい位置の数だけスピーカ2Aを接続した場合には、制御部15としては、測定音を出力すべきスピーカ2Aをセレクタ18に順次選択させ、且つ測定音の出力タイミングに同期して伝達関数の測定処理を実行するように伝達関数測定部14を制御することになる。
(4-1.第1伝達関数に基づく音場再現)
前述のように、第1伝達関数は、Q1のスピーカ2AからR1~RNの各マイク5AまでのN個の伝達関数(QR11~QR1N)、Q2のスピーカ2AからR1~RNの各マイク5AまでのN個の伝達関数(QR21~QR2N)、・・・,QMのスピーカ2AからR1~RNの各マイク5AまでのN個の伝達関数(QRM1~QRMN)の合計M×N個である。
この前提の下で、例えばW1の位置から出力すべき音響信号を考えてみると、このW1位置からは、ユーザ0から閉曲面4B上のV1~VMの各方向に発せられ、それぞれサイトAによる反響の影響を受けて該W1位置まで戻って来る音が出力されるべきものとなる。
すなわち、W1位置のスピーカ2Bより出力されるべき音響信号を信号W1とすると、該信号W1は、
W1=V1×QR11+V2×QR21+V3×QR31+・・・+VM×QRM1
と表すことができる。但し上式において、V1~VMはマイクV1~VMの収音信号を意味するものであるとする。
このようにW1信号としては、V1~VM(Q1~QM)の各方向に出た音を、それぞれW1(R1)への伝達関数(QR11,QR21,・・・,QRM1)のうち対応する1の伝 達関数で処理して得られるM個の信号を足し合わせたものとなる。
W2=V1×QR12+V2×QR22+V3×QR32+・・・+VM×QRM2
W3=V1×QR13+V2×QR23+V3×QR33+・・・+VM×QRM3
と表すことができる。すなわち、W2信号としては、V1~VM(Q1~QM)の各方向に出た音をそれぞれW2(R2)への伝達関数(QR12,QR22,・・・,QRM2)のうち対応する1の伝達関数で処理して得られるM個の信号を足し合わせたものであり、またW3信号は、V1~VM(Q1~QM)の各方向に出た音をそれぞれW3(R3)への伝達関数(QR13,QR23,・・・,QRM3)のうち対応する1の伝達関数で処理して得られるM個の信号を足し合わせたものとなる。
先の説明からも理解されるように、第2伝達関数を用いる手法2は、サイトAにおける環境音を該サイトAでの反響も含めてユーザ0に知覚させるものであって、手法1のように、マイク5Bによる収音信号に対して伝達関数による処理を施すものではない。
手法2では、マイク5Bによる収音信号ではなく、予め収録等された所定の音源に対して第2伝達関数による処理を施すことになる。
例えば最も簡易的な例として、或る1つの音源を或る1つの位置に定位させるとした場合には、該音源に基づく音響信号をそれぞれR1~RNの各位置の収音信号に基づき測定
した第2伝達関数で処理してN個の信号を得、これを再現環境におけるW1~WNのスピーカ2Bのうちそれぞれ対応する1のスピーカ2Bより出力すればよい。
或いは、音源Aを位置a、音源Bを位置bにそれぞれ定位させるといったときは、音源A側については、該音源Aに基づく音響信号を位置aについての測定で得たN個の第2伝達関数でそれぞれ処理してN個の信号を得、また音源B側については、該音源Bに基づく音響信号を位置bについての測定で得たN個の第2伝達関数でそれぞれ処理してN個の信号を得る。そして、これら音源A側、音源B側についてそれぞれ得たN個の信号を、スピーカ2Bの各位置(W1~WN)ごとに加算して、W1~WNの各位置のスピーカ2Bより出力すべき信号を得る。
図12は、上記により説明した実施の形態としての信号処理手法を実現するための信号処理システムの構成について説明するための図である。
この図12に示すように、本実施の形態の信号処理システムは、M個のマイク5Bと、信号処理装置30と、N個のスピーカ2Bと、表示装置3と、サーバ装置25とを少なくとも有して構成される。
具体的に、サーバ装置25には、地図データ25A、画像データ25B、第1伝達関数情報25C、対応関係情報25D、及びオブジェクトベースデータ25Eが格納されている。
オブジェクト分離音源25E2は、再現対象とする場所に存在する音源であり、これは、例えば再現対象とする場所での収録信号から所要の音源を抽出したものと考えればよい。この音源の抽出の処理としては、上記収録信号に対して、ノイズ除去や残響抑制などを行う。これにより、S/N(ノイズ対雑音比)の良い、残響感も抑制された音源データを得ることができる。すなわち、オブジェクトベースの音場再現に適した音源データを得ることができる。
対応関係情報25Dには、その場所に対応して用いられるべき画像データ、第1伝達関数、第2伝達関数、オブジェクト分離音源についてのIDが記述され、該IDから、画像データ25B、第1伝達関数情報25C、第2伝達関数情報25E1、オブジェクト分離音源25E2として格納される実データのうち実際に用いる実データを特定できるようになっている。
また信号処理装置30には、先の図1にも示した表示装置3を接続するための端子部43も設けられる。
また、信号処理装置30内部には、ADC/アンプ部32、加算部33-1~33-M、ハウリング制御/エコーキャンセル部34,36、マトリクスコンボリューション部35、加算部37-1~37-N、DAC/アンプ部38、制御部40、操作部41、表示制御部42、通信部44、メモリ45、リファレンス音再生部46、及びバス48が設けられる。
ここで、マトリクスコンボリューション部35、制御部40、表示制御部42、通信部44、メモリ45、リファレンス音再生部46、レンダリング部47は、それぞれバス48に接続されており、該バス48を介して相互にデータ通信を行うことが可能とされる。
該加算部33-1~33-Mによっては、V1~VMの各チャンネルの収音信号に対し、リファレンス音再生部46により再生されたリファレンス音としての音響信号が加算されるが、これについては後に改めて説明する。
このハウリング制御/エコーキャンセル部34は、マトリクスコンボリューション部35の後段に設けられたハウリング制御/エコーキャンセル部36と共に、フィードバックによるハウリングを避けるために設けられる。図のようにこれらハウリング制御/エコーキャンセル部34,36は、両者が連携処理できるように接続されている。
ここで、本システムでは、再現環境下においてマイク5Bとスピーカ2Bとを配置するが、これらマイク5Bとスピーカ2Bとについては比較的近接して配置されることになるため、場合によっては、両者の作用で過剰な発振動作が生じてしまう虞がある。そこで、本例ではハウリング制御/エコーキャンセル部34,36を設けて、このような過剰な発振動作の発生の防止を図るものとしている。
具体的にマトリクスコンボリューション部35は、ハウリング制御/エコーキャンセル部34より入力されたM個の信号(V1~VM)に対し、制御部40からの指示された第1伝達関数(QR11~QRMN)に基づく処理を施して、手法1としての音場再現の実現のために各スピーカ2Bより出力されるべきN個の信号を生成する。
なおこの図では、第1伝達関数を時間軸表現(インパルス応答化)したものを係数とするFIR(Finite Impulse Response)デジタルフィルタを使った場合の構成例を示している。
またこの図において、信号V1~VMは、先の図12からも理解されるようにハウリング制御/エコーキャンセル部34を介してマトリクスコンボリューション部35に入力される信号を表すものであり、また信号W1~WNはマトリクスコンボリューション部35からハウリング制御/エコーキャンセル部36に入力される信号を表すものとなる。
この場合のマトリクスコンボリューション部35には、信号V1~VMの各信号ごとに、それぞれN個のフィルタ50(末尾が1~Nとなる)が設けられる。この図では、信号V1を入力するフィルタ50-11~50-1Nと、信号V2を入力するフィルタ50-21~50-2Nと、信号VMを入力するフィルタ50-M1~50-MNとを代表して示している。
また信号V2を入力するフィルタ50-21~50-2Nには、V2(Q2)の位置に対応する第1伝達関数QR21~QR2Nに基づくフィルタ係数が設定され、信号VMを入力するフィルタ50-M1~50-MNには、VM(QM)の位置に対応する第1伝達関数QRM1~QRMNに基づくフィルタ係数が設定される。
図示は省略しているが、他の信号(V3~VM-1)を入力する各N個のフィルタ50にも、その信号が収音されるマイク5B位置に対応するN個の第1伝達関数に基づくフィルタ係数がそれぞれ設定されることになる。
具体的に、加算部51-1には、各フィルタ50のうち、末尾が1のフィルタ50で得られた信号が入力され、また加算部51-2には末尾が2のフィルタ50で得られた信号が入力される。また加算部51-Nには、末尾がNのフィルタ50で得られた信号が入力される。
つまり加算部51-1~51-Nには、W1~WN(R1~RN)の位置のうち、その末尾の数値に応じた位置の第1伝達関数で処理されたM個の信号が入力されるものである。
加算部51-1~51-Nの各々は、このように入力されたM個の信号をそれぞれ加算(合成)するものである。
マトリクスコンボリューション部35で得られたN個の信号(W1~WN)は、チャンネルごとにハウリング制御/エコーキャンセル部36による処理を経て、加算部37-1~37-Nのうち対応するチャンネルの加算部37にそれぞれ入力される。
レンダリング部47は、制御部40による指示に従って、ネットワーク26経由でサーバ装置25より送信されたオブジェクト分離音源に対し、同じくネットワーク26経由でサーバ装置25より送信された第2伝達関数に基づく処理を施すことで、サイトAにおける環境音を該サイトAでの反響も含めてユーザ0に知覚させるために各スピーカ2Bより出力されるべきN系統の音響信号を生成する。
なお先の説明からも理解されるように、複数の音源をそれぞれ別の位置に定位させる場合には、レンダリング部47は、各音源を対応する第2伝達関数(N個)で処理して得たN系統の音響信号を、チャンネルごとに加算することで、各スピーカ2Bより出力されるべきN系統の音響信号を得ることになる。
この制御部40には操作部41が接続されており、制御部40は、該操作部41に対して行われたユーザ0による操作に応じた操作情報の受付を行い、該操作情報に応じた処理を実行することで、ユーザ0による操作に応じた動作を実現する。
なお図15において、信号処理装置と示した処理は、信号処理装置30が備える制御部40によって実行されるものであり、サーバ装置と示した処理はサーバ装置25が備える制御部(不図示)によって実行されるものである。
また、この図に示す処理が開始されるにあたっては、既に、操作部41を介したユーザ0の操作入力に基づき、所要の位置情報の指定が為された状態にあるとする。
具体的には、対応関係情報25Dに基づき、画像データ25B、第1伝達関数情報25C、第2伝達関数情報25E1、オブジェクト分離音源25E2としてそれぞれ格納されている画像データ、第1伝達関数、第2伝達関数、オブジェクト分離音源のうちの、特定された場所と対応する画像データ、第1伝達関数、第2伝達関数、オブジェクト分離音源を信号処理装置30に対して送信する。
このリファレンス音としては、サイトBでのリアルタイムの収録音ではなく、予め準備された音データ(収音した音を元にしたものでも良いし、人工音でも良い)を使用する。
意図としては、手法1と同様にエコーロケーションであり、再現対象とする場所が異なっても、同じ音源素材を引き続き出力することで、その場所がどのような空間になっているか音響情報的に提示することが可能である。この場合、単にリアルタイム収音した音のみを第1伝達関数で処理して出力する場合よりも、高い再現性により音響情報による場所の構造等の把握が可能である。
マトリクスコンボリューション部35は、このようにリファレンス音が加算された各チャンネルの収音信号(V1~VM)に基づき先の式2による演算を行う。このようなマトリクスコンボリューション部35による処理で得られたN系統の信号(W1~WN)がハウリング制御/エコーキャンセル部36→加算部37→DAC/アンプ部38→端子部39を介して対応するスピーカ2Bによりそれぞれ出力される。
なおこの図では、レンダリング処理をサーバ装置25にて行う場合の構成例を示しているが、地図データ25Aや第1伝達関数情報25Cなどのデータを格納するサーバ装置とレンダリング処理を実行するサーバ装置とが別体であってもよい。
この場合、信号処理装置30に対しては、該レンダリング部52にて得られたレンダリング処理後の音響信号(N系統)がサーバ装置25より送信されてくる。
(6-1.閉曲面について)
ここで、これまでの説明では特に言及しなかったが、上記により説明した実施の形態としての音場再現手法を考慮すると、再現環境で複数のスピーカ2Bが配される閉曲面1Bと、同じく再現環境で複数のマイク5Bが配される閉曲面4Bとしては、少なくとも、それぞれがユーザ0を取り囲むように設定されていればよく、閉曲面1Bと閉曲面4Bは交差しても良いものである。
図17Aは、閉曲面1Bがユーザ0を取り囲むように設定され且つ閉曲面1Bが閉曲面4Bの内側に設定された例である。図17Bは図17Aに示す例において、閉曲面1Bと閉曲面4Bとがより近接した例である。また図17Cは閉曲面1Bと閉曲面4Bとが共にユーザ0を取り囲むように設定されるが、閉曲面1Bの一部が閉曲面4Aの外側にはみ出している例である。
また図17Dに示す例は、図17Cの例において、閉曲面4Bのみがユーザ0を取り囲むように設定されたものである。また図17Eに示す例は、閉曲面1Bが閉曲面4Bの内側に設定され且つ閉曲面4Bがユーザ0を取り囲むように設定されているが、閉曲面1Bがユーザ0を取り囲むようには設定されていないものである。
このように閉曲面1Bと閉曲面4Bとは、少なくともそれらの一部同士が重なる領域が形成されるように設定されればよく、該重なる領域内にユーザが存在すれば、本技術が適正に成り立つ。
なお図18では複数のスピーカ2Bによる閉曲面1Bの形状を例示したが、複数のマイク5Bによる閉曲面4Bの形状についても同様である。
実際においては、効果を体感してみて、現実的な数を設定することが望ましいものとなる。
このように閉曲面4Bが閉曲面1Bの内側に配置される場合には、測定環境としてのサイトAでは、図20に示すように、スピーカ2Aを配置する閉曲面4Aを、マイク5Aを配置する閉曲面1Aの内側に設定することになる。
これまでの説明では、マイク5A,5Bに関して、有指向性のマイクを用いる場合を例示したが、これらマイク5A,5Bに関しては、必ずしもデバイス単体として有指向性を有するものである必要性はなく、無指向性のマイクを用いることもできる。
その場合は、複数の無指向性マイクを用いていわゆるマイクアレーを形成することで、有指向性マイクと等価な出力を得ることが可能である。
図のようにマイク5A又は5Bが端から順に1番~5番まで配置されているとする。また、これら1番~5番のマイク5A又は5Bと共に、この場合は3つ1組とされた遅延回路が2つ設けられているとする(遅延回路54-11~54-13の組、及び遅延回路54-21~54-23の組)。図のように遅延回路54-11~54-13による出力は加算部55-1にて加算され、また遅延回路54-21~54-23による出力は加算部55-2にて加算されて出力される。
遅延回路54-11には1番のマイク5A又は5Bの出力が、また遅延回路54-12には2番のマイク5A又は5Bの出力が、遅延回路54-13には3番のマイク5A又は5Bの出力がそれぞれ入力される。また遅延回路54-21には2番のマイク5A又は5Bの出力が、また遅延回路54-22には3番のマイク5A又は5Bの出力が、遅延回路54-23には4番のマイク5A又は5Bの出力がそれぞれ入力される。
なお、図21の例では1つの指向方向を実現するために3つのマイクからの収音信号を遅延・加算するものとしたが、少なくとも2以上のマイクからの収音信号を遅延・加算すれば、指向性の表現は可能である。
図22は、無指向性のスピーカ2A又は2Bを用いて有指向性スピーカと等価な出力を得るための構成の例を示している。
この場合も図のようにスピーカ2A又は2Bが端から順に1番~5番まで配置されているとする。また、これら1番~5番のスピーカ2A又は2Bと共に、3つ1組とされた遅延回路が2つ設けられる(遅延回路56-11~56-13の組、及び遅延回路56-21~56- 23の組)。図のように遅延回路56-11~56-13に対しては、第1方向に出力すべき音響信号が与えられ、また遅延回路56-21~56-23に対しては第2方向に出力すべき音響信号が与えられる。
1番のスピーカ2A又は2Bには、遅延回路56-11の出力が与えられる。また、2番のスピーカ2A又は2Bには、遅延回路56-12の出力と遅延回路56-21の出力とが加算部57-1で加算されて与えられる。また3番のスピーカ2A又は2Bには、遅延回路56-13による出力と遅延回路56-22による出力とが加算部57-2で加算されて与えられる。また4番のスピーカ2A又は2Bには、遅延回路56-23の出力が与えられる。
これまでの説明では便宜上、サイトBとサイトAとの関係において、閉曲面1B,1Aの組と閉曲面4B,4Aの組とがそれぞれ同サイズ・同形状とされる場合を例示したが、実際には、再現環境のマイク・スピーカの配置に対して、測定環境でのスピーカ・マイク位置を正確に合わせるのは困難である。
図23に示すサイトBでは、先の図5に示したものと同じ閉曲面1B及び閉曲面4Bが設定されているとする。
この場合、測定環境としてのサイトAでは、理想的には、それぞれ閉曲面1Bと同サイズ・同形状による閉曲面1Aと、閉曲面4Bと同サイズ・同形状による閉曲面4Aとが、閉曲面1Bと閉曲面4Bとの位置関係と同じ位置関係で設定されるべきであるが、実際にはこれは非常に困難である。
この図の例ではサイトAにおいて、図のように閉曲面1Aとサイズ・形状の異なる閉曲面1A’と、閉曲面4Aとサイズ・形状が異なる閉曲面4A’とが設定されたものとする。
この場合、閉曲面4A’と閉曲面4Aとはサイズ・形状が異なるので、配置されるスピーカ2Aの数は同数とは限らない。本来の閉曲面4A上に配置されるスピーカ2Aの数は前述の通りM個であるのに対し、閉曲面4A’上に配置されるスピーカ2Aの数はK個とおく。
同様に、閉曲面1A’と閉曲面1Aとはサイズ・形状が異なるので配置されるマイク5Aの数は同数とは限らず、本来の閉曲面1A上に配置されるマイク5Aの数は前述の通りN個であるのに対し、閉曲面4A’上に配置されるマイク5Aの数はL個とおく。
この前提の下で、手法1としての適正な音場再現を実現するためには、次の式3に示すような伝達関数の変換を伴う演算を行って、各スピーカ2Bより出力すべき音響信号を得るものとすればよい。
これら伝達関数BR11~BRLNは、図中に示す位置関係による閉曲面1A’と閉曲面1AとをサイトAとしての測定環境に実際に構築せずとも、例えば無響室などの所定の環境下において測定が可能である。具体的には、閉曲面1A’、閉曲面1Aとそれぞれ同サイズ・同形状の閉曲面を閉曲面1a’、閉曲面1aとしたとき、これら閉曲面1a’と閉曲面1aを例えば無響室にて図中に示す閉曲面1A’と閉曲面1Aと同じ位置関係で設定し、閉曲面1a’としてのB系列の各位置(B1~BL)からスピーカにより順次測定音を出力し、それらを順次、閉曲面1aとしてのR系列の各位置(R1~RN)に配置したマイクで収音した結果からそれぞれ測定することができる。
これら伝達関数QA11~QAMKとしても、例えば無響室などで測定可能である。具体的には、閉曲面4A、閉曲面4A’とそれぞれ同サイズ・同形状の閉曲面を閉曲面4a、閉曲面4a’としたとき、これら閉曲面4aと閉曲面4a’を例えば無響室にて図中に示す閉曲面4Aと閉曲面4A’と同じ位置関係で設定し、閉曲面4aとしてのQ系列の各位置(Q1~QM)からスピーカにより順次測定音を出力し、それらを順次、閉曲面4a’としてのA系列の各位置(A1~AK)に配置したマイクで収音した結果からそれぞれ測定することができるものである。
具体的な手法については、本発明者らの提案による特許4775487号公報にも開示されているが、確認のため、以下にその手法の概要を説明しておく。説明は、先の図11を参照して行う
例えば、或る音源Sを定位させたい位置が1箇所であるとすると、この場合の測定環境であるサイトAで測定される伝達関数は、該位置からQ1~QMの各マイク位置までの伝達関数となる。これらの伝達関数をQ1~QMとおく。測定環境の閉曲面と再現環境の閉曲面とが同サイズ・同形状であれば、上記音源Sを該伝達関数Q1~QMで処理することで、適正な音場再現が可能である。
異なる場合(測定環境におけるマイクの数と再現環境におけるスピーカの数とが異なる場合)の対処が可能である。
実施の形態としての再現動作の実現のためには、多くの場所で、伝達関数の測定を行うことが望ましい。再現可能な場所をより多くできるためである。
多くの場所で効率良く伝達関数の測定を行うためには、スピーカ又はマイクを搭載した車輌などの移動体を用いることが有効である。
以下では、移動体を用いた測定手法の例について説明しておく。
この測定例1では、図25Aに示されるように、複数のスピーカ2Aと複数のマイク5Aとを搭載した車輌60により、伝達関数の測定を行う。この例では、先の図6に示した配置による複数のスピーカ2Aと複数のマイク5Aとが車輌60に搭載されている。測定例1は、主に、手法1で必要とされる第1伝達関数の測定に好適なものである。
図のようにこのデータベースでは、伝達関数IDと、発音位置と、受音位置と、測定日時と、データ(インパルス応答測定データ)との対応が取られる。この場合、発音位置の情報は、車輌60に搭載されたGPS(Global Positioning System)受信装置による位置情報を用いる。また、この場合の受音位置の情報は、車輌60に搭載されたマイク5Aの識別番号としている。
図26Aに示されるように、この測定例2では、街の中に固定的又は半固定的に複数のマイク5Aが設置される。街中におけるマイク5Aの設置位置としては、例えば地面、電柱、壁、標識などを挙げることができる。また、監視カメラに対して併せて設置するなども考えられる。
この車輌60に設置のマイク5Aにより、第1伝達関数の測定を行うことができる。
この図26Bに示すデータベースについて、先の図25Bに示したデータベースとの違いは、受音位置の情報が絶対位置情報とされる点である。これは、データベースから必要とされる伝達関数を選ぶ際に、発音位置との位置関係の特定を容易とするためである。
測定例3,4は、複数の移動体を用いた測定例となる。
図27Aに示す測定例3では、移動体として、車輌60と、車輌60に対して先行する車輌61と、車輌60に対して後行する車輌62とを用いている。
この場合は、街中のマイク5Aと、車輌61,62上のマイク5Aとを用いて第1伝達関数の測定を行うことになる。
また、この場合も第2伝達関数については、街中のマイク5Aと車輌61,62上のマイク5Aとを用いて、1度に数多くの伝達関数の測定が可能となる。
ここで、本技術については、以下のような変形例も可能である。
これまでの説明では、手法2の音場再現に関して、オブジェクト分離音源を用いる場合を例示したが、手法1の音場再現についても、マイク5Bによる収音信号に対して、ノイズ除去や残響抑制などの処理を施すこともできる。
ここで、手法1では、サイトBに配置されたスピーカ2Bより音場再現のための音が出力される。このとき、サイトBではユーザ0の発した音を収音するマイク5Bがスピーカ2Bに比較的近接して配置されるので、上記音場再現のためにスピーカ2Bよりされた音が、マイク5Bによって収音されることになる。これは、本来はユーザ0が発した音についてのみ第1伝達関数による処理が施されるべきであるのに、音場再現用の音が加わった音について第1伝達関数による処理が施されてしまうことを意味する。
そこで、上記のようにマイク5Bによる収音信号に対しオブジェクト分離音源と同様のノイズ除去や残響抑制の処理を施して、ユーザ0から発せられた音の成分が抽出されるようにする。すなわち、このようにオブジェクト分離した音源に対して第1伝達関数による処理が施されるようにするものである。これにより、手法1の音場再現について、S/Nの向上が図られ、音場再現の品質をさらに向上することができる。
このような時間帯に応じた再現を実現することで、より臨場感を増すことができる。
これは例えば、再現環境に居るユーザ0の通話相手が遠隔地に居て、該通話相手の居る場所の音場を再現するといったシステムに好適なものである。この場合は、例えば通話相手の使用する携帯電話装置などで検出された現在位置情報がサーバ装置25に送信され、該現在位置情報に基づきサーバ装置25が対応する場所を特定することになる。
(1)
指定された位置情報から特定される場所に対応する画像を所要の表示部に表示させる表示制御部と、
ユーザを取り囲むように配された複数のマイクロフォンで上記ユーザの発した音を収音する収音部による収音信号を入力する収音信号入力部と、
上記指定された位置情報から特定される場所において測定された、該場所内の閉曲面上から発せられた音が該場所で反響されて上記閉曲面側にどのように伝達するかを表す第1の伝達関数に基づき、上記収音信号入力部より入力された信号に対し、上記ユーザが発した音が上記位置情報から特定される場所で反響されたように感じられる音場を再現するための第1の音響信号処理を施す音響信号処理部と、
上記音響信号処理部により上記第1の音響信号処理が施された信号に基づく音を、上記ユーザを取り囲むように配された複数のスピーカにより発音させる発音制御部と
を備える信号処理装置。
(2)
上記指定された位置情報から特定される場所で収録された音源に基づく音響信号を、上記第1の音響信号処理を施した信号に対して加算する加算部をさらに備える
上記(1)に記載の信号処理装置。
(3)
上記音源はオブジェクト分解された音源とされ、
上記加算部は、
上記指定された位置情報から特定される場所において測定された、該場所内の閉曲面の外側から発せられた音が上記閉曲面側にどのように伝達するかを表す第2の伝達関数に基づき、上記音源に基づく音響信号に対し、上記音源に基づく音が上記音場再現の対象とする場所で発せられたように知覚させるための第2の音響信号処理が施されて得られた音響信号を、上記第1の音響信号処理を施した信号に対して加算する
上記(2)に記載の信号処理装置。
(4)
上記音響信号処理部は、
所要の音響信号を上記第1の音響信号処理が施される前の上記収音信号に対して加算する
上記(1)乃至(3)何れかに記載の信号処理装置。
(5)
上記音響信号処理部は、
上記収音信号をオブジェクト分解して得た音源に対して、上記第1の伝達関数に基づく上記第1の音響信号処理を施す
上記(1)乃至(4)何れかに記載の信号処理装置。
(6)
音場再現の対象とする場所ごとに測定された上記第1の伝達関数が外部装置に記憶されており、
上記指定された位置情報に基づき、上記音響信号処理部が上記第1の音響信号処理で用いるべき伝達関数を上記外部装置から取得する取得部をさらに備える
上記(1)乃至(5)何れかに記載の信号処理装置。
(7)
音場再現の対象とする場所ごとの上記オブジェクト分解された音源及び上記第2の伝達関数が外部装置に記憶され、
上記第2の音響信号処理を実行するレンダリング部をさらに備えると共に、
上記指定された位置情報に基づき、上記レンダリング部が上記第2の音響信号処理で用いるべき上記オブジェクト分解された音源に基づく音響信号及び上記第2の伝達関数を上記外部装置から取得する取得部をさらに備え、
上記加算部は、
上記第1の音響信号処理を施した信号に対し、上記レンダリング部が上記取得部により取得した上記音響信号及び上記第2の伝達関数に基づく上記第2の音響信号処理を行って得た上記音響信号を加算する
上記(3)乃至(6)何れかに記載の信号処理装置。
(8)
上記第2の音響信号処理を実行するレンダリング部が外部装置に設けられ、
上記外部装置より上記第2の音響信号処理が施されて得られた上記音響信号を取得する取得部をさらに備えると共に、
上記加算部は、
上記第1の音響信号処理を施した信号に対し、上記取得部により取得した上記音響信号を加算する
上記(3)乃至(6)何れかに記載の信号処理装置。
表示装置、5A,5B マイク、10 測定装置、11-1~11-M,12-1~12-N,39-1~39-N,43 端子部、13,32 ADC/アンプ部、14 伝達関数測定部、15,40 制御部、16 測定用信号出力部、17,38 DAC/アンプ部、18 セレクタ、19 信号成分分解処理部19、20,21 乗算部、22,31-1~33-M,37-1~37-N,51-1~51-N,55-1,55-2,57-1,57-2 加算部、25 サーバ装置、26 ネットワーク、30 信号処理装置、34,36 ハウリング制御/エコーキャンセル部、41 操作部、42 表示制御部、44 通信部、45 メモリ、46 リファレンス音再生部、47,52 レンダリング部、50-11~50-1N,50-21~50-2N,50-M1~50-MN フィルタ、53 出力制御部、54-11~54-13,54-21~54-23,56-11~56-13,56-21~56-23 遅延回路
Claims (9)
- 指定された位置情報から特定される場所に対応する画像を所要の表示部に表示させる表示制御部と、
ユーザを取り囲むように配された複数のマイクロフォンで上記ユーザの発した音を収音する収音部による収音信号を入力する収音信号入力部と、
上記指定された位置情報から特定される場所において測定された、該場所内の閉曲面上から発せられた音が該場所で反響されて上記閉曲面側にどのように伝達するかを表す第1の伝達関数に基づき、上記収音信号入力部より入力された信号に対し、上記ユーザが発した音が上記位置情報から特定される場所で反響されたように感じられる音場を再現するための第1の音響信号処理を施す音響信号処理部と、
上記音響信号処理部により上記第1の音響信号処理が施された信号に基づく音を、上記ユーザを取り囲むように配された複数のスピーカにより発音させる発音制御部と
を備える信号処理装置。 - 上記指定された位置情報から特定される場所で収録された音源に基づく音響信号を、上記第1の音響信号処理を施した信号に対して加算する加算部をさらに備える
請求項1に記載の信号処理装置。 - 上記音源はオブジェクト分解された音源とされ、
上記加算部は、
上記指定された位置情報から特定される場所において測定された、該場所内の閉曲面の外側から発せられた音が上記閉曲面側にどのように伝達するかを表す第2の伝達関数に基づき、上記音源に基づく音響信号に対し、上記音源に基づく音が上記音場再現の対象とする場所で発せられたように知覚させるための第2の音響信号処理が施されて得られた音響信号を、上記第1の音響信号処理を施した信号に対して加算する
請求項2に記載の信号処理装置。 - 上記音響信号処理部は、
所要の音響信号を上記第1の音響信号処理が施される前の上記収音信号に対して加算する
請求項1に記載の信号処理装置。 - 上記音響信号処理部は、
上記収音信号をオブジェクト分解して得た音源に対して、上記第1の伝達関数に基づく上記第1の音響信号処理を施す
請求項1に記載の信号処理装置。 - 音場再現の対象とする場所ごとに測定された上記第1の伝達関数が外部装置に記憶されており、
上記指定された位置情報に基づき、上記音響信号処理部が上記第1の音響信号処理で用いるべき伝達関数を上記外部装置から取得する取得部をさらに備える
請求項1に記載の信号処理装置。 - 音場再現の対象とする場所ごとの上記オブジェクト分解された音源及び上記第2の伝達関数が外部装置に記憶され、
上記第2の音響信号処理を実行するレンダリング部をさらに備えると共に、
上記指定された位置情報に基づき、上記レンダリング部が上記第2の音響信号処理で用いるべき上記オブジェクト分解された音源に基づく音響信号及び上記第2の伝達関数を上記外部装置から取得する取得部をさらに備え、
上記加算部は、
上記第1の音響信号処理を施した信号に対し、上記レンダリング部が上記取得部により取得した上記音響信号及び上記第2の伝達関数に基づく上記第2の音響信号処理を行って得た上記音響信号を加算する
請求項3に記載の信号処理装置。 - 上記第2の音響信号処理を実行するレンダリング部が外部装置に設けられ、
上記外部装置より上記第2の音響信号処理が施されて得られた上記音響信号を取得する取得部をさらに備えると共に、
上記加算部は、
上記第1の音響信号処理を施した信号に対し、上記取得部により取得した上記音響信号を加算する
請求項3に記載の信号処理装置。 - 表示部と、ユーザを取り囲むように配された複数のマイクロフォンにより上記ユーザの発した音を収音する収音部と、上記ユーザを取り囲むように配された複数のスピーカにより発音を行う発音部とを用いた信号処理方法であって、
指定された位置情報から特定される場所に対応する画像を上記表示部に表示させる表示制御手順と、
上記指定された位置情報から特定される場所において測定された、該場所内の閉曲面側から発せられた音が該場所で反響されて上記閉曲面側にどのように伝達するかを表す第1の伝達関数に基づき、上記収音部による収音信号に対し、上記ユーザが発した音が上記位置情報から特定される場所で反響されたように感じられる音場を再現するための第1の音響信号処理を施す音響信号処理手順と、
上記音響信号処理手順により上記第1の音響信号処理が施された信号に基づく音を、上記発音部により発音させる発音制御手順と
を有する信号処理方法。
Priority Applications (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP13852010.1A EP2916568B1 (en) | 2012-11-02 | 2013-09-12 | Signal processing device and signal processing method |
US14/438,437 US10175931B2 (en) | 2012-11-02 | 2013-09-12 | Signal processing device and signal processing method |
JP2014544375A JP6202003B2 (ja) | 2012-11-02 | 2013-09-12 | 信号処理装置、信号処理方法 |
CN201380055937.2A CN104756525B (zh) | 2012-11-02 | 2013-09-12 | 信号处理装置和信号处理方法 |
US16/201,794 US10795639B2 (en) | 2012-11-02 | 2018-11-27 | Signal processing device and signal processing method |
US16/896,177 US20200301656A1 (en) | 2012-11-02 | 2020-06-08 | Signal processing device and signal processing method |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012-242874 | 2012-11-02 | ||
JP2012242874 | 2012-11-02 |
Related Child Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
US14/438,437 A-371-Of-International US10175931B2 (en) | 2012-11-02 | 2013-09-12 | Signal processing device and signal processing method |
US16/201,794 Continuation US10795639B2 (en) | 2012-11-02 | 2018-11-27 | Signal processing device and signal processing method |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2014069112A1 true WO2014069112A1 (ja) | 2014-05-08 |
Family
ID=50627029
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2013/074744 WO2014069112A1 (ja) | 2012-11-02 | 2013-09-12 | 信号処理装置、信号処理方法 |
Country Status (5)
Country | Link |
---|---|
US (3) | US10175931B2 (ja) |
EP (1) | EP2916568B1 (ja) |
JP (2) | JP6202003B2 (ja) |
CN (1) | CN104756525B (ja) |
WO (1) | WO2014069112A1 (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015194075A1 (ja) * | 2014-06-18 | 2015-12-23 | ソニー株式会社 | 画像処理装置、画像処理方法及びプログラム |
WO2018070487A1 (ja) * | 2016-10-14 | 2018-04-19 | 国立研究開発法人科学技術振興機構 | 空間音響生成装置、空間音響生成システム、空間音響生成方法、および、空間音響生成プログラム |
US11259116B2 (en) | 2017-07-07 | 2022-02-22 | Yamaha Corporation | Sound processing method, remote conversation method, sound processing device, remote conversation device, headset, and remote conversation system |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9602916B2 (en) | 2012-11-02 | 2017-03-21 | Sony Corporation | Signal processing device, signal processing method, measurement method, and measurement device |
CN104756525B (zh) | 2012-11-02 | 2017-04-12 | 索尼公司 | 信号处理装置和信号处理方法 |
US10674304B2 (en) * | 2015-10-09 | 2020-06-02 | Sony Corporation | Signal processing apparatus and signal processing method |
KR20190113778A (ko) | 2017-01-31 | 2019-10-08 | 소니 주식회사 | 신호 처리 장치, 신호 처리 방법 및 컴퓨터 프로그램 |
KR102502383B1 (ko) * | 2017-03-27 | 2023-02-23 | 가우디오랩 주식회사 | 오디오 신호 처리 방법 및 장치 |
CN110738992B (zh) * | 2018-07-20 | 2022-01-07 | 珠海格力电器股份有限公司 | 语音信息的处理方法及装置、存储介质、电子装置 |
GB2590906A (en) * | 2019-12-19 | 2021-07-14 | Nomono As | Wireless microphone with local storage |
WO2022113289A1 (ja) * | 2020-11-27 | 2022-06-02 | ヤマハ株式会社 | ライブデータ配信方法、ライブデータ配信システム、ライブデータ配信装置、ライブデータ再生装置、およびライブデータ再生方法 |
WO2024065256A1 (en) * | 2022-09-28 | 2024-04-04 | Citrix Systems, Inc. | Positional and echo audio enhancement |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006085214A (ja) * | 2004-09-14 | 2006-03-30 | Noritsu Koki Co Ltd | 写真処理装置 |
JP2007124023A (ja) * | 2005-10-25 | 2007-05-17 | Sony Corp | 音場再現方法、音声信号処理方法、音声信号処理装置 |
JP2008227773A (ja) * | 2007-03-09 | 2008-09-25 | Advanced Telecommunication Research Institute International | 音響空間共有装置 |
JP4674505B2 (ja) | 2005-08-01 | 2011-04-20 | ソニー株式会社 | 音声信号処理方法、音場再現システム |
JP4725234B2 (ja) | 2005-08-05 | 2011-07-13 | ソニー株式会社 | 音場再現方法、音声信号処理方法、音声信号処理装置 |
JP2011138151A (ja) * | 2011-02-15 | 2011-07-14 | Sony Corp | 音声信号処理方法、音場再現システム |
JP4735108B2 (ja) | 2005-08-01 | 2011-07-27 | ソニー株式会社 | 音声信号処理方法、音場再現システム |
JP4775487B2 (ja) | 2009-11-24 | 2011-09-21 | ソニー株式会社 | 音声信号処理方法、音声信号処理装置 |
JP4883197B2 (ja) | 2010-02-15 | 2012-02-22 | ソニー株式会社 | 音声信号処理方法、音場再現システム |
Family Cites Families (36)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
NL8800745A (nl) * | 1988-03-24 | 1989-10-16 | Augustinus Johannes Berkhout | Werkwijze en inrichting voor het creeren van een variabele akoestiek in een ruimte. |
JP2828543B2 (ja) | 1991-08-02 | 1998-11-25 | シャープ株式会社 | スピーカ駆動回路 |
JPH08272380A (ja) | 1995-03-30 | 1996-10-18 | Taimuuea:Kk | 仮想3次元空間音響の再生方法および装置 |
CA2328885C (en) | 1998-04-23 | 2009-06-23 | Industrial Research Limited | An in-line early reflection enhancement system for enhancing acoustics |
JP2000099061A (ja) | 1998-09-25 | 2000-04-07 | Sony Corp | 効果音付加装置 |
JP3584800B2 (ja) | 1999-08-17 | 2004-11-04 | ヤマハ株式会社 | 音場再現方法およびその装置 |
JP2003323179A (ja) | 2002-02-27 | 2003-11-14 | Yamaha Corp | インパルス応答測定方法、音場再生方法、インパルス応答測定装置および音場再生装置 |
US20080056517A1 (en) * | 2002-10-18 | 2008-03-06 | The Regents Of The University Of California | Dynamic binaural sound capture and reproduction in focued or frontal applications |
WO2006050353A2 (en) * | 2004-10-28 | 2006-05-11 | Verax Technologies Inc. | A system and method for generating sound events |
JP4426484B2 (ja) * | 2005-03-11 | 2010-03-03 | 株式会社日立製作所 | 音声会議システム、会議端末および音声サーバ |
GB2437772B8 (en) | 2006-04-12 | 2008-09-17 | Wolfson Microelectronics Plc | Digital circuit arrangements for ambient noise-reduction. |
WO2008047833A1 (fr) * | 2006-10-19 | 2008-04-24 | Panasonic Corporation | Dispositif de positionnement d'image sonore, système de positionnement d'image sonore, procédé de positionnement d'image sonore, programme et circuit intégré |
JP4997962B2 (ja) * | 2006-12-27 | 2012-08-15 | ソニー株式会社 | 音声出力装置、音声出力方法、音声出力処理用プログラムおよび音声出力システム |
JP4882773B2 (ja) | 2007-02-05 | 2012-02-22 | ソニー株式会社 | 信号処理装置、信号処理方法 |
US8094046B2 (en) | 2007-03-02 | 2012-01-10 | Sony Corporation | Signal processing apparatus and signal processing method |
JP5439707B2 (ja) | 2007-03-02 | 2014-03-12 | ソニー株式会社 | 信号処理装置、信号処理方法 |
CA2948457C (en) * | 2008-06-30 | 2019-02-26 | Constellation Productions, Inc. | Methods and systems for improved acoustic environment characterization |
DE102007031677B4 (de) * | 2007-07-06 | 2010-05-20 | Sda Software Design Ahnert Gmbh | Verfahren und Vorrichtung zum Ermitteln einer raumakustischen Impulsantwort in der Zeitdomäne |
JP4967894B2 (ja) | 2007-07-25 | 2012-07-04 | ソニー株式会社 | 信号処理装置、信号処理方法、プログラム、ノイズキャンセリングシステム |
JP5092974B2 (ja) * | 2008-07-30 | 2012-12-05 | 富士通株式会社 | 伝達特性推定装置、雑音抑圧装置、伝達特性推定方法及びコンピュータプログラム |
US8189799B2 (en) | 2009-04-09 | 2012-05-29 | Harman International Industries, Incorporated | System for active noise control based on audio system output |
US8848935B1 (en) | 2009-12-14 | 2014-09-30 | Audience, Inc. | Low latency active noise cancellation system |
US8767968B2 (en) * | 2010-10-13 | 2014-07-01 | Microsoft Corporation | System and method for high-precision 3-dimensional audio for augmented reality |
EP2461323A1 (en) | 2010-12-01 | 2012-06-06 | Dialog Semiconductor GmbH | Reduced delay digital active noise cancellation |
US20120155666A1 (en) | 2010-12-16 | 2012-06-21 | Nair Vijayakumaran V | Adaptive noise cancellation |
US20120155667A1 (en) | 2010-12-16 | 2012-06-21 | Nair Vijayakumaran V | Adaptive noise cancellation |
US9084068B2 (en) * | 2011-05-30 | 2015-07-14 | Sony Corporation | Sensor-based placement of sound in video recording |
NL2006997C2 (en) * | 2011-06-24 | 2013-01-02 | Bright Minds Holding B V | Method and device for processing sound data. |
WO2013054159A1 (en) * | 2011-10-14 | 2013-04-18 | Nokia Corporation | An audio scene mapping apparatus |
WO2013150341A1 (en) * | 2012-04-05 | 2013-10-10 | Nokia Corporation | Flexible spatial audio capture apparatus |
US9495591B2 (en) * | 2012-04-13 | 2016-11-15 | Qualcomm Incorporated | Object recognition using multi-modal matching scheme |
JP6102923B2 (ja) | 2012-07-27 | 2017-03-29 | ソニー株式会社 | 情報処理システムおよび記憶媒体 |
US9264799B2 (en) * | 2012-10-04 | 2016-02-16 | Siemens Aktiengesellschaft | Method and apparatus for acoustic area monitoring by exploiting ultra large scale arrays of microphones |
US9602916B2 (en) | 2012-11-02 | 2017-03-21 | Sony Corporation | Signal processing device, signal processing method, measurement method, and measurement device |
CN104756525B (zh) | 2012-11-02 | 2017-04-12 | 索尼公司 | 信号处理装置和信号处理方法 |
KR20190113778A (ko) | 2017-01-31 | 2019-10-08 | 소니 주식회사 | 신호 처리 장치, 신호 처리 방법 및 컴퓨터 프로그램 |
-
2013
- 2013-09-12 CN CN201380055937.2A patent/CN104756525B/zh not_active Expired - Fee Related
- 2013-09-12 EP EP13852010.1A patent/EP2916568B1/en active Active
- 2013-09-12 US US14/438,437 patent/US10175931B2/en not_active Expired - Fee Related
- 2013-09-12 JP JP2014544375A patent/JP6202003B2/ja not_active Expired - Fee Related
- 2013-09-12 WO PCT/JP2013/074744 patent/WO2014069112A1/ja active Application Filing
-
2017
- 2017-08-29 JP JP2017164356A patent/JP6361809B2/ja not_active Expired - Fee Related
-
2018
- 2018-11-27 US US16/201,794 patent/US10795639B2/en not_active Expired - Fee Related
-
2020
- 2020-06-08 US US16/896,177 patent/US20200301656A1/en not_active Abandoned
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006085214A (ja) * | 2004-09-14 | 2006-03-30 | Noritsu Koki Co Ltd | 写真処理装置 |
JP4674505B2 (ja) | 2005-08-01 | 2011-04-20 | ソニー株式会社 | 音声信号処理方法、音場再現システム |
JP4735108B2 (ja) | 2005-08-01 | 2011-07-27 | ソニー株式会社 | 音声信号処理方法、音場再現システム |
JP4725234B2 (ja) | 2005-08-05 | 2011-07-13 | ソニー株式会社 | 音場再現方法、音声信号処理方法、音声信号処理装置 |
JP2007124023A (ja) * | 2005-10-25 | 2007-05-17 | Sony Corp | 音場再現方法、音声信号処理方法、音声信号処理装置 |
JP2008227773A (ja) * | 2007-03-09 | 2008-09-25 | Advanced Telecommunication Research Institute International | 音響空間共有装置 |
JP4775487B2 (ja) | 2009-11-24 | 2011-09-21 | ソニー株式会社 | 音声信号処理方法、音声信号処理装置 |
JP4883197B2 (ja) | 2010-02-15 | 2012-02-22 | ソニー株式会社 | 音声信号処理方法、音場再現システム |
JP2011138151A (ja) * | 2011-02-15 | 2011-07-14 | Sony Corp | 音声信号処理方法、音場再現システム |
Non-Patent Citations (1)
Title |
---|
See also references of EP2916568A4 |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015194075A1 (ja) * | 2014-06-18 | 2015-12-23 | ソニー株式会社 | 画像処理装置、画像処理方法及びプログラム |
JPWO2015194075A1 (ja) * | 2014-06-18 | 2017-06-01 | ソニー株式会社 | 画像処理装置、画像処理方法及びプログラム |
US10229656B2 (en) | 2014-06-18 | 2019-03-12 | Sony Corporation | Image processing apparatus and image processing method to display full-size image of an object |
WO2018070487A1 (ja) * | 2016-10-14 | 2018-04-19 | 国立研究開発法人科学技術振興機構 | 空間音響生成装置、空間音響生成システム、空間音響生成方法、および、空間音響生成プログラム |
US10812927B2 (en) | 2016-10-14 | 2020-10-20 | Japan Science And Technology Agency | Spatial sound generation device, spatial sound generation system, spatial sound generation method, and spatial sound generation program |
US11259116B2 (en) | 2017-07-07 | 2022-02-22 | Yamaha Corporation | Sound processing method, remote conversation method, sound processing device, remote conversation device, headset, and remote conversation system |
Also Published As
Publication number | Publication date |
---|---|
EP2916568B1 (en) | 2021-01-27 |
JP2017225182A (ja) | 2017-12-21 |
US20200301656A1 (en) | 2020-09-24 |
EP2916568A4 (en) | 2016-07-06 |
JP6202003B2 (ja) | 2017-09-27 |
JP6361809B2 (ja) | 2018-07-25 |
CN104756525B (zh) | 2017-04-12 |
CN104756525A (zh) | 2015-07-01 |
US10175931B2 (en) | 2019-01-08 |
US10795639B2 (en) | 2020-10-06 |
US20190114136A1 (en) | 2019-04-18 |
JPWO2014069112A1 (ja) | 2016-09-08 |
EP2916568A1 (en) | 2015-09-09 |
US20150286463A1 (en) | 2015-10-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6281493B2 (ja) | 信号処理装置、信号処理方法、測定方法、測定装置 | |
JP6361809B2 (ja) | 信号処理装置、信号処理方法 | |
KR101812862B1 (ko) | 오디오 장치 | |
CN104205878B (zh) | 用于通过头相关传输函数的线性混合生成头相关传输函数的方法及系统 | |
WO2018008395A1 (ja) | 音場形成装置および方法、並びにプログラム | |
EP3799035A1 (en) | Acoustic program, acoustic device, and acoustic system | |
FI129335B (en) | Acoustic room mode control | |
JP5867799B2 (ja) | 収音再生装置、プログラム及び収音再生方法 | |
JP7578145B2 (ja) | ライブデータ配信方法、ライブデータ配信システム、ライブデータ配信装置、ライブデータ再生装置、およびライブデータ再生方法 | |
US11057706B2 (en) | Speaker driving device | |
JP6323901B2 (ja) | 収音装置および収音方法、並びにプログラム | |
JP2021132261A (ja) | 複数のマイクロフォンの収音信号をミキシングする装置、プログラム及び方法 | |
JP7403436B2 (ja) | 異なる音場の複数の録音音響信号を合成する音響信号合成装置、プログラム及び方法 | |
WO2022113393A1 (ja) | ライブデータ配信方法、ライブデータ配信システム、ライブデータ配信装置、ライブデータ再生装置、およびライブデータ再生方法 | |
WO2022176417A1 (ja) | 情報処理装置、情報処理方法、及び、プログラム | |
JP7029031B2 (ja) | 時間的に変化する再帰型フィルタ構造による仮想聴覚レンダリングのための方法およびシステム | |
JP2010178373A (ja) | 頭部伝達関数測定方法、頭部伝達関数畳み込み方法および頭部伝達関数畳み込み装置 | |
JP2024007669A (ja) | 音源及び受音体の位置情報を用いた音場再生プログラム、装置及び方法 | |
JP2005122023A (ja) | 高臨場感音響信号出力装置、高臨場感音響信号出力プログラムおよび高臨場感音響信号出力方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 13852010 Country of ref document: EP Kind code of ref document: A1 |
|
ENP | Entry into the national phase |
Ref document number: 2014544375 Country of ref document: JP Kind code of ref document: A |
|
WWE | Wipo information: entry into national phase |
Ref document number: 2013852010 Country of ref document: EP |
|
WWE | Wipo information: entry into national phase |
Ref document number: 14438437 Country of ref document: US |
|
NENP | Non-entry into the national phase |
Ref country code: DE |