WO2003079724A1 - Appareil de traitement d'un signal de localisation d'image sonore et procede de traitement dudit signal - Google Patents

Appareil de traitement d'un signal de localisation d'image sonore et procede de traitement dudit signal Download PDF

Info

Publication number
WO2003079724A1
WO2003079724A1 PCT/JP2003/003339 JP0303339W WO03079724A1 WO 2003079724 A1 WO2003079724 A1 WO 2003079724A1 JP 0303339 W JP0303339 W JP 0303339W WO 03079724 A1 WO03079724 A1 WO 03079724A1
Authority
WO
WIPO (PCT)
Prior art keywords
sound image
signal
information
image localization
signal processing
Prior art date
Application number
PCT/JP2003/003339
Other languages
English (en)
French (fr)
Inventor
Takashi Matsushige
Original Assignee
Sony Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corporation filed Critical Sony Corporation
Publication of WO2003079724A1 publication Critical patent/WO2003079724A1/ja

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S1/00Two-channel systems
    • H04S1/002Non-adaptive circuits, e.g. manually adjustable or static, for enhancing the sound image or the spatial distribution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S1/00Two-channel systems
    • H04S1/002Non-adaptive circuits, e.g. manually adjustable or static, for enhancing the sound image or the spatial distribution
    • H04S1/005For headphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/01Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]

Definitions

  • the present invention relates to, for example, a sound image localization signal processing device and a sound image localization signal processing method for performing virtual sound source localization processing on an audio signal corresponding to a video signal having angle information.
  • an image capturing apparatus that divides a subject around 360 degrees called an omnidirectional camera into eight angles of view and performs continuous processing.
  • the 360-degree image picked up by the omnidirectional camera is called a free viewpoint image because it captures an image around 360 degrees without paying particular attention to the viewpoint.
  • the sound corresponding to this free viewpoint video is collected via a microphone microphone so that a stereo sound field can be reproduced by fixing the video of the surrounding subject at 360 degrees, for example, divided into eight angles of view. Had been sounding. Disclosure of the invention
  • the present invention has been made in view of the above point, and in the reproduction of an audio signal for a free viewpoint video, even when the video is reproduced by moving the video by changing the angle, the sound image is moved in the direction of the moving video. It is an object of the present invention to provide a sound image localization signal processing device and a sound image localization signal processing method capable of localizing a sound image.
  • the sound image localization signal processing device includes a plurality of sound image localization signals at the time of reproduction that are localized at arbitrary positions during reproduction so as to correspond to an image based on a video signal having angle information with respect to a reference position.
  • a sound image localization signal processing device that performs signal processing on audio signals synthesized by synthesis means with each sound source data input from a sound source, the user's viewpoint that is the angle information of the reproduced sound image of the video based on the video signal Selection means for selecting the selection information, and signal processing for sound image localization in the channel of the audio signal corresponding to the user's viewpoint selection information, which is the angle information of the reproduced sound image selected by the selection means.
  • Sound image localization control processing means for real-time processing, control information generation means for generating control information for performing signal processing by the sound image localization control processing means, and Transmission information generating means for generating transmission information by superimposing the audio signal and the control information on the video signal, performing signal processing on the audio signal in real time, and generating a video based on the video signal.
  • the sound image localization position is controlled in accordance with.
  • the sound image localization signal processing device of the present invention provides a sound signal localization signal processing device that synthesizes sound source data input from a plurality of sound sources by synthesis means and performs signal processing based on control information at the time of production.
  • a sound image localization signal processing device that performs signal processing on reproduction information so that a reproduced sound image is localized at an arbitrary position during reproduction so as to correspond to an image based on a video signal having angle information with respect to a position.
  • Reproducing information reading means for reading out the video signal, the audio signal and the control information from the audio signal and the control information superimposed on the video signal in the reproduction information, and reproducing the video signal
  • Video signal reproducing means selecting means for selecting user's viewpoint selection information as angle information of a reproduced sound image of a video based on the video signal;
  • Sound image localization control processing means for performing, in real time, signal processing for sound image localization on the channel of the audio signal corresponding to the user's viewpoint selection information which is the angle information of the reproduced sound image selected by the selection means;
  • the audio signal is subjected to signal processing in real time to control a sound image localization position corresponding to a video image based on the video signal.
  • the sound image localization signal processing method of the present invention can be used in a production process such that a reproduced sound image at the time of reproduction is localized at an arbitrary position so as to correspond to an image based on a video signal having angle information with respect to a reference position.
  • the sound image localization signal processing method of the present invention provides a sound image localization signal processing method comprising: synthesizing sound source data input from a plurality of sound sources by synthesizing means and performing signal processing based on control information during production; A sound image localization signal processing method for performing signal processing on reproduction information so that a reproduced sound image is localized at an arbitrary position during reproduction so as to correspond to a video based on a video signal having angle information with respect to a position. Reading out the video signal, the audio signal, and the control information from the audio signal and the control information superimposed on the video signal in the reproduction information, and reproducing the video signal.
  • a localization control processing step wherein the audio signal is subjected to signal processing in real time to control a sound image localization position corresponding to a video based on the video signal.
  • the sound image localization control processing means performs, in real time, signal processing for sound image localization on the channel of the audio signal based on the control information corresponding to the angle information of the video from the selection means.
  • the control information generating means is a sound image localization control processing means for sound image localization on an audio signal channel corresponding to the angle information of the video.
  • the control information used for the sound image localization processing for performing the above signal processing is stored.
  • the transmission information generating means generates transmission data based on a transmission format by using an audio signal and a control signal as a video signal. This transmission data is transferred to the reproduction system.
  • control information used for real-time sound image localization processing for performing signal processing for sound image localization on an arbitrary channel of the audio signal is generated, and the free viewpoint video is generated.
  • the angle of the free viewpoint video is changed and the video is moved and played back. The reproduced sound image can be localized.
  • the sound image localization control processing means performs signal processing for sound image localization on the channel of the audio signal transferred from the production system based on the control information corresponding to the angle information of the video from the selection means. Apply in time.
  • the corrected audio signal obtained by subjecting the channel of the audio signal to signal processing for sound image localization by the sound image localization control processing means based on the control information corresponding to the angle information of the video is output to the reproduction means.
  • the reproducing means reproduces the corrected audio signal and outputs a reproduced sound image corresponding to the angle information of the video.
  • FIG. 1 is a block diagram showing a configuration of a sound image localization signal processing device of a production system of a free viewpoint video / audio production / playback system applied to the present embodiment.
  • FIG. 2 is a block diagram showing a configuration of a sound image localization signal processing device of a reproduction system of a free viewpoint video / audio production / reproduction system applied to the present embodiment.
  • FIG. 3 is a block diagram showing the configuration of the channel mapping unit.
  • FIG. 4 is a diagram showing a GUI application screen.
  • FIG. 5 is a diagram illustrating generation of operation metadata.
  • FIG. 6 is a diagram showing generation of time metadata.
  • Fig. 7 shows the metadata recording format.
  • Fig. 7A shows the recording at the beginning of one frame
  • Fig. 7B shows the recording at the end of one frame
  • Fig. 7C shows the recording at the beginning of each album. is there.
  • FIG. 8 is a diagram showing a 360 ° camera image.
  • FIG. 9 is a diagram showing imaging by a circumferential camera.
  • FIG. 10 is a diagram showing switching of the operation mode on the time axis.
  • FIG. 11 is a diagram showing a corrected sound image by HRTF.
  • FIG. 12 is a configuration diagram of a correction process using HRTF.
  • Figure 13 shows the production flow chart.
  • Figure 14 shows the flow chart of the regeneration system.
  • Fig. 15 is a diagram showing the function of production-based channel matching.
  • Fig. 15A is for real sound
  • Fig. 15B is for virtual sound
  • Fig. 15C is for real sound. It is the case of the combination of the sound and the virtual sound.
  • Figure 16 is a diagram showing a variation of channel mapping between production and playback systems.
  • Figure 16A shows the case of the impulse response convolution type
  • Figure 16B shows the repurb processing for 5-channel output. Is the case.
  • the sound image localization signal processing device applied to the present embodiment is designed to change the sound image localization position as the user changes the viewpoint in the reproduction of the sound field of an audio signal in a so-called free viewpoint video.
  • the sound creator transmits control information for localizing the reproduced sound image of the audio signal in accordance with the video as metadata for authoring information to the playback side. is there.
  • a sound image localization signal processing device applied to the present embodiment will be described.
  • Figure 1 is a block diagram showing the configuration of the sound image localization signal processing device in the production system of the free viewpoint video / audio production / playback system.
  • the sound image localization signal processing device shown in Fig. 1 changes the angle of the free viewpoint video and moves the video to reproduce the audio signal so that the reproduced audio image of the audio signal is localized in the direction of the moving video when the video is played.
  • the point that metadata to be controlled is transmitted to the playback side is significantly different from the conventional system.
  • the microphone material 1 and other material 2 of the free viewpoint camera are input to the mixer 3 as audio input of multiple channels.
  • the microphone material 1 of the free viewpoint camera is a sound corresponding to the free viewpoint image, and can reproduce the stereo sound field by fixing the image of the surrounding subject at 360 degrees, for example, divided into eight angles of view. Is picked up through the microphone.
  • the other material 2 is called a dry material, and is a spotmike material, an alecomic material, a sound effect material, or the like.
  • the sound creator inputs audio input from multiple channels of sound sources, such as the microphone material 1 and other material 2 of the free viewpoint camera, and the free viewpoint viewer 4 displays the free viewpoint of the video data 10
  • This is a sound adjustment console that allows you to adjust the composition of each channel while viewing the video material by viewing the video over 360 degrees.
  • N channels for example, 24 channels
  • M for N channels
  • the angle information of the free viewpoint video is selected by operating the operation key for selecting the viewpoint in the viewpoint selection unit 5.
  • the operation key for selecting a viewpoint in the viewpoint selection unit 5 can perform an operation of selecting angle information by, for example, rotating the operation key, and an operation of determining by pressing the operation key.
  • the mixer 3 is provided with a channel matching section 6 as a function block.
  • the audio output data from the mixer 3 is supplied to the channel mapping section 6.
  • the angle information of the free viewpoint video is supplied from the viewpoint selection unit 5 to the channel matching unit 6. Therefore, the channel mapping unit 6 performs real-time signal processing for sound image localization on the channel of the audio output data from the mixer 3 based on the control information corresponding to the angle information of the free viewpoint video from the viewpoint selection unit 5.
  • the channel mapping section 6 inputs audio data of a synthesized sound source of, for example, 4 to 10 channels, and outputs multi-channel audio data of 2 channels / channel to 5.1 channels, 6 channels, 7 channels, and the like. .
  • the details of the channel matting unit 6 will be described later.
  • the corrected audio data obtained by subjecting the audio data channel to signal processing for sound image localization based on the control information corresponding to the angle information of the free viewpoint video in the channel mapping unit 6 is output to the audio monitor 7.
  • the audio monitor 7 reproduces the corrected audio data and outputs a reproduced sound image corresponding to the angle information of the free viewpoint video.
  • the audio monitor 7 has left (L) and right (R) steps.
  • Speakers that play Leo sound Headphones that play left (L) and right (R) stereo sound, Left (L), Right (R), Surround left (SL), Surround right (SR) Plays 4 channels of stereo sound of speakers or 5.1 channels of left (L), right (R), center (C), surround left (SL), surround right (SR), subwoofer (SW) You may use the speed to reproduce stereo sound.
  • the control information used in the sound image localization processing of the corrected audio data in which the signal processing for the sound image localization is performed on the channels of the audio data corresponding to the angle information of the free viewpoint video in the channel mapping unit 6 is authoritative. It is supplied to the metadata section 9 as metadata of the signaling information.
  • the audio output data from the mixer 3 is supplied to an audio recorder 8, and the audio recorder 8 streams the audio data into a format for transmission in synchronization with, for example, a synchronization signal from the channel mapping unit 6. I do.
  • the audio interleave section 11 interleaves the audio data streamed into the video data 10 and the meta data from the meta data section 9 to transmit data 12 based on a format for transmission.
  • Generate The transmission data 12 is transferred to, for example, a playback system to be described later via the Internet 13 or the recording medium 14.
  • FIG. 2 is a block diagram showing a configuration of a sound image localization signal processing device of a reproduction system of the free viewpoint video / audio production / reproduction system.
  • reproduction data 21 transmission data 12 transferred from the production system shown in FIG. 1 via the Internet 13 or the recording medium 14 is referred to as reproduction data 21. Is entered. Video data, audio data, and meta data are read out from the reproduction data 21 based on the transmission format, and the video data is supplied to the video player 22, and the audio data is not shown. The data is supplied to a channel mapping section 24 provided in the audio player, and the metadata provided in the audio player (not shown) is supplied to a metadata section 25.
  • the angle information of the free viewpoint video is selected by operating the operation keys for selecting the viewpoint in the viewpoint selection unit 23.
  • the free viewpoint video reproduced by the video player 22 is reproduced based on the angle information selected by the viewpoint selection unit 23.
  • the operation key for selecting a viewpoint in the viewpoint selection unit 23 can be, for example, an operation of selecting angle information by rotating the operation key and a decision operation by pressing the operation key. .
  • the channel mapping section 24 is supplied with angle information of a free viewpoint video from the viewpoint selection section 23 and metadata as control information from the metadata section 25. Therefore, the channel mapping unit 24 performs sound image localization on the channel of the audio data transferred from the production system based on the metadata as control information corresponding to the angle information of the free viewpoint video from the viewpoint selection unit 23. Signal processing in real time.
  • the channel mapping unit 24 receives, for example, audio data of a synthesized sound source of channels 4 to 10 and outputs multi-audio data such as 2 channels to 5.1 channels, 6 channels, 7 channels, and 7 channels. In addition, channel The details of the rubbing part 24 will be described later.
  • the corrected audio data obtained by subjecting the audio data channel to signal processing for sound image localization based on the metadata as control information corresponding to the angle information of the free viewpoint video in the channel mapping unit 24 is used as the audio monitor 27 Is output to The audio monitor 27 reproduces the corrected audio data and outputs a reproduced sound image corresponding to the angle information of the free viewpoint video.
  • the audio monitor 27 has speakers for playing left (L) and right (R) stereo sound, headphones for playing left (L) and right (R) stereo sound, left (L) and right Speakers that play four-channel stereo sound (R), surround left (SL), surround right (SR) or left (L), right (R), center (C), surround left (SL), Surround Right (SR) and Subwoofer (SW) may be used to reproduce 5.1 channel stereo sound.
  • FIG. 3 is a block diagram showing the configuration of the channel mapping unit.
  • the channel mapping unit includes an operation mode setting unit 31 for setting an operation mode according to the designation of a channel of an audio signal to be subjected to sound image localization signal processing, and a user selected by the viewpoint selection unit 5.
  • Set the frame image corresponding to the viewpoint selection information It comprises a rack setting section 32 and a parameter setting section 33 for setting parameters for performing signal processing on an audio signal corresponding to the selected frame image.
  • the operation mode setting unit 31 includes a fixed channel mode 3 1-1 of the first operation mode for performing sound image localization signal processing on all of the audio signals of the plurality of channels, and a plurality of the operation modes.
  • Non-fixed channel mode of the second operation mode in which sound image localization is performed by designating only a specific channel out of audio signals of the other channel and signal processing is not performed on other channels 2.
  • the track setting unit 32 performs frame processing of the video signal so as to correspond to the user's viewpoint selection information, which is the angle information of the reproduced sound image selected by the viewpoint selection unit 5. 2-1, a horizontal angle processing unit 3 2-2 for performing horizontal angle processing, a zoom processing unit 3 2-3 for performing zoom processing, and a vertical angle processing unit 3 2-1 3 for performing vertical angle processing It is configured to have.
  • the track setting unit 32 performs signal processing on the audio signal according to the operation mode AM from the operation mode setting unit 31 and the viewpoint selection information V from the viewpoint selection unit 5 according to the above-described configuration. Generates the operation signal C of Note that all of these configurations may be used, or the present invention is not limited thereto, and any one of them may be selected and used according to processing.
  • the parameter setting unit 33 based on the operation signal C from the track setting unit 32, performs equalization processing of the phase equalization on the audio signal by using a predetermined parameter.
  • Reverb processing unit 3 3-2 that performs reverb processing
  • volume processing unit 3 3-3 that performs volume processing
  • pan processing unit 3 3-4 that performs pan processing of sound image movement
  • HRTF head-related transfer function: H ead R e 1 ated Transform Function
  • HRTF processing unit 33-5 that performs acoustic characteristic processing by changing the transfer function reaching the first ear.
  • five sets of stereo sound source data can be obtained using five stereo impulse responses from five sound sources placed around the listener to both ears of the listener.
  • the first sound source that convolves the input signal with the transfer function based on the impulse response from the sound source in front of the listener to both ears of the listener, and both the sound source and the listener from the sound source in the rear left of the listener A case in which signal processing is performed on a second sound source that convolves a transfer function based on an impulse response to the ear with an input signal will be described.
  • the track setting unit 32 of the channel mapping unit 6 uses the movement information. Is converted into an angle parameter or a position parameter, and an operation signal C corresponding to the converted parameter is supplied to the parameter setting unit 33.
  • the parameter setting unit 33 processes the level value of each processing unit from the first sound source and the second sound source so that the level value of each processing unit is closed at a ratio of distance or angle. I do.
  • the left digital signal L of the digital signal sequence of the audio signal output from the mixer 3 is a pair of left convolution integrators. Supplied to the convolution integrator in the memory.
  • the memory attached to the convolution integrator has a fixed sampling frequency from the virtual sound source position to both ears in the direction in which the listener's head is currently facing, relative to the reference direction of the head.
  • the digital signal sequence which is a set of digitally recorded impulse responses expressed by the number of quantization bits, is called up by a convolution integrator. Are convoluted and integrated.
  • a pair of right crosstalk convolution integrators and memory supply the crosstalk component of the right digital signal R.
  • the right digital signal R is supplied to a pair of right convolution integrators and a convolution integrator of the memory.
  • the memory attached to the convolution integrator has a fixed sampling frequency and quantum from the virtual sound source position to both ears in the direction in which the listener's current head is facing, relative to the reference direction of the head.
  • a set of digitally recorded impulse responses represented by the number of digitized bits is stored.
  • the digital signal sequence is convoluted and integrated with the impulse response read from this memory and the real time in the convolution integrator.
  • the pair of left crosstalk convolution integrators supplies the crosstalk component of the left digital signal L.
  • impulse response and convolution integration are performed in the same manner as described above.
  • Digital signal trains for which impulse response and convolution integration have been performed in the convolution integrator and memory for left, pair of right crosstalk, pair of right, and pair of left crosstalk are supplied to the adder, respectively.
  • the digital signal of the two channels added by the adder is applied to the listener's individual by the adaptive processing filter. Correction is made so as to eliminate differences in ear shape, noise, and characteristics specific to the sound source used.
  • the impulse response as the HRTF is stored in the memory.
  • the memory attached to the convolution integrator has the head fixed to the reference direction.
  • a pair of digitally stored impulse responses from the virtual sound source position to both ears may be stored.
  • the digital signal sequence is convoluted and integrated with this impulse response in real time.
  • a control signal representing a time difference and a level difference between both ears from the virtual sound source position to the both ears with respect to the reference direction of the head is stored.
  • the head motion in the detected reference direction is further converted into a magnitude including a direction at every fixed unit angle or at each predetermined angle.
  • a control signal previously stored in another memory is read out by the address signal, and the control device corrects and changes the control signal in real time. The result may be supplied to an adder.
  • the impulse response and the digital signal string convolved and integrated in real time are supplied to the adder, and the two-channel digital signal from the adder is further subjected to a head in the detected reference direction.
  • the part motion is converted into a digital address signal representing the magnitude including the direction at every fixed unit angle or at a predetermined angle, and stored in another memory in advance by this address signal.
  • the control signal may be read out and corrected and changed in real time by the control device.
  • control device can be configured by a combination of a variable delay device and a variable level controller, or a level controller for each frequency band such as a graphic equalizer divided into multiple bands,
  • the information stored in other memories is the time difference and the level between the two ears from the virtual sound source position to both ears with respect to the reference direction of the head of the listener.
  • An impulse response indicating a difference or the like may be used.
  • the above-described control device may be configured by a variable digital filter of IIR or FIR. Therefore, the value of the impulse response as the HRTF may be changed using the controller.
  • the spatial information is given by the control device, and the adaptive processing filter removes the differences in the ear shape due to individual differences in the listener, noise, the sound source used, and the unique characteristics of the headphones. It is corrected and changes are given to the movement of the head.
  • the viewpoint selecting unit 5 detects the head movement with respect to the reference direction of the listener at a fixed angle or at predetermined angles, and the digital signal representing the magnitude including the direction in the address control circuit. Convert to a dress signal.
  • the impulse response digitally recorded from the virtual sound source position in the reference direction of the head to the both ears with respect to the reference direction of the head previously recorded in the memory, and between the two ears from other memories Reads the control signal or impulse response indicating the time difference and the level difference between both ears.
  • the convolution integrator or control device corrects and changes the impulse response or control signal and the acoustic signal in real time.
  • the convolutional integrator memory or the control device and adder convert the signal into a two-channel digital signal to both ears having spatial information as a sound field, and apply an adaptive processing filter.
  • the differences in the shape of the ears due to individual differences in the listener, noise, and the characteristics of the sound source used are corrected, and the power is amplified by the power amplifier before being supplied to the speakers.
  • the speaker placed at the virtual sound source position It is possible to achieve a reproduction effect such that a reproduction sound can be heard.
  • the listener moves the free viewpoint video using the free viewpoint viewer 4
  • a digital signal or an analog signal according to the direction is obtained by the viewpoint selection unit 5, and thereby,
  • the signal has a value according to the direction of the listener's viewpoint with respect to the free viewpoint video, and this value is supplied as an address signal to the memory through the address control circuit.
  • the memory force is a digitally recorded impulse response from the virtual sound source position to the both ears in the reference direction corresponding to the orientation of the listener's viewpoint with respect to the free viewpoint image, or both.
  • Control signals representing the time difference between the ears and the level difference between the two ears are extracted, and this data is supplied to a convolution integrator or a control device.
  • a control signal representing the response or the time difference between the ears and the level difference between the ears is taken out, and this data is supplied to a convolution integrator or a control device.
  • the audio signals L and R supplied to the speaker are digitally recorded impulse signals from the virtual sound source position to the ⁇ ear in the reference direction corresponding to the listener's viewpoint direction with respect to the free viewpoint image.
  • the response or the control signal indicating the time difference between the two ears and the level difference between the two ears is corrected, so that the listener's viewpoint moves with respect to the free viewpoint image in multiple directions.
  • This sound is placed at the position of the virtual sound source, and it is possible to obtain a sound field feeling as if playing with this speaker.
  • a control signal indicating the time difference between the two ears and the level difference between the two ears, which is digitally recorded in the memory table, is extracted, and this data is convolved in advance by the convolution integrator and memory. Since the digital signal is supplied purely in such a way that it is corrected by the controller, there is no delay in changing the characteristics of the audio signal with respect to the direction of the listener's head, and there is no delay. It does not create naturalness.
  • HRTF data can be obtained as follows. That is, in a suitable room, an impulse sound source with a necessary number of channels and a dummy headphone microphone are defined so that the desired reproduction sound field is obtained when the audio signal is reproduced with the speaker for the free viewpoint video. At the specified position. In this case, a speaker may be used as a sound source for measuring the impulse.
  • any position from the entrance of the ear canal to the eardrum position may be used.However, the position at which the acquisition characteristics for canceling the inherent characteristics of the sound source used are determined. Required to be equal.
  • the control signal is measured by emitting an impulse sound from the speaker position of each channel and collecting the sound with microphones provided at each ear of the dummy head at regular angles. Can be obtained. Therefore, at a certain angle, an innores response of one thread can be obtained for each channel, so if a signal source of 5 channels is used, five sets of signals per angle, that is, 1 set This means that 0 types of control signals can be obtained. Therefore, a control signal indicating a time difference and a level difference between the left and right ears is obtained from these responses.
  • the table in memory is one set, and the address control circuit By changing the address specification for that table, control data can be obtained in the same way as when there are multiple sets of tables.
  • the listener Each angle can be used to identify the angle of rotation of the listener's viewpoint relative to the free viewpoint video, and a speaker placed near both ears of the listener may be used instead of the headphone.
  • FIG. 4 is a diagram showing a GUI (Gr ah i C a l Us e r In t e r f a c e) application screen.
  • FIG. 4 shows a display state of the free viewpoint viewer 4 by the viewpoint selection unit 5 shown in FIG. 1 and a setting state of the channel mapping unit shown in FIG.
  • an operation mode setting section 42 is provided, and the sound creator clicks an icon of the operation mode setting section 42.
  • fixed channel mode 3 1 of the first operation mode in which sound image localization signal processing is performed on all of the audio signals of the plurality of channels.
  • non-fixed second operation mode in which only a specific channel out of audio signals of multiple channels is specified and sound image localization signal processing is performed, and other channels are not processed.
  • Channel mode 3 1 1 2 can be selected and set.
  • a track setting section 43 is provided, and the sound creator clicks the icon of the track setting section 43 by clicking the icon.
  • the frame processing unit 43-1 which performs frame processing by moving a frame according to the time information of the video signal so as to correspond to the user's viewpoint selection information serving as the angle information of the selected reproduced sound image.
  • a horizontal angle processing unit 43-2 that performs horizontal angle processing
  • a zoom processing unit 43-3 that performs zoom processing
  • a vertical angle processing unit 43-3 that performs vertical angle processing.
  • the track setting unit 43 corresponds to the viewpoint selection unit 5 shown in the figure, and a window is displayed on the lower or upper layer of the GUI application screen 41 according to this setting.
  • the display state of the free viewpoint viewer 4 changes over 360 degrees of the free viewpoint video.
  • a parameter setting section 44 is provided, and when the sound creator clicks the icon of the parameter setting section 44, the Based on the operation signal C from the track setting section 32 shown in FIG. 3, the equalizing processing section 44-1 performs equalizing processing on the audio signal with predetermined parameters, and performs the reparving processing.
  • the reverb processing unit 4 4 1 and 2, the volume processing unit 4 4-3 that performs volume processing, the pan processing unit 4 4-4, and the transfer function that reaches the user's ear by HRTF are changed. This makes it possible to set the HRTF processing unit 44-5 that performs the acoustic characteristic processing to the signal processing state for the audio signal for the frame image set by the track setting unit 43. Wear. Acquisition audio data can be obtained according to the setting by the parameter setting unit 44.
  • FIG. 5 is a diagram showing generation of operation metadata. The configuration in Fig. 5 is provided for each channel of the audio signal to be processed.
  • the operation information C from the track setting unit 32 shown in FIG. 3 is equalized by the equalizer processing unit 3 3 — 1 of the parameter setting unit 33, Loop processing section 3 3-2, volume processing section 3 3-3, pan processing section 3 3-4, and HRTF processing section 3 3-5.
  • Audio data AI is continuously input to each processing unit.
  • Each processing unit performs signal processing based on the operation signal C and outputs the corrected audio data AO.
  • the equalizer processing unit 33-1 for example, a high frequency corresponding to the angle information of the operation information C Operation data for lowering the equalizer processing in the band or low-frequency band, and the reduction of the reverberation processing in the high-frequency band or low-frequency band corresponding to the angle information of the operation information C for the repurb processing unit 33-2.
  • the operation metadata for the volume processing section 3 3 — 3 for the volume processing section 3 3 — 3 and the volume information for the pan processing section 3 3 — 4 for the volume information corresponding to the angle information of the operation information C Operation data for moving the position of the sound, for example, for the HRTF processing section 33-5, to improve or decrease the frequency transfer characteristics according to the angle information of the operation information C And taken out each operation metadata, and stores the operation metadata unit MC in association with each angular information.
  • operation metadata that can change the signal processing function for the audio signal in the channel mapping unit according to the angle information of the user's field of view.
  • all of the configurations of these processing units may be used, or the configuration is not limited thereto, and any one of them may be selected and used according to the processing. In this case, the selected processing unit may be used.
  • the operation meta data of the section is stored in the operation meta data section MC corresponding to each angle information.
  • FIG. 6 is a diagram showing generation of time metadata. The configuration in Fig. 6 is provided for each channel of the audio signal to be processed.
  • the operation information C from the track setting unit 32 shown in FIG. 3 is equalized by an equalizer processing unit 33-1, a reverb processing unit 33-2, not shown here.
  • Volume processing section 3 3 — 3 After that, it is supplied to the pan processing section 33-4 and the HRTF processing section 33-5 in FIG.
  • Audio data AI is continuously input to each processing unit.
  • Each processing section performs signal processing based on the operation signal C, and outputs captured audio data AO.
  • a time metadata repurging process for the equalizer processing unit 33-1 (not shown) is performed to reduce the equalizer process in a high frequency band or a low frequency band according to the time information of the operation information C, for example.
  • the time metadata for the lowering of the reverb processing in the high frequency band or the low frequency band according to the time information of the operation information C for the section 33_2, the angle of the operation information C for the volume processing section 33-3 for example
  • the operation metadata of the volume level according to the information, the time metadata for the pan processing unit 3 3 — 4 for moving the position of the sound according to the time information of the operation information C, the HRTF processing unit 3 3 For example, time metadata for improving or decreasing the frequency transmission characteristic according to the time information of the operation information C is extracted, and the time metadata is associated with each time information. And stores it in the over data portion M T.
  • time metadata that can change the signal processing function for the audio signal in the channel mapping unit according to the time information due to the change in the time axis.
  • the time metadata of each section is stored in the time metadata section MT in association with each piece of time information.
  • Fig. 7 is a diagram showing the recording format of metadata.
  • Fig. 7A records at the beginning of one frame
  • Fig. 7B records at the end of one frame
  • Fig. 7C records at the beginning of each album. .
  • video data VI, V2, V3, V4, and V5 are audio data.
  • the metadata Ml is recorded at the beginning of one interleaved data frame. Therefore, in the reproducing system, the meta data M 1 can be read by detecting the data of one frame, storing the data in the buffer, and reading the head portion.
  • the meta data M2 can be read by detecting the data of one frame, holding the data in the buffer, and reading the end portion thereof.
  • metadata M11, M12, and M13 are recorded at the beginning of an album indicating a song in FIG. 7C. Therefore, in the playback system, if the data of each album is detected and stored in the buffer, and the head portion is read, the metadata Ml1, Ml2, and Ml3 can be read. it can.
  • the recording format of the metadata is not limited to this, and it may be recorded in a TOC (Tab1eOfCntEntts) portion that stores management information of the disc-shaped recording medium.
  • FIG. 8 is a diagram showing a 360 ° camera image.
  • an omnidirectional force camera 81 divides an object around 360 degrees into, for example, eight angles of view and continuously processes and captures images.
  • the 360-degree camera image 82 captured by the omnidirectional camera 81 includes a singer 84 and a singer 84 on the stage 83 having angle information in the front center direction with respect to the reference position ⁇ .
  • An area E 1 showing an image of the performer 85, an area E 2 showing an image of an audience 86 having angle information in the forward left direction with respect to the reference position O, and a left position with respect to the reference position O.
  • An area E3 showing the image of the spectator 86 having the lateral angle information,, and an area E showing the image of the spectator 86 having the left angle information, rearward, with respect to the reference position O.
  • An area E5 showing the image of the spectator 86 having the angle information in the rear center direction with respect to the reference position O, and the spectator 86 having the angle information in the rear right direction with respect to the reference position O.
  • the angle information from area E1 to area E8 of the captured image 82 can be used to smoothly move the sound image in the counterclockwise direction in response to the movement of the image in the counterclockwise direction. Can be.
  • the center 83 of the singer 84 and the performer 85 on the stage 83 having the angle information in the front center direction with respect to the reference position O in the error E 1 The sound image of the upper singer 84 and the performer 85 is localized, and the front left angle information with respect to the image of the audience 86 having the angle information of the front left direction with respect to the reference position O in the area E2.
  • the sound image of 86 is localized, and the audience in the left-lateral direction relative to the reference position O in the area E 3 is located.
  • the sound image of the spectator 86 in the rear left direction is localized with respect to the image of the spectator 86 with the left angle information in the rear, and the angle information in the rear center direction with respect to the reference position O in the area E 5.
  • the image of the audience 86 with, The sound image is localized, and the sound image of the spectator 86 in the rear right direction is localized with respect to the video of the spectator 86 having the right angle information to the reference position O in the area E 6 with respect to the reference position O.
  • the sound image of the spectator 86 in the right and left direction is localized with respect to the video of the spectator 86 with the right and left angle information with respect to the reference position O at,
  • the sound image of the spectator 86 in the forward right direction is continuously located with respect to the image of the spectator 86 having the right angle information,,, and in the front E with respect to the reference position O in the area E 8.
  • the sound image can be smoothly moved clockwise in response to the clockwise movement of the image by the angle information from area E1 to area E2 of the 360 ° camera image 82. Can be.
  • the image of the singer 84 and the performer 85 on the stage 83 having the angle information in the front center direction with respect to the reference position O in the area E 1 is displayed on the stage 83 in the front center direction.
  • the sound image of the singer 84 and the performer 85 is localized, and the right and left angle information of the audience 86 with the forward right angle information with respect to the reference position O in the area E 8 is displayed.
  • the sound image of the spectator 86 in the right and left direction is localized with respect to the image of the spectator 86 having the right and left angle information with respect to the reference position O in the area E7.
  • the sound image of the spectator 86 in the rear right direction is localized with respect to the image of the spectator 86 having the right angle information of the rear position with respect to the reference position O at 6,
  • the sound image of the spectator 86 in the rear center direction is localized, and the sound image of the spectator 86 in the rear left direction is compared to the image of the spectator 86 having left angle information with respect to the reference position O in area E4.
  • the sound image of the spectator 86 in the left lateral direction is localized with respect to the image of the spectator 86 in the left lateral direction with respect to the reference position O in the area E 3.
  • the sound image of the spectator 86 in the forward left direction is continuously located with respect to the video of the spectator 86 having the angle information,,.
  • the angle information at this time is not limited to the horizontal angle information,,, and the vertical angle information,, can be specified.
  • the area E1 to the area E8 of the 360-degree camera imaged image 82 are compared with the image of the area E1. Then, the localization of the sound image can be processed in a three-dimensional space in the channel matching section.
  • the control amount of each signal processing depends on the angle information that moves with respect to the reference position O of the omnidirectional camera 81 in the content that captures the 360 ° camera image 82.
  • the panning unit 3 3-4 shown in Fig. 3 processes the sound image so that the localization angle moves in proportion.
  • the sound processing unit 33-3 shown in FIG. Processed to reduce or increase the volume.
  • the equalizer processing section 33-1 shown in FIG. It is processed to lower the equalizer processing in the frequency band to lower the sound in the high frequency band, or to improve the equalizer processing in the high frequency band to raise the sound in the higher frequency band.
  • the reverb processing unit 33-2 shown in FIG. Is processed so that the reverb process takes a shallow depth.
  • the HRTF processing unit shown in FIG. The value is changed so that the sound image becomes farther, or the value is changed so that the sound image becomes closer.
  • a circumferential camera described later may be used.
  • FIG. 9 is a diagram showing imaging by a circumferential camera.
  • 1, 4, 9 1-5, 9 1 1 6, 9 1 — 7, 9 1 1 8 are provided to capture the circumferential video data having angle information,,.
  • the camera is not limited to the circumferential camera, but may be a part of an arc camera.
  • the angle information at this time is not limited to the horizontal angle information,, and the vertical angle information,, can be specified.
  • the localization of the sound image can be processed in the three-dimensional space by the channel mapping unit for the video of each area of the circumferential or arc-shaped captured video.
  • FIG. 10 is a diagram showing switching of the operation mode on the time axis.
  • switching between mode 1 (101), mode 2 (102), mode 1 (103), and so on is performed along the time axis t.
  • the mode 1 (101) and the mode 1 (103) correspond to a plurality of channels set by the operation mode setting section 31 of the channel mapping section shown in FIG.
  • mode 2 (102) is composed of a plurality of channels Non-fixed channel mode 31-2 of the second operation mode in which only a specific channel of the audio signals is specified and sound image localization signal processing is performed, and other channels are not subjected to signal processing.
  • the fixed channel mode 31-1 in the first operation mode As the fixed channel mode 31-1 in the first operation mode, the audio of the singer 84 and the performer 85 in the 360-degree camera image 82 shown in FIG. Faith The sound image localization signal processing is applied to all the channels of the signal, and the non-fixed channel mode 31 2 of the second operation mode is the 360 ° camera image shown in Fig. 8.
  • sound image localization signal processing is applied only to the audio signal channel of the singer 84, and the audio signal channel of the player 85 is fixed without performing the image localization signal processing. .
  • FIG. 11 is a diagram showing a captured sound image by HRTF.
  • a listener 1 1 1 1 plays a reproduced sound image reproduced by speakers L, R, SL, and SR corresponding to the angle information of a free viewpoint video reproduced on a video monitor 1 1 2.
  • the free viewpoint video reproduced on the video monitor 112 becomes a zoom image, and for example, when a singer on the stage approaches the right ear of the listener 111, it whispers as shown in Fig. 3.
  • the HRTF processing unit 3 3-5 processes the sound image so that its value is changed so as to be closer to the right ear of the listener 1 1 1, and the listener 1 1 1 1 Processing is performed so that the corrected sound image 1 1 4 is localized at the right ear.
  • FIG. 12 is a configuration diagram of a correction process using HRTF.
  • audio data AI is supplied to a pan processing unit 12 1, subjected to pan processing by a pan processing unit 12 1, and subjected to left and right stereo audio data R and L and surround audio data SL and SR. Is output.
  • the output side of the switches SW123 and SW124 is connected to the pan processing unit 121 side.
  • the free viewpoint video played on the video monitor 1 1 2 becomes the zoom video, and for example, when the singer on the stage approaches the right ear of the listener 1 1 1 and whispers, the audio data AI turns on.
  • the captured audio data AO supplied to 24 The left and right stereo audio data R and L are output.
  • the outputs of the switches SW123 and SW124 are connected to the HRTF processing unit.
  • Fig. 13 is a flowchart showing the operation of the production system.
  • step S1 an input / output device (IO device) is initialized.
  • the control program is read by substituting initial values and starting, for example, a GUI application on the operating system (OS).
  • step S2 a video file is specified. Specifically, a video file for which content is to be controlled is specified from the video data 10 of the free viewpoint video shown in FIG.
  • step S3 the operation mode is specified. Specifically, in the GUI application screen 41 shown in FIG. 4, the sound creator clicks the icon of the operation mode setting section 42, as shown in FIG. In addition, the fixed channel mode of the first operation mode in which the sound image localization signal processing is performed on all of the channels of the audio signals of the plurality of channels 3 1 1 1 1 The identification of the audio signals of one or more channels Sound channel localization by specifying only channel No. 3 Non-fixed channel mode 3 1-2 of the second operation mode in which signal processing is performed and other channels are not processed is selected and set, step S 4 Use to assign a fixed or mobile channel. Specifically, first, the sound creator clicks the icon of the track setting section 43 on the GUI application screen 41, and is selected by the viewpoint selecting section 5.
  • the frame processing is performed by moving the frame corresponding to the time information of the video signal so that it corresponds to the user's viewpoint selection information that is the angle information of the reproduced sound image Frame processing unit 4 3-1, which performs horizontal angle processing, horizontal angle processing unit 4 3-2, which performs horizontal angle processing, zoom processing unit 4 3-3, which performs zoom processing, and vertical angle processing unit which performs vertical angle processing 4 Set 3-3 to the setting state of the selected frame image.
  • the track setting unit 43 corresponds to the viewpoint selection unit 5 shown in FIG. 1, and the window is displayed on the lower or upper layer of the GUI application screen 41 according to this setting. Set to the setting state of the selected frame image according to the display state of free viewpoint viewer 4 that changes over 360 degrees.
  • an equalizing processing unit 44-1 that performs equalizing processing on audio signals using predetermined parameters
  • a reverb processing unit 44-1-2 that performs reverb processing
  • volume processing HRTF that performs sound characteristic processing by changing the transfer function that reaches the user's ear using the HRTF and the volume processing unit 44_3, the non-processing unit 44-4 that performs non-processing, and the HRTF
  • the processing sections 44-5 can be set to a signal processing state for the audio signal of each channel for the frame image set by the track setting section 43.
  • a mobile channel or fixed channel is set according to the setting of this parameter setting section 4 4.
  • step S5 video playback is started. Specifically, a video signal that changes over 360 degrees of the free viewpoint video of the free viewpoint viewer 4 displayed on the lower or upper layer of the GUI application screen 41 over a range of 360 degrees is used. Start video playback. At the same time, sound reproduction by audio signals is started.
  • step S6 it is determined whether or not the time meta data recording mode when the time key 45, which is the time meta data recording mode key, is pressed. More specifically, the parameter setting unit performs processing for reducing the equalizer processing in the high frequency band or the low frequency band corresponding to the angle information of the operation information C with respect to the equalizer processing unit 33_1 shown in FIG.
  • Operation metadata and reverb processing unit 3 3 1 3 Operation data and volume processing unit for lowering reverb processing in high frequency band or low frequency band according to, for example, angle information of operation information C 3 3 — 3
  • the operation metadata for moving the sound position according to the angle information of the operation information C for the pan processing units 3 3-4 For example, whether there is signal processing for the HRTF processing units 3 3-5 using operation metadata for improving or decreasing the frequency transfer characteristic according to the angle information of the operation information C, or Is the time required for the parameter setting unit to reduce the equalizer processing in the high frequency band or the low frequency band according to the time information of the operation information C, for example, for the equalizer processing unit 33-1 shown in Fig. 6.
  • the time metadata for the reduction of the reverb processing in the high frequency band or the low frequency band according to the time information of the operation information C For example, time data for moving the position of the sound in accordance with the time information of the operation information C, or improvement of the frequency transfer characteristic for the HRTF processing unit 33 to 5 corresponding to the time information of the operation information C, or Judge whether it is due to the time metadata for the decrease.
  • step S6 If the mode is not the time metadata recording mode in step S6, the process proceeds to step S7, and in step S7, it is determined whether or not the channel mapping signal processing unit is operated by the operation metadata.
  • Operation data for lowering the reverb processing in the high frequency band or low frequency band, operation data for moving the sound position according to the angle information of the operation information C for the pan processing unit 33 14 For example, it is determined whether or not there is a signal processing for the HRTF processing unit 33_5 using operation metadata for improving or decreasing the frequency transfer characteristic according to the angle information of the operation information C, for example.
  • step S7 when there is an operation of the channel mapping signal processing unit by the operation metadata, the process proceeds to step S8, and in step S8, the viewpoint information and the operation information are recorded as metadata. More specifically, for example, the operation metadata and the reverb for the equalizer processing unit 33-1 shown in FIG. 5 for lowering the equalizer processing in the high frequency band or the low frequency band according to the angle information of the operation information C.
  • the operation metadata for lowering the reverb processing in the high-frequency band or the low-frequency band according to the angle information of the operation information C with respect to the processing unit 33-2, and the angle of the operation information C with respect to the pan processing unit 33-4 Operation metadata for moving the position of the sound according to the information, operation metadata for the HRTF processing unit 33 to 5 for improving or reducing the frequency transfer characteristics according to the angle information of the operation information C, for example Then, each data is taken out and stored in the operation metadata section MC in correspondence with each angle information.
  • step S6 If the recording mode is the time metadata recording mode in step S6, the process proceeds to step S10, and in step S10, it is determined whether or not the channel mapping signal processing unit is operated by the time metadata. Specifically, for example, the high-frequency band or low-frequency band corresponding to the time information of the operation information C for the equalizer processing section 33-1 shown in FIG.
  • Time metadata for improving or lowering the frequency transfer characteristic according to the information is extracted, and it is determined whether or not the time metadata is stored in the time metadata unit MT in correspondence with each time information.
  • step S10 when there is an operation of the channel matching signal processing unit by the time metadata, the process proceeds to step S11, and the time information and the operation information are recorded as metadata.
  • time metadata for reducing reverb processing in a high frequency band or a low frequency band according to time information of operation information C for processing section 33_2, and time of operation information C for pan processing section 33-4 Time metadata for moving the position of the sound in accordance with the information, and time metadata for improving or decreasing the frequency transfer characteristic corresponding to the time information of the operation information C to the HRTF processing units 3 3 to 5 are respectively stored. It is extracted and stored in the time metadata section MT in correspondence with each piece of time information.
  • step S9 it is determined whether or not to stop the video reproduction. If the playback of the video is not to be stopped in step S9, the process returns to step S6 and repeats the determination in step S6. When stopping the reproduction of the video in step S9, the process proceeds to step S12, and the reproduction of the video and the sound is stopped in step S12.
  • FIG. 14 is a flowchart showing the operation of the reproduction system.
  • step S21 an input / output device (IO device) is initialized. More specifically, the control program is read by substituting initial values and starting, for example, a GUI application on the operating system (OS).
  • OS operating system
  • step S22 a video file is specified. Specifically, a video file for reproducing content is specified from the video data of the video player 22 shown in FIG.
  • step S23 video playback is started. Specifically, the reproduction of the video by the video signal corresponding to the angle information by the selection of the viewpoint selection unit 23 of the free viewpoint video displayed on the video monitor 26 by the reproduction operation of the video player 22 is started. To At the same time, the reproduction of sound by the audio signal is started.
  • step S24 it is determined whether or not the playback mode is the time metadata playback mode.
  • the parameter setting unit performs an operation on the equalizer processing unit 33-1 shown in FIG. 5 to reduce the equalizer processing in the high frequency band or the low frequency band according to the angle information of the operation information C, for example.
  • operation metadata for moving the position of the sound in accordance with the angle information of the operation information C for the HRTF processing unit 33 15 Signal processing using operation metadata to perform the operation, or the parameter setting unit sets the time of operation information C to the equalizer processing unit 33-1 shown in Fig. 6, for example.
  • High frequency band or Me other reduction of the equalizer process in the low frequency band time metadata for example, steering for reverberation processing unit 3 three to 2 in accordance with the distribution Operation metadata
  • time metadata for moving the position of the sound according to the time information of operation information C for 3 3 — 4 or frequency transfer characteristics for the HRTF processing unit 3 3-5 according to the time information of operation information C for example Determine if it is due to time metadata for improvement or decline.
  • step S24 If the playback mode is not the time metadata playback mode in step S24, proceed to step S25, and if it matches the viewpoint information in step S25, send the operation information to the signal processing unit for change. I do.
  • the operation information C for the equalizer processing unit 33-1 shown in FIG. 5 is set so as to correspond to the angle information selected by the viewpoint selection unit 23.
  • Operation metadata for lowering the equalizer processing in the high frequency band or low frequency band according to the angle information of the high frequency band or low frequency according to the angle information of the operation information C for the repurb processing unit 33_2 Operation metadata for lowering the reverb processing in the band, operation metadata for panning sections 3 3-4, for example, moving the position of the sound according to the angle information of operation information C, HRTF processing section 3 3
  • signal processing based on operation metadata for improving or lowering the frequency transfer characteristic according to the angle information of the operation information C is performed for ( — 5).
  • step S24 If the playback mode is based on the time metadata in step S24, the process proceeds to step S27, and in step S27, the operation information is sent to the signal processing unit and changed when the time comes. . Specifically, in the playback mode using the time metadata, the high-frequency band corresponding to the time information of the operation information C to the equalizer processing unit 33-1 shown in FIG.
  • reverb processing unit 3 3 For example, time metadata for lowering the reverberation process in the high frequency band or low frequency band according to the time information of operation information C for operation information C, pan processing unit 3 3 — Time information for operation information C for 4 Time data for moving the position of the sound according to the time, and a signal based on the time metadata for improving or decreasing the frequency transfer characteristic according to the time information of the operation information C for the HRTF processing units 3 3-5, for example. Perform processing.
  • step S26 it is determined whether or not to stop the video playback. If the playback of the video is not to be stopped in step S26, the process returns to step S24 and repeats the determination in step S24. If the playback of the video is to be stopped in step S26, the process proceeds to step S28, and the playback of the video and audio is stopped in step S282.
  • Fig. 15 is a diagram showing the function of channel mapping in the production system.
  • Fig. 15A is for real sound
  • Fig. 15B is for virtual sound
  • Fig. 15C is real sound. It is the case of the combination of the word and the natural sound.
  • the equalization processing in the high-frequency band or the low-frequency band for the equalizer processing section 33_1 is reduced by the operation information C, and the reverb processing section 33— Signal processing is performed by lowering the reverb processing in the high frequency band or low frequency band for 2, lowering the volume for the volume processor 3 3-3, and moving the position of the surround sound for the surround pan processor 15 1.
  • a real surround multi-output such as a 4-channel or 5-channel can be obtained.
  • the equalizer is provided by the operation information C.
  • Degradation of equalizer processing in high frequency band or low frequency band for processing unit 33-1, reverb processing unit in high frequency band or low frequency band for reverb processing unit 33-2 Signal processing is performed by lowering the volume processing, lowering the volume to the volume processor 3 3-3, and improving or lowering the frequency transfer characteristics to the HRTF processor 33 15. Thereby, for example, the reproduced sound image can be localized at an arbitrary position with respect to the channel of the audio signal selected and set.
  • the operation information C is switched according to the switching of the switches SW21, SW22, and SW23 SW24.
  • the equalizer processing in the high frequency band or the low frequency band for the equalizer processing unit 33-1 is reduced
  • the reverb processing in the high frequency band or the low frequency band for the reverb processing unit 33-2 is reduced, and the volume processing is performed.
  • the signal processing is performed by lowering the volume to the control section 3 3-3 and moving the position of the surround sound to the surround pan processing section 1 51, the output of the real surround is obtained and the operation is performed.
  • the equalizer processing in the high frequency band or the low frequency band for the equalizer processing unit 3 3-1 is reduced, and the high frequency band or the low Reduction of reverberation processing in frequency band, volume processing unit 3 3 - decrease in volume against 3, the improvement or lysine No. processed by the decrease in the frequency transfer characteristics for HR T F processing unit 3 3 5 subjected.
  • the viewpoint operation metadata 1 5 5 is recorded in which the angle information is 45 degrees and the sound is lowered by 3 dB.
  • the time metadata for switching from mode 1 to mode 2 in 1 minute 30 seconds 15 frames may be recorded. Good.
  • the operation metadata or the time metadata may be recorded.
  • Figure 16 shows a variation of channel mapping for production and playback systems.
  • Figure 16A shows the case of the impulse response convolution type
  • Figure 16B shows the reverb for 5 ch output. This is the case of processing.
  • FIG. 16A in the case of the impulse response convolution type, the reduction of the equalizer processing in the high frequency band or the low frequency band with respect to the equalizer processing unit 33-1, and the decrease in the volume with respect to the volume processing unit 33-3, are performed.
  • impulse response convolution type Surround pan processing unit 16 1 Signal processing is performed by moving the position of the surround sound in which the impulse response is convolved with the impulse response convolution type. Since the surround pan processing section 16 1 includes a repurb processing section, it is not necessary to provide a reverb processing section. As a result, it is possible to obtain a five-channel output having the corrected salon channel.
  • the equalizer processing unit 3 3-1 is reduced in the equalizer processing in the high frequency band or the low frequency band, and the volume processing unit 3 3-3 is reduced.
  • the reverb processing unit 3 3 By performing signal processing and adding by lowering the reverb processing in the high frequency band or low frequency band for 2, the reverb processing is performed on each channel, and the surrounded channels corrected Thus, a five-channel output having the following can be obtained. It is needless to say that the present invention is not limited to the example shown in the above-described embodiment, and other examples can be appropriately used within the scope of the claims of the present invention.
  • a sound image localization signal processing device is directed to a production system for localizing a reproduced sound image in a reproduction system to an arbitrary position so as to correspond to an image based on a video signal having angle information with respect to a reference position.
  • the sound image localization signal processing device for performing signal processing on the audio signal synthesized by the synthesizing means with each sound source data input from a plurality of sound sources in the above, the user who becomes angle information of a reproduced sound image of a video based on the video signal is used.
  • Selecting means for selecting the viewpoint selection information, and performing signal processing for sound image localization on a channel of the audio signal corresponding to the user's viewpoint selection information which is the angle information of the reproduced sound image selected by the selection means.
  • Sound image localization control processing means for performing in real time
  • control information generating means for generating control information for performing signal processing by the sound image localization control processing means
  • transmission information generating means for generating transmission information by superimposing the audio signal and the control information on the video signal, performing signal processing on the audio signal in real time, and Since the sound image localization position is controlled according to the video based on the signal, it also moves when the video is moved by changing the angle when playing the audio signal for the free viewpoint video. This has the effect that control for localizing the sound image in the direction of the image can be performed during production.
  • the sound image localization control processing means includes a step in which the sound image localization control processing means applies signals to all of the audio signals of a plurality of channels.
  • the sound image localization control processing means may correspond to user viewpoint selection information serving as angle information of the reproduced sound image selected by the selection means. Since there is a track setting means for generating an operation signal for performing the signal processing on the audio signal by frame processing, horizontal angle processing, zoom processing and / or vertical angle processing of the video signal. The signal processing is performed on the audio signal by the operation signal generated by processing the image of the video signal so as to correspond to the user's viewpoint selection information which is the angle information of the reproduced sound image selected by the means. The effect is that it can be applied.
  • the sound image localization control processing means includes a predetermined parameter for the audio signal based on the operation signal from the track setting means. Since it has parameter setting means for performing equalizing processing, repurbing processing, volume processing, pan processing, and Z or transfer characteristic processing, it is possible to change the sound image localization by performing signal processing on audio signals according to the parameters. It has the effect of being able to
  • control information generating means generates the control information based on the parameter corresponding to the viewpoint selection information. This has the effect that the sound image localization can be changed by the control information.
  • control information generating means generates the control information using a parameter corresponding to the time axis information. This has the effect that the sound image localization can be changed.
  • the sound image localization control processing means uses the operation mode setting means to switch the first operation mode and the second operation mode. Switching on the time axis allows switching between the fixed channel mode of the first operation mode and the non-fixed channel mode of the second operation mode on the time axis. This makes it possible to diversify the modes of the sound image localization processing on the audio signal when switching between the audio signals.
  • the sound image localization control processing means performs the signal processing by designating only a virtual surround channel among the audio signals of a plurality of channels. Since the other real surround channels do not perform the above signal processing, it is possible to selectively switch between obtaining a virtual surround output and switching between them when playing a real surround. By performing this, it is possible to localize the reproduced sound image at an arbitrary position only for the channel of the audio signal selected and set.
  • the sound image localization signal processing device of the present invention is a sound image localization signal processing method, wherein sound source data input from a plurality of sound sources are synthesized by synthesis means and subjected to signal processing based on control information in a production system.
  • a sound image localization signal processing device that performs signal processing on reproduction information so that a reproduction sound image is localized at an arbitrary position in a reproduction system so as to correspond to an image based on a video signal having angle information with respect to a position
  • Reproduction information reading means for reading the video signal, the audio signal and the control information from the audio signal and the control information superimposed on the video signal in the recording / reproduction information, and a video signal for reproducing the video signal Playback means and an image based on the video signal
  • Selecting means for selecting the user's viewpoint selection information as the angle information of the reproduced sound image of the image; and the audio signal corresponding to the user's viewpoint selection information as the angle information of the reproduced sound image selected by the selecting means
  • Sound image localization control processing means for performing signal processing for sound image localization in real time on the channel of the audio signal, performing signal processing on the audio signal in real time, and performing sound processing corresponding to a video based on the video signal. Since the image localization position is controlled, it is possible to localize
  • the sound image localization control processing means performs at least a surround pan process on the audio signal by a predetermined parameter in accordance with the viewpoint selection information. Since there is a parameter setting means for applying, it is possible to obtain an output having a corrected sound channel.
  • the sound image localization signal processing method of the present invention is provided in a production system such that a reproduced sound image in a reproduction system is localized at an arbitrary position so as to correspond to an image based on a video signal having angle information with respect to a reference position.
  • the sound image localization signal processing method for performing signal processing on audio signals synthesized by the synthesis means by combining each sound source data input from a plurality of sound sources angle information of a reproduced sound image of a video based on the video signal is used.
  • Sound image localization control processing step for performing real-time signal processing of the signal and control information for performing signal processing by the sound image localization control processing step.
  • a control information generation step of forming, on the video signal A transmission information generating step of generating transmission information by superimposing the audio signal and the control information, performing signal processing on the audio signal in real time, and corresponding to a video based on the video signal. Since the localization position is controlled, it is possible to control the sound image in the direction of the moving image even when the image is moved by changing the angle when reproducing the audio signal for the free viewpoint image. This has the effect that control can be performed during production.
  • the sound image localization signal processing method of the present invention provides a sound image localization signal processing method comprising: synthesizing sound source data input from a plurality of sound sources by a synthesizing unit and performing signal processing based on control information in a production system;
  • a sound image localization signal processing method for performing signal processing on reproduction information so that a reproduction sound image is localized at an arbitrary position in a reproduction system so as to correspond to an image based on a video signal having angle information with respect to a position A reproduction information reading step for reading the video signal, the audio signal, and the control information from the audio signal and the control information superimposed on the video signal in the recording / reproduction information; and a video for reproducing the video signal.
  • a signal reproducing step and selecting a user's viewpoint selection information as angle information of a reproduced sound image of a video based on the video signal.
  • sound image localization control that performs signal processing for sound image localization in real time on the channel of the audio signal corresponding to the user's viewpoint selection information that is the angle information of the reproduced sound image selected in the selection step.
  • Processing step the audio signal is processed in real time, and the sound image localization position is controlled in accordance with the video based on the video signal.
  • an effect is achieved in that even when an image is moved and reproduced by changing the angle, the sound image can be localized in the direction of the moving image.
  • a 360-degree image which is obtained by dividing a subject around 360 degrees called an omnidirectional camera into, for example, 8 fields of view and performing continuous processing, should pay particular attention to the viewpoint.
  • This is called a free viewpoint video because it captures an image around 360 degrees, and the present invention is used in reproducing an audio signal for the free viewpoint video.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Stereophonic System (AREA)

Description

明现曞
音像定䜍信号凊理装眮および音像定䜍信号凊理方法 技術分野
本発明は、 䟋えば、 角床情報を有する映像信号に察応するォヌ ディォ信号に仮想音源定䜍凊理を行う音像定䜍信号凊理装眮およ ぎ音像定䜍信号凊理方法に関するものである。 背景技術
埓来、 党方䜍カメ ラ ず呌ばれる 3 6 0床の呚囲の被写䜓を䟋え ば 8画角に分割しお連続凊理しお撮像するものがあった。 この党 方䜍カメ ラで撮像された 3 6 0床撮像映像は、 特に芖点を泚芖す るこ ずなく 3 6 0床の呚囲を撮像するため自由芖点映像ず呌ばれ おいた。 この自由芖点映像に察応する音は 3 6 0床の呚囲の被写 䜓の䟋えば 8画角に分割した映像に察しお固定しおステレオ音堎 を再珟できるよ う にマむク口ホンを介しお収音されおいた。 発明の開瀺
このよ う に、 䞊述した埓来の自由芖点映像に察するオヌディオ 信号の再生においお、 たずえ出力がステレオ音声出力信号であ぀ たず しおも、このよ うなステレオ音声出力信号を再生した堎合に、 通垞音像は再生手段ず しお甚いる 2個のス ピヌカの間にのみ定䜍 し、 それ以倖の方向には定䜍しない。
埓っお、 再生時にテレビゞョ ン受像機等のモニタ䞊に再生され る映像を 3 6 0床撮像映像のう ち角床を倉化させお移動させお再 生した堎合には、 音像が 3 6 0床の呚囲の被写䜓の䟋えば 8画角 に分割した映像に察しお固定しおしたい、 音像がモニタに衚瀺さ れた移動しおいる画像ずは䞀臎せずに、 通垞音像は再生する 2個 のスピヌカの間にのみ定䜍し、 それ以倖の方向には定䜍しないず いう䞍郜合があった。 なお、 ゲヌム機噚においお、 音源および画 像をデヌタ ず しおメモリ に蚘憶しお、 メモリ から読み出した画像 に察する音源の䜍眮を倉化させるものがあるが、 映像信号ゃォヌ ディォ信号などのよ う に、 リ アルタむムでス ト リヌムで読み出し た画像に察しおリ アルタむムで音源の䜍眮を倉化させる技術が芁 求されおいた。
そこで、 本発明は、 かかる点に鑑みおなされたものであり 、 自 由芖点映像に察するオヌディオ信号の再生においお、 角床を倉化 させお映像を移動させお再生した堎合にも移動する映像の方向に 音像を定䜍させるこ ずができる音像定䜍信号凊理装眮および音像 定䜍信号凊理方法を提䟛するこ ずを課題ずする。
本発明の音像定䜍信号凊理装眮は、 基準䜍眮に察しお角床情報 を有する映像信号に基づく 映像に察応するよ う に再生時における 再生音像を任意の䜍眮に定䜍させるよ う に制䜜時においお耇数の 音源から入力される各音源デヌタを合成手段によ り合成したォヌ ディォ信号に信号凊理を斜す音像定䜍信号凊理装眮においお、 侊 蚘映像信号に基づく 映像の再生音像の角床情報ずなるナヌザヌの 芖点遞択情報を遞択する遞択手段ず、 䞊蚘遞択手段によ り遞択さ れた再生音像の角床情報ずなるナヌザヌの芖点遞択情報に察応す る䞊蚘オヌディオ信号のチャンネルに音像定䜍のための信号凊理 をリ アルタむムで斜す音像定䜍制埡凊理手段ず、 䞊蚘音像定䜍制 埡凊理手段によ り信号凊理を斜すための制埡情報を生成する制埡 情報生成手段ず、 䞊蚘映像信号に䞊蚘オヌディォ信号および䞊蚘 制埡情報を重畳しお送出甚情報を生成する送出甚情報生成手段ず を備え、 䞊蚘オヌディオ信号にリ アルタむムで信号凊理を斜しお 䞊蚘映像信号に基づく 映像に察応しお音像定䜍䜍眮を制埡するよ う にしたものである。 たた、 本発明の音像定䜍信号凊理装眮は、 耇数の音源から入力 される各音源デヌタを合成手段によ り合成しお制䜜時における制 埡情報によ り信号凊理を斜したオヌディオ信号に぀いお、 基準䜍 眮に察しお角床情報を有する映像信号に基づく 映像に察応するよ う に再生時においお再生音像を任意の䜍眮に定䜍させるよ う に再 生甚情報に信号凊理を斜す音像定䜍信号凊理装眮においお、 䞊蚘 再生甚情報における映像信号に重畳された䞊蚘オヌディオ信号お よび䞊蚘制埡情報から、 䞊蚘映像信号、 䞊蚘オヌディオ信号およ び䞊蚘制埡情報を読み出す再生甚情報読み出し手段ず、 䞊蚘映像 信号を再生する映像信号再生手段ず、 䞊蚘映像信号に基づく 映像 の再生音像の角床情報ずなるナヌザヌの芖点遞択情報を遞択する 遞択手段ず、 䞊蚘遞択手段によ り遞択された再生音像の角床情報 ずなるナヌザヌの芖点遞択情報に察応する䞊蚘オヌディオ信号の チャンネルに音像定䜍のための信号凊理をリ アルタむムで斜す音 像定䜍制埡凊理手段ずを備え、 䞊蚘オヌディオ信号にリ アルタむ ムで信号凊理を斜しお䞊蚘映像信号に基づく 映像に察応しお音像 定䜍䜍眮を制埡するよ う にしたものである。
たた、 本発明の音像定䜍信号凊理方法は、 基準䜍眮に察しお角 床情報を有する映像信号に基づく 映像に察応するよ うに再生時に おける再生音像を任意の䜍眮に定䜍させるよ う に制䜜時においお 耇数の音源から入力される各音源デヌタを合成手段によ り合成し たオヌディオ信号に信号凊理を斜す音像定䜍信号凊理方法におい お、 䞊蚘映像信号に基づく 映像の再生音像の角床情報ずなるナヌ ザ䞀の芖点遞択情報を遞択する遞択ステップず、 䞊蚘遞択ステツ プによ り遞択された再生音像の角床情報ずなるナヌザヌの芖点遞 択情報に察応する䞊蚘オヌディォ信号のチダンネルに音像定䜍の ための信号凊理をリ アルタむムで斜す音像定䜍制埡凊理ステップ ず、 䞊蚘音像定䜍制埡凊理ステップによ り信号凊理を斜すための 制埡情報を生成する制埡情報生成ステップず、 䞊蚘映像信号に䞊 蚘オヌディオ信号および䞊蚘制埡情報を重畳しお送出甚情報を生 成する送出甚情報生成ステップずを備え、 䞊蚘オヌディオ信号に リ アルタむムで信号凊理を斜しお䞊蚘映像信号に基づく映像に察 応しお音像定䜍䜍眮を制埡するよ う にしたものである。
たた、 本発明の音像定䜍信号凊理方法は、 耇数の音源から入力 される各音源デヌタを合成手段によ り合成しお制䜜時における制 埡情報によ り信号凊理を斜したオヌディオ信号に぀いお、 基準䜍 眮に察しお角床情報を有する映像信号に基づく映像に察応するよ う に再生時においお再生音像を任意の䜍眮に定䜍させるよ う に再 生甚情報に信号凊理を斜す音像定䜍信号凊理方法においお、 䞊蚘 再生甚情報における映像信号に重畳された䞊蚘オヌディオ信号お よび䞊蚘制埡情報から、 䞊蚘映像信号、 䞊蚘オヌディオ信号およ ぎ䞊蚘制埡情報を読み出す再生甚情報読み出しステップず、 䞊蚘 映像信号を再生する映像信号再生ステップず、 䞊蚘映像信号に基 づく 映像の再生音像の角床情報ずなるナヌザヌの芖点遞択情報を 遞択する遞択ステ ップず、 䞊蚘遞択ステップによ り遞択された再 生音像の角床情報ずなるナヌザヌの芖点遞択情報に察応する䞊蚘 オヌディオ信号のチャンネルに音像定䜍のための信号凊理をリ ア ルタむムで斜す音像定䜍制埡凊理ステップずを備え、 䞊蚘オヌデ ィォ信号にリ アルタむムで信号凊理を斜しお䞊蚘映像信号に基づ く 映像に察応しお音像定䜍䜍眮を制埡するよ う にしたものである, 埓っお本発明によれば、 以䞋の䜜甚をする。
制䜜系においお、 音像定䜍制埡凊理手段は、 遞択手段から映像 の角床情報に察応した制埡情報に基づいおオヌディオ信号のチダ ンネルに音像定䜍のための信号凊理をリ アルタむムで斜す。
たた、 制埡情報生成手段は、 音像定䜍制埡凊理手段で映像の角 床情報に察応しおオヌディオ信号のチャンネルに音像定䜍のため の信号凊理を斜すための音像定䜍凊理に甚いた制埡情報を栌玍す る。
送出甚情報生成手段は、 映像信号にオヌディオ信号および制埡 信号を甚いお送出甚のフォヌマツ トに基づいた送出甚デヌタを生 成する。 この送出甚デヌタは、 再生系に転送される。
これによ り、 制䜜系においお、 オヌディオ信号の任意のチャン ネルに音像定䜍のための信号凊理を斜すためのリ アルタむムの音 像定䜍凊理に甚いた制埡情報を生成しお、 自由芖点映像の映像信 号およぎォ䞀ディォ信号ず共に再生系に転送するこ ずによ り 、 自 由芖点映像の角床を倉化させお映像を移動させお再生した堎合に 移動する映像の方向にオヌディオ信号の再生音像を定䜍させるこ ずができる。
たた、 再生系においお、 音像定䜍制埡凊理手段は、 遞択手段か ら映像の角床情報に察応した制埡情報に基づいお制䜜系から転送 されたオヌディオ信号のチャンネルに音像定䜍のための信号凊理 をリ アルタむムで斜す。
音像定䜍制埡凊理手段で映像の角床情報に察応した制埡情報に 基づいおオヌディオ信号のチャンネルに音像定䜍のための信号凊 理を斜された補正オヌディオ信号は再生手段に出力される。 再生 手段は補正オヌディオ信号を再生しお映像の角床情報に察応した 再生音像を出力する。
これによ り、 再生系においお、 オヌディオ信号の任意のチャン ネルに音像定䜍のための信号凊理を斜しお捕正オヌディオ信号を 出力するための音像定䜍凊理に甚いた制埡情報を甚いお、 自由芖 点映像の映像信号に察するオヌディォ信号をリアルタむムで音像 定䜍凊理するこずによ り、 自由芖点映像の角床を倉化させお映像 を移動させお再生した堎合に移動する映像の方向にオヌディオ信 号の再生音像を定䜍させるこずができる。 図面の簡単な説明
図 1 は、 本実斜の圢態に適甚される 自由芖点映像 · 音声制䜜再生 システムの制䜜系の音像定䜍信号凊理装眮の構成を瀺すプロ ック 図である。
図 2は、 本実斜の圢態に適甚される 自由芖点映像 · 音声制䜜再生 システムの再生系の音像定䜍信号凊理装眮の構成を瀺すブロ ック 図である。
図 3は、チャ ンネルマッピング郚の構成を瀺すブロ ック図である。 図 4は、 G U I アプリ ケヌシ ョ ン画面を瀺す図である。
図 5は、 操䜜メ タデヌタの生成を瀺す図である。
図 6 は、 時間メ タデヌタの生成を瀺す図である。
図 7は、 メ タデヌタの蚘録フォヌマッ トを瀺す図であり、 図 7 A は 1 フ レヌムの先頭、 図 7 Bは 1 フ レヌムの末尟、 図 7 Cは各ァ ルバムの先頭に蚘録するものである。
図 8 は、 3 6 0床カメ ラ撮像映像を瀺す図である。
図 9 は、 円呚状カメ ラによる撮像を瀺す図である。
図 1 0は、 時間軞䞊での動䜜モヌ ドの切り換えを瀺す図である。 図 1 1 は、 H R T Fによる補正音像を瀺す図である。
図 1 2は、 H R T Fによる補正凊理の構成図である。
図 1 3は、 制䜜系のフロヌチャヌ トである。
図 1 4は、 再生系のフロヌチャヌ トである。
図 1 5は、制䜜系のチャ ンネルマツビングの働きを瀺す図であり、 図 1 5 Aはリ アルサりンドの堎合、 図 1 5 Bはバヌチャルサゥン ドの堎合、 図 1 5 Cはリアルサりン ドずパヌチャルサりン ドの組 み合わせの堎合である。
図 1 6 は、 制䜜系ず再生系のチャ ンネルマッピングのパリ゚ヌシ ョ ンを瀺す図であり、 図 1 6 Aはィンパルス応答畳み蟌み型の堎 合、 図 1 6 Bは 5 c h出力察応のリパヌブ凊理の堎合である。 発明を実斜するための最良の圢態
本実斜の圢態に適甚される音像定䜍信号凊理装眮は、 いわゆる 自由芖点映像におけるオヌディオ信号の音堎の再生においおナヌ ザ䞀が芖点を倉曎するに埓っお音像定䜍䜍眮が倉化するよ うにす るために、 映像コ ンテンツを制䜜するずきにサりン ドク リ゚ヌタ が映像に合わせおオヌディオ信号の再生音像を定䜍させるための 制埡情報をォヌサリ ング情報のメ タデヌタず しお再生偎に䌝送す るよ う にしたものである。
本実斜の圢態に適甚される音像定䜍信号凊理装眮に぀いお説明 する。
図 1 は、 自 由芖点映像 · 音声制䜜再生システムの制䜜系の音像 定䜍信号凊理装眮の構成を瀺すプロ ック図である。
図 1 に瀺す音像定䜍信号凊理装眮は、 自由芖点映像の角床を倉 化させお映像を移動させお再生した堎合に移動する映像の方向に オヌディオ信号の再生音像を定䜍させるよ う にオヌディオ信号を 制埡するメタデヌタを再生偎に䌝送する点が埓来ず倧きく異なる 点である。
図 1 においお、 制䜜系では、 自由芖点カメ ラのマむ ク玠材 1や その他の玠材 2が耇数チャンネルのオヌディオ入力ず しおミキサ 3 に入力される。 自由芖点カメ ラのマむ ク玠材 1 は、 自由芖点映 像に察応する音であり 3 6 0床の呚囲の被写䜓の䟋えば 8画角に 分割した映像に察しお固定しおステレオ音堎を再珟できるよ う に マむクロホンを介しお収音される。 その他の玠材 2は、 ドラむ玠 材ず呌ばれるものであ り 、 スポッ トマむ ク玠材、 アフ レコマむ ク 玠材たたはサりン ド゚フェク ト玠材などである。
ミキサ 3は、 サりン ドク リ゚ヌタが、 自由芖点カメ ラのマむク 玠材 1やその他の玠材 2などの耇数チャンネルの音源からのォヌ ディォ入力を、 自由芖点ビュヌァ 4で映像デヌタ 1 0の自由芖点 映像を 3 6 0床にわたっお芋るこずによ り映像の玠材を芋ながら 各チャンネルに合成凊理するよ う に調敎するこずができる音調敎 卓である。 䟋えば Nチャンネル 䟋えば 2 4チャンネル のォヌ ディォ入力デヌタを M (ぐ N ) チャンネル (䟋えば 4 〜 1 0チダ ンネル のオヌディオ出力デヌタに合成しお調敎する。
自由芖点ビュヌァ 4では、 芖点遞択郚 5における芖点を遞ぶ操 䜜キヌの操䜜によ り 自由芖点映像の角床情報が遞択される。 芖点 遞択郚 5 における芖点を遞ぶ操䜜キヌは、 䟋えば操䜜キヌの回転 によ り角床情報の遞択の動䜜をしお操䜜キヌの抌圧によ り決定の 動䜜をするこ ずができるものである。
ミ キサ 3 には機胜プロ ック ず しおチャンネルマツビング郚 6 が 蚭けられおいる。 ミキサ 3からのオヌディオ出力デヌタはチャン ネルマッ ピング郚 6 に䟛絊される。 チャンネルマツ ビング郚 6 に は芖点遞択郚 5から 自由芖点映像の角床情報が䟛絊されおいる。 そこで、 チャンネルマッ ピング郚 6 は、 芖点遞択郚 5から 自由芖 点映像の角床情報に察応した制埡情報に基づいおミキサ 3からの オヌディオ出力デヌタのチャンネルに音像定䜍のための信号凊理 をリ アルタむ ムで斜す。 チャンネルマッ ピング郚 6 は、 䟋えば 4 〜 1 0チャンネルの合成された音源のオヌディオデヌタを入力し お、 2チャンネ /レ乃至 5 . 1 チャンネノレ、 6 チャンネル、 7チダ ンネルなどのマルチオヌディオデヌタを出力する。 なお、 チャン ネルマツビング郚 6 の詳现に぀いおは埌述する。
チャンネルマッピング郚 6で自由芖点映像の角床情報に察応し た制埡情報に基づいおオヌディオデヌタのチャンネルに音像定䜍 のための信号凊理を斜された捕正オヌディオデヌタはオヌディオ モニタ 7に出力される。 オヌディオモニタ 7は補正オヌディオデ ヌタを再生しお自由芖点映像の角床情報に察応した再生音像を出 力する。 なお、 オヌディオモニタ 7 は、 å·Š  L )、 右 R ) のステ レオ音響を再生するスピヌカ.、 å·Š  L)、 右 R) のステレオ音響 を再生するぞッ ドホン、巊  L)、右 R)、 サラりン ド巊  S L )、 サラりン ド右  S R) の 4チャンネルのステレオ音響を再生する スピヌカたたは巊  L )、 右 R)、 䞭倮  C )、 サラりンド巊  S L)、 サラりン ド右  S R)、 サブりヌハ  S W) の 5. 1チャン ネルのステレオ音響を再生するス.ピヌ力を甚いおも よい。
たた、 チャンネルマッピング郚 6 で自由芖点映像の角床情報に 察応しおオヌディオデヌタのチダンネルに音像定䜍のための信号 凊理を斜された捕正オヌディオデヌタの音像定䜍凊理に甚いた制 埡情報は、 ォヌサリ ング情報のメタデヌタず しおメ タデヌタ郚 9 に䟛絊される。
ミ キサ 3からのオヌディオ出力デヌタは、 オヌディオレコヌダ 8に䟛絊され、 オヌディオレコヌダ 8は、 チャンネルマッピング 郚 6 からの䟋えば同期信号に同期しおオヌディオデヌタを送出甚 のフォヌマツ トにス ト リ ヌム化する。
オヌディオむンタヌリヌブ郚 1 1 は、 映像デヌタ 1 0にス ト リ ヌム化されたオヌディオデヌタおよびメ タデヌタ郚 9からのメ タ デヌタをィンタヌリヌブ凊理しお送出甚のフォヌマツ トに基づい た送出甚デヌタ 1 2を生成する。 この送出甚デヌタ 1 2は、 䟋え ば、 むンタヌネッ ト 1 3たたは蚘録媒䜓 1 4 を介しお埌述する再 生系に転送される。
これによ り 、 制䜜系においお、 オヌディオデヌタの任意のチダ ンネルに音像定䜍のための信号凊理を斜しお補正オヌディオデヌ タを出力するためのリ アルタむムの音像定䜍凊理に甚いた制埡情 報を生成しお、 自 由芖点映像の映像デヌタおょぎオヌディオデヌ タず共に再生系に転送するこずによ り、 自由芖点映像の角床を倉 化させお映像を移動させお再生した堎合に移動する映像の方向に オヌディオ信号の再生音像を定䜍させるこずができる。 図 2は、 自由芖点映像 · 音声制䜜再生システムの再生系の音像 定䜍信号凊理装眮の構成を瀺すプロ ック図である。
図 2 においお、再生系では、䞊述した図 1 に瀺した制䜜系から、 䟋えば、 ã‚€ ンタヌネッ ト 1 3たたは蚘録媒䜓 1 4を介しお転送さ れた送出甚デヌタ 1 2が再生甚デヌタ 2 1 ず しお入力される。 送 出甚のフォヌマツ トに基づいた再生甚デヌタ 2 1 の䞭から映像デ ヌタ、 オヌディオデヌタおよびメ タデヌタが読み出されお、 映像 デヌタはビデオプレヌダ 2 2に䟛絊され、 オヌディオデヌタは図 瀺しないオヌディオプレヌダに蚭けられたチャンネルマッピング 郚 2 4に䟛絊され、 図瀺しないオヌディオプレヌダに蚭けられた メ タデヌタはメ タデヌタ郚 2 5に䟛絊される。
ビデオプレヌダ 2 2では、 芖点遞択郚 2 3 における芖点を遞ぶ 操䜜キヌの操䜜によ り 自由芖点映像の角床情報が遞択される。 ビ デォプレヌダ 2 2で再生された自由芖点映像は芖点遞択郚 2 3 に よ り遞択された角床情報に基づいた映像が再生される。 芖点遞択 郚 2 3 における芖点を遞ぶ操䜜キヌは、 䟋えば操䜜キヌの回転に よ り角床情報の遞択の動䜜をしお操䜜キヌの抌圧によ り決定の動 䜜をするこ ずができるものである。
チャンネルマッ ピング郚 2 4には芖点遞択郚 2 3から自由芖点 映像の角床情報およびメ タデヌタ郚 2 5から制埡情報ず しおのメ タデヌタが䟛絊されおいる。 そこで、 チャンネルマッピング郚 2 4 は、 芖点遞択郚 2 3から自由芖点映像の角床情報に察応した制 埡情報ず しおのメ タデヌタに基づいお制䜜系から転送されたォヌ ディォデヌタのチャンネルに音像定䜍のための信号凊理をリ アル タむムで斜す。 チャンネルマッピング郚 2 4は、 䟋えば 4〜 1 0 チャンネルの合成された音源のオヌディオデヌタを入力しお、 2 チャンネノレ乃至 5 . 1 チャンネル、 6 チャンネノレ、 7チャンネノレ などのマルチオヌディオデヌタを出力する。 なお、 チャンネルマ ッビング郚 2 4の詳现に぀いおは埌述する。
チャンネルマッピング郚 2 4で自由芖点映像の角床情報に察応 した制埡情報ず しおのメ タデヌタに基づいおオヌディオデヌタの チャンネルに音像定䜍のための信号凊理を斜された補正オヌディ ォデヌタはオヌディオモニタ 2 7に出力される。 オヌディオモニ タ 2 7は補正オヌディオデヌタを再生しお自由芖点映像の角床情 報に察応した再生音像を出力する。 なお、 オヌディオモニタ 2 7 は、巊 L )、右R)のステレオ音響を再生するスピヌカ、巊 L)、 右R) のステレオ音響を再生するぞッ ドホン、巊  L )、右R)、 サラ りン ド巊  S L)、 サラ りン ド右  S R) の 4チャンネルのス テレオ音響を再生するス ピヌカたたは巊 L )、右R)、䞭倮C )、 サラりン ド巊  S L )、 サラりン ド右  S R)、 サブりヌハ  S W) の 5. 1チャンネルのステレオ音響を再生するスピヌカを甚いお もよい。
これによ り、 再生系においお、 オヌディオデヌタの任意のチダ ンネルに音像定䜍のための信号凊理を斜しお補正オヌディオデヌ タを出力するための音像定䜍凊理に甚いた制埡情報を甚いお、 自 由芖点映像の映像デヌタに察するオヌディオデヌタをリ アルタむ ムで音像定䜍凊理するこ ずにより、 自由芖点映像の角床を倉化さ せお映像を移動させお再生した堎合に移動する映像の方向にォヌ ディォ信号の再生音像を定䜍させるこ ずができる。
以䞋に、 チャンネルマッピング郚の詳现に぀いお説明する。 図 3は、 チャンネルマッピング郚の構成を瀺すブロ ック図であ る。
図 3 においお、 チャンネルマッピング郚は、 音像定䜍信号凊理 を斜すオヌディオ信号のチャンネルの指定に応じた動䜜モヌ ドを 蚭定する動䜜モヌ ド蚭定郚 3 1 ず、 芖点遞択郚 5 によ り遞択され たナヌザヌの芖点遞択情報に察応するフレヌム画像を蚭定する ト ラック蚭定郚 3 2 ず、 遞択されたフ レヌム画像に察応するオヌデ ィォ信号に信号凊理を斜すパラメヌタを蚭定するパラメヌタ蚭定 郚 3 3 ずを有しお構成される。
動䜜モヌ ド蚭定郚 3 1 は、 耇数のチャ ンネルのオヌディオ信号 の う ちすベおのチャ ンネルに音像定䜍信号凊理を斜す第 1 の動䜜 モヌ ドの固定チャ ンネルモヌ ド 3 1 — 1 ず、 耇数のチャ ンネルの オヌディオ信号の う ち特定のチャンネルのみを指定しお音像定䜍 信号凊理を斜しお他のチャ ンネルは信号凊理を斜さない第 2 の動 䜜モヌ ドの非固定チャンネルモヌ ド 3 1 侀 2 ずを有しお構成され る。
トラック蚭定郚 3 2 は、 芖点遞択郚 5 によ り遞択された再生音 像の角床情報ずなるナヌザヌの芖点遞択情報に察応するよ う に、 映像信号のフ レヌム凊理を行う フ レヌム凊理郚 3 2 - 1 ず、 æ°Žå¹³ 角床凊理を行う氎平角床凊理郚 3 2 - 2 ず、 ズヌム凊理を行うズ ヌム凊理郚 3 2 — 3 ず、 垂盎角床凊理を行う垂盎角床凊理郚 3 2 侀 3 ずを有しお構成される。 トラック蚭定郚 3 2は、 䞊述した構 成によ り動䜜モヌ ド蚭定郚 3 1 からの動䜜モヌ ド A Mおよび芖点 遞択郚 5からの芖点遞択情報 Vに応じおオヌディオ信号に信号凊 理を斜すための操䜜信号 Cを生成する。 なお、 これらの構成は、 すべお甚いおもよいし、 これに限らず、 凊理に応じお䜕れかを遞 択しお甚いおもよい。
パラメヌタ蚭定郚 3 3は、 トラ ック蚭定郚 3 2からの操䜜信号 Cに基づいお、 オヌディオ信号に所定のパラメヌタによ り䜍盞等 化のィコラむゞング凊理を行うィコラむゞング凊理郚 3 3 — 1 ず 残響のリバヌブ凊理を行う リバヌブ凊理郚 3 3 - 2 ず、 音量凊理 を行う音量凊理郚 3 3 - 3 ず、 音像の移動のパン凊理を行うパン 凊理郚 3 3 — 4 ず、 H R T F (頭郚䌝達関数  H e a d R e 1 a t e d T r a n s f o r m F u n c t i o n ) によ りナヌ ザ䞀の耳に到達する䌝達関数を倉曎するこ ずによ り音響特性凊理 を斜す H R T F凊理郚 3 3 - 5 ずを有しお構成される。
なお、 これらの構成は、すべお甚いおもよいし、 これに限らず、 凊理に応じお䜕れかを遞択しお甚いおもよい。 ここで、 パラメ䞀 タ蚭定郚 3 3 に䟛絊される操䜜信号。に応じお、 パラメヌタ蚭定 郚 3 3の各凊理郚に察する制埡情報ずなるメ タデヌタ M Dが生成 される。 メ タデヌタ M D の生成に぀いおは埌述する。
ここで、 H R T F凊理郚に぀いお説明する。
䟋えば、 リ スナの呚囲に眮かれた 5個の音源から リ スナの䞡耳 に至る 5系統のステ レオむ ンパルス応答を䜿甚しお、 5組のステ レオ音源デヌタを埗るこ ずができる。 䟋えば、 リ スナの巊前方の 音源から リ スナの䞡耳たでのむ ンパルス応答による䌝達関数を入 力信号に察しお畳み蟌む第 1 の音源ず、 リ スナの巊埌方の音源か ら リ スナの䞡耳たでのむ ンパルス応答による䌝達関数を入力信号 に察しお畳み蟌む第 2 の音源に察しお信号凊理を斜す堎合を説明 する。
ク リ゚ィタヌが芖点遞択郚 5 によ り、 音像䜍眮を第 1 の音源か ら第 2の音源に移動する移動情報を入力したずき、 チャ ンネルマ ッビング郚 6 の トラック蚭定郚 3 2 はこ の移動情報を角床パラメ —タあるいは䜍眮パラメヌタに倉換し、 倉換されたパラメヌタに 応じた操䜜信号 Cをパラメヌタ蚭定郚 3 3に䟛絊する。
この操䜜信号 Cによ り、 パラメヌタ蚭定郚 3 3 は、 第 1 の音源 ず第 2の音源から距離たたは角床の比で各凊理郚のレベル倀をク 口ス フヱ䞀ドするよ う に凊理する。
次に、 H R T F凊理郚の詳现な構成および動䜜に぀いお説明す る。
ミキサ 3から出力されるオヌディオ信号のディゞタル信号列の う ち巊のディゞタル信号 Lは、 䞀察の巊甚畳み蟌み積分噚おょぎ メ モ リ のう ちの畳み蟌み積分噚に䟛絊される。 こ こでは、 畳み蟌 み積分噚に付属するメモリ には、 リ スナの珟圚頭郚が向いおいる 方向の、 頭郚の芏準方向に察する、 仮想音源䜍眮から䞡耳に至る 䞀定のサンプリ ング呚波数および量子化ビッ ト数で衚されるデゞ タル蚘録された䞀組のィ ンパルス レスポンスが呌び出されおいる ディゞタル信号列は、 畳み蟌み積分噚においお、 こ のメモリ よ り 読み出されたィ ンパルス レスポンス ず リ アルタむ ムで畳み蟌み積 分される。 たた、 䞀察の右ク ロ ス トヌク甚畳み蟌み積分噚および メ モ リ は右のデむ ゞタル信号 Rのク ロス トヌク成分を䟛絊する。 䞊蚘ず同様に右のディゞタル信号 Rは、 䞀察の右甚畳み蟌み積 分噚およびメ モ リ の う ちの畳み蟌み積分噚に䟛絊される。 こ こで は、 畳み蟌み積分噚に付属するメモリ には、 リ スナの珟圚頭郚が 向いおいる方向の、 頭郚の芏準方向に察する、 仮想音源䜍眮から 䞡耳に至る䞀定のサンプリ ング呚波数および量子化ビッ ト数で衚 されるデゞタル蚘録された䞀組のィ ンパルス レスポンスが蚘憶さ れおいる。 ディゞタル信号列は、 畳み蟌み積分噚においお、 この メ モ リ よ り読み出されたむ ンパルス レスポンス ず リ アルタむムで 畳み蟌み積分される。 たた、 䞀察の巊ク ロ ス トヌク甚畳み蟌み積 分噚おょぎメ モ リ は巊のディゞタル信号 Lのク ロ ス トヌク成分を 䟛絊する。
たた、 䞀察の右ク ロス トヌク甚畳み蟌み積分噚およびメ モ リ 、 䞀察の巊クロス トヌク甚畳み蟌み積分噚およびメモリ においおも 䞊述ず同様にむ ンパルス レスポンス ず畳み蟌み積分が行なわれる このよ う に、䞀察の巊甚、䞀察の右クロス トヌク甚、䞀察の右甚、 䞀察の巊ク 口ス トヌク甚畳み蟌み積分噚およびメモリ においおィ ンパルス レスポンス ず畳み蟌み積分が行なわれたディゞタル信号 列は、 加算噚にそれぞれ䟛絊される。 加算噚で加算された 2チダ ンネルのディ ゞタル信号は適応凊理フィルタによ り リ スナの個人 差による耳の圢状の盞違、 ノ ã‚€ ズ、 甚いる音源固有の特性等を陀 く よ う に補正される。
䞊䟋では、 メ モ リ に H R T F ず しおのむ ンパルス レスポンスが 蚘憶されおいる䟋を瀺したが、 畳み蟌み積分噚に付属するメ モ リ に、 芏準方向に察しお固定された頭郚の、 仮想音源䜍眮から䞡耳 に至る䞀察のディ ゞタル蚘憶されたィ ンパルス レスポンスを蚘憶 させおもよい。 この堎合、 ディゞタル信号列はこのむ ンパルスレ スポンス ず リ アルタむ ムで畳み蟌み積分される。他のメ モ リ には、 頭郚の芏準方向に察する仮想音源䜍眮から䞡耳に至る䞡耳間の時 間差、 レベル差を衚す制埡信号を蚘憶させる。
そしお、 この畳み蟌み積分された各チャンネルのディゞタル信 号の各々に察しお、曎に怜出された芏準方向に察する頭郚運動を、 䞀定単䜍角床毎あるいは予め定められた角床毎に、 方向を含む倧 きさを衚すディゞタルァ ドレス信号に倉換し、 このァ ドレス信号 によ り予め他のメモリ に蚘憶された制埡信号を読みだし、 制埡装 眮においお、 リ アルタむムで補正し、 倉曎するよ う にしお、 その 結果を加算噚に䟛絊するよ う にしおも良い。
たた、 このむ ンパルス レスポンス ず リ アルタむ ムで畳み蟌み積 分されたディゞタル信号列を加算噚に䟛絊し、 加算噚からの 2チ ダ ンネルのディゞタル信号に察しお、 曎に怜出された芏準方向に 察する頭郚運動を、 䞀定単䜍角床毎あるいは予め定められた角床 毎に、方向を含む倧き さを衚すディゞタルァ ドレス信号に倉換し、 このァ ド レス信号によ り予め他のメ モ リ に蚘憶された制埡信号を 読みだし、 制埡装眮においお、 リ アルタむ ムで補正し、 倉曎する よ う にしおも良い。
こ こで、制埡装眮ず しおは、可倉遅延装眮ず可倉レベル制埡噚、 あるいは倚バン ドに分割されたグラフィ ックむコラむザ等の呚波 数垯域毎のレベル制埡噚ずの組み合わせで構成するこずができる, たた、 他のメ モ リ に蚘憶されおいる情報は、 リ スナの頭郚が向い おいる方向の、 頭郚の芏準方向に察する、 仮想音源䜍眮から䞡耳 に至る䞡耳間の時間差及ぎレベル差等を衚すむ ンパルス レスボン スでも良い。 この堎合には、 䞊述の制埡装眮は、 I I R、 あるい は F I Rの可倉ディゞタルフィルタヌで構成すれば良い。埓っお、 制埡装眮を甚いお H R T F ず しおのむ ンパルス レスポンスの倀を 倉化させるよ う にすればよい。
こ のよ う にしお制埡装眮によ り、 空間情報が䞎えられ、 適応凊 理フィルタによ り リ スナの個人差による耳の圢状の盞違、ノむズ、 甚いる音源及ぎヘッ ドホンの固有の特性を補正され、 か぀頭郚の 動きに察しお倉化の䞎えられる。
こ のよ う にしお芖点遞択郚 5 においおリ スナの芏準方向に察す る頭郚運動を䞀定角床あるいは予め定められた角床毎に怜出し、 ア ドレス制埡回路においお方向を含む倧き さを衚すディゞタルァ ドレス信号に倉換する。
こ のァ ド レス信号によ り予めメモリ に蚘録されおいる頭郚の基 準方向に察する仮想音源䜍眮から䞡耳に至るディゞタル蚘録され たむ ンパルス レスポンスが、 たた他のメモリ からは䞡耳間の時間 差および䞡耳間のレベル差を衚す制埡信号あるいはむ ンパルス レ スポンスを読み出す。 畳み蟌み積分噚たたは制埡装眮においお、 このむ ンパルス レスポンスたたは制埡信号ず音響信号ずをリ アル タむムで補正し倉曎する。
この畳み蟌み積分噚おょぎメ モ リ たたは制埡装眮および加算噚 によ り、 音堎ず しおの空間情報を持った䞡耳ぞの 2 チャ ンネルの ディゞタル信号に倉換され、 適応凊理フィルタによ り リ スナの個 人差による耳の圢状の盞違、 ノむズ、 甚いる音源の特性等が補正 され、 電力増幅噚で電力増幅された埌、 ス ピヌカに䟛絊される。 これによ り、 あたかもその仮想音源䜍眮に眮かれたス ピヌカから 再生音が聞こえるよ うな再生効果を実珟するこ ずができるもので ある。
そしお、 この堎合、 リ スナが自由芖点ビュヌァ 4を甚いお自由 芖点映像を動かすず、 芖点遞択郚 5 によ り、 その向きに埓ったデ むゞタル信号、 たたはアナログ信号が埗られ、 これによ りその信 号は自由芖点映像に察する リ スナの芖点の向きに埓った倀ずなる, こ の倀がァ ドレス制埡回路を通じおメモリ にァ ドレス信号ず しお 䟛絊される。
メ モ リ 力 らは、 テヌブルに察応したデヌタのう ち、 自由芖点映 像に察する リ スナの芖点の向きに察応した芏準方向に察する仮想 音源䜍眮から䞡耳に至るディゞタル蚘録されたィンパルス レスポ ンスたたは䞡耳間の時間差及び䞡耳間のレベル差を衚す制埡信号 が取り だされ、 このデヌタが畳み蟌み積分噚たたは制埡装眮に䟛 絊される。
芖点遞択郚 5からの角床情報に基づいおメ モ リ から自由芖点映 像に察する リ スナの芖点の向きに察応した頭郚の芏準方向に察す る仮想音源䜍眮から䞡耳に至るディゞタル蚘録されたィンパルス レスポンスたたは䞡耳間の時間差及び䞡耳間のレベル差を衚す制 埡信号が取り だされ、 こ のデヌタが畳み蟌み積分噚たたは制埡装 眮に䟛絊される。
このよ う にしお、 ス ピヌカに䟛絊されるオヌディオ信号 L R は、 自由芖点映像に察する リ スナの芖点の向きに察応した芏準方 向に察する仮想音源䜍眮から䞀耳に至るディゞタル蚘録されたィ ンパルス レスポンスたたは䞡耳間の時間差及ぎ䞡耳間のレベル差 を衚す制埡信号ずの補正が行なわれるので、 自由芖点映像に察す る リ スナの芖点の移動に察しおも、 移動した方向に耇数個のス ピ 䞀力が仮想音源䜍眮に眮かれおこのス ピヌカで再生しおいるよ う な音堎感を埗るこずが出来る。 曎にメ モ リ のテヌブルにディゞタル蚘録された䞡耳間の時間差 及ぎ䞡耳間のレベル差を衚す制埡信号が取りだされ、 このデヌタ が畳み蟌み積分噚おょぎメモリ によ り予め畳み蟌たれたディゞタ ル信号に察しお、 制埡装眮で補正するよ う に、 玔電子的に䟛絊さ れるので、 リ スナの頭の向きに察するオヌディオ信号の特性の倉 化に遅れを生じるこ ずがなく 、 䞍自然さを生じるこずはない。
さ らに、 H R T Fのデヌタは、 次によ う にしお埗るこ ずができ る。 すなわち自由芖点映像に察しおス ピヌカでオヌディオ信号を 再生したずきに奜た しい再生音堎ずなるよ う、 適圓な宀内に、 必 芁なチャ ンネル数のむ ンパルス音源ずダミヌ ぞッ ドマむクロホン を定められた䜍眮に配眮する。 この堎合のィ ンパルスを枬定する 音源ず しおはス ピヌカを甚いおもよい。
たたダミヌ ぞッ ドの各耳の収音䜍眮に関しおは、 倖耳道入り 口 から錓膜䜍眮たでの間の䜕れの䜍眮でもよいが、 甚いる音源の固 有の特性を打ち消すための捕正特性を求める䜍眮ず等しいこずが 芁求される。
たた制埡信号の枬定は、 各チャ ンネルのス ピヌカ䜍眮よ ã‚Šã‚€ ン パルス音を攟射し、 䞀定角床毎にダミヌ ぞッ ドの各耳に蚭けられ たマむ ク ロホンで収音するこ ずによ り埗られる。 埓っおある角床 においおは、 1 ぀のチャ ンネノレ毎に 1 糞䞔のむ ンノ ノレス レスポンス が埗られるこ ずになるから、仮に 5 チャ ンネルの信号源の堎合は、 1぀の角床毎に 5組、 すなわち 1 0皮の制埡信号が埗られるこず になる。 埓っお、 これらのレスポンスによ り、 巊右䞡耳間の時間 差及ぎレベル差を衚す制埡信号が埗られる。
曎に、 䞊述においおは、 リ スナの頭の氎平面内における向きに ぀いおのみ考慮したが垂盎面内および、 これら ず盎亀する面内に おける向きに぀いおも同様に凊理するこず も出来る。
たたメ モ リ におけるテヌブルは 1組ず し、 ァ ドレス制埡回路に おいおそのテヌブルに察するア ドレスの指定を倉曎しお耇数組の テヌブルがある堎合ず同様に制埡デヌタを埗るこ ずも出来る。
曎に、 テヌブルのデヌタは、 䞀般的な自由芖点映像に察する リ スナの芖点の向きの範囲に限っおもよく 、 たた、 角床  は、 䟋え ば、  = 0 °付近では 0 . 5 °おきに蚭定しおおき、 i " 4 5 ° Iで は 3 °おきに蚭定する ずいう よ う に、向きによっお角床 の間隔を 異ならせおもよい。 䞊述したよ う に、 リ スナが自由芖点映像に察 する リ スナの芖点の回転の角床を識別できる角床毎でょレ、。曎に、 ぞッ ドホンの代わりに、 リ スナ䞡耳の近く に配眮したス ピヌカで もよい。
図 4は、 G U I (G r a h i c a l U s e r I n t e r f a c e ) アプリ ケヌシ ョ ン画面を瀺す図である。 図 4は、 図 1 に瀺した芖点遞択郚 5 による 自由芖点ビュヌァ 4の衚瀺状態およ ぎ図 3に瀺したチャ ンネルマッピング郚の蚭定の状態を瀺すもの である。
図 4においお、 GU I アプリ ケヌシ ョ ン画面 4 1䞊では、 動䜜 モヌ ド蚭定郚 4 2が蚭けられおいお、 サりンドク リ゚ヌタが動䜜 モヌ ド蚭定郚 4 2 のアむ コ ンをク リ ックするこ ずによ り 、 図 3 に 瀺したよ う に、 耇数のチャ ンネルのオヌディオ信号のう ちすベお のチャ ンネルに音像定䜍信号凊理を斜す第 1 の動䜜モヌ ドの固定 チャ ンネルモヌ ド 3 1 - 1 ず、 耇数のチャ ンネノレのオヌディオ信 号のう ち特定のチャンネルのみを指定しお音像定䜍信号凊理を斜 しお他のチャ ンネルは信号凊理を斜さない第 2の動䜜モヌ ドの非 固定チャ ンネルモヌ ド 3 1 侀 2 ずを遞択しお蚭定するこ ずができ る。
たた、 G U I アプリ ケヌシ ョ ン画面 4 1䞊では、 トラ ック蚭定 郚 4 3が蚭けられおいお、 サりン ドク リ゚ヌタが トラック蚭定郚 4 3のアむ コ ンをタ リ ックするこ ずによ り 、 芖点遞択郚 5 によ り 遞択された再生音像の角床情報ずなるナヌザヌの芖点遞択情報に 察応するよ う に、 映像信号の時間情報に応じたフ レヌムを移動し おフ レヌム凊理を行う フ レヌム凊理郚 4 3 - 1 ず、 氎平角床凊理 を行う氎平角床凊理郚 4 3 - 2 ず、 ズヌム凊理を行うズヌム凊理 郚 4 3 - 3 ず、 垂盎角床凊理を行う垂盎角床凊理郚 4 3 - 3 ずを 所定のフ レヌム画像の蚭定状態に蚭定するこ ずができる。 なお、 こ こでは、 トラ ック蚭定郚 4 3が図ュ に瀺した芖点遞択郚 5 に察 応し、 この蚭定に応じおこの G U I アプリ ケヌシ ョ ン画面 4 1 の 䞋局たたは䞊局にりィン ドり衚瀺される自由芖点ビュヌァ 4の衚 瀺状態が自由芖点映像の 3 6 0床にわたっお倉化する。
たた、 G U I アプリ ケヌシ ョ ン画面 4 1䞊では、 パラメヌタ蚭 定郚 4 4が蚭けられおいお、 サりン ドク リ゚ヌタがパラメヌタ蚭 定郚 4 4のアむ コンをク リ ックするこ ずによ り 、 図 3 に瀺した ト ラック蚭定郚 3 2からの操䜜信号 Cに基づいお、 オヌディオ信号 に所定のパラメヌタによ りィ コラむゞング凊理を行うィ コラむゞ ング凊理郚 4 4 - 1 ず、 リパヌブ凊理を行う リバヌブ凊理郚 4 4 侀 2 ず、 音量凊理を行う音量凊理郚 4 4— 3 ず、 パン凊理を行う パン凊理郚 4 4 - 4 ず、 H R T Fによ りナヌザヌの耳に到達する 䌝達関数を倉曎するこ ずによ り音響特性凊理を斜す H R T F凊理 郚 4 4 - 5 ずを トラ ック蚭定郚 4 3 で蚭定されたフ レヌム画像に 察するオヌディオ信号に察しお信号凊理状態に蚭定するこ ずがで きる。 このパラメヌタ蚭定郚 4 4による蚭定に応じお捕正オヌデ ィォデヌタを埗るこずができる。
以䞋に、 メ タデヌタの生成に぀いお詳现に説明する。
図 5は、 操䜜メ タデヌタ の生成を瀺す図である。 図 5 の構成は 信号凊理を斜すオヌディオ信号の各チャンネル毎に蚭けられる。
図 5 においお、 図 3 に瀺した トラック蚭定郚 3 2からの操䜜情 å ± Cがパラメヌタ蚭定郚 3 3のむ コラむザ凊理郚 3 3 — 1、 リバ ヌプ凊理郚 3 3 — 2、音量凊理郚 3 3 — 3 、パン凊理郚 3 3 — 4、 H R T F凊理郚 3 3 — 5に䟛絊される。 各凊理郚にはオヌディオ デヌタ A I が連続しお入力される。 各凊理郚で操䜜信号 Cに基づ いお信号凊理を斜されお捕正オヌディオデヌタ A Oが出力される, この際のむコラむザ凊理郚 3 3 — 1 に察する䟋えば操䜜情報 C の角床情報に応じた高呚波数垯域たたは䜎呚波数垯域におけるィ コラむザ凊理の䜎䞋のための操䜜メ タデヌタ、 リパヌブ凊理郚 3 3 — 2 に察する䟋えば操䜜情報 Cの角床情報に応じた高呚波数垯 域たたは䜎呚波数垯域における リパヌブ凊理の䜎䞋のための操䜜 メ タデヌタ、 音量凊理郚 3 3 — 3に察する䟋えば操䜜情報 Cの角 床情報に応じた音量の高䜎の操䜜メ タデヌタ、 パン凊理郚 3 3 — 4に察する䟋えば操䜜情報 Cの角床情報に応じた音の䜍眮の移動 のための操䜜メ タデヌタ、 H R T F凊理郚 3 3 - 5 に察する䟋え ば操䜜情報 Cの角床情報に応じた呚波数䌝達特性の向䞊たたは䜎 䞋のための操䜜メ タデヌタを各々取り 出しお、 各角床情報に察応 させお操䜜メ タデヌタ郚 M Cに栌玍する。
これによ り、 ナヌザヌの芖野の角床情報に応じたチャンネルマ ッビング郚におけるオヌディオ信号に察する信号凊理機胜を倉化 させるこずができる操䜜メ タデヌタを生成するこ ずができる。
なお、 これらの各凊理郚の構成は、 すべお甚いおもよいし、 こ れに限らず、 凊理に応じお䜕れかを遞択しお甚いおもよいが、 こ の堎合には、 遞択された凊理郚の操䜜メ タデヌタを各角床情報に 察応させお操䜜メ タデヌタ郚 M Cに栌玍する。
図 6 は、 時間メ タデヌタの生成を瀺す図である。 図 6 の構成は 信号凊理を斜すオヌディオ信号の各チャンネル毎に蚭けられる。
図 6 においお、 図 3 に瀺した トラック蚭定郚 3 2からの操䜜情 å ± Cがパラメヌタ蚭定郚 3 3 のこ こでは図瀺しないむ コラむザ凊 理郹 3 3 — 1、 リバヌブ凊理郚 3 3 — 2、 音量凊理郚 3 3 — 3 を 経た埌に、 図 6 においおパン凊理郚 3 3— 4、 H R T F凊理郚 3 3— 5に䟛絊される。 各凊理郚にはオヌディオデヌタ A I が連続 しお入力される。 各凊理郚で操䜜信号 Cに基づいお信号凊理を斜 されお捕正オヌディオデヌタ A Oが出力される。
この際のこ こでは図瀺しないむコラむザ凊理郚 3 3 - 1 に察す る䟋えば操䜜情報 Cの時間情報に応じた高呚波数垯域たたは䜎呚 波数垯域におけるィ コラむザ凊理の䜎䞋のための時間メ タデヌタ リパヌブ凊理郚 3 3 _ 2に察する䟋えば操䜜情報 Cの時間情報に 応じた高呚波数垯域たたは䜎呚波数垯域における リパヌブ凊理の 䜎䞋のための時間メ タデヌタ、 音量凊理郚 3 3 — 3に察する䟋え ば操䜜情報 Cの角床情報に応じた音量の高䜎の操䜜メ タデヌタ、 パン凊理郚 3 3 — 4に察する䟋えば操䜜情報 Cの時間情報に応じ た音の䜍眮の移動のための時間メタデヌタ、 H R T F凊理郚 3 3 侀 5 に察する䟋えば操䜜情報 Cの時間情報に応じた呚波数䌝達特 性の向䞊たたは䜎䞋のための時間メ タデヌタを各々取り 出しお、 各時間情報に察応させお時間メ タデヌタ郚 M Tに栌玍する。
これによ り 、 時間軞の倉化による時間情報に応じたチャンネル マッピング郚におけるオヌディオ信号に察する信号凊理機胜を倉 化させるこ ずができる時間メタデヌタを生成するこ ずができる。
なお、 これらの各凊理郚の構成は、 すべお甚いおもよいし、 こ れに限らず、 凊理に応じお䜕れかを遞択しお甚いおもよいが、 こ の堎合には、 遞択された凊理郚の時間メ タデヌタを各時間情報に 察応させお時間メ タデヌタ郚 M Tに栌玍する。
図 7は、 メ タデヌタの蚘録フォヌマッ トを瀺す図であり、 図 7 Aは 1 フ レヌムの先頭、 図 7 Bは 1 フ レヌムの末尟、 図 7 Cは各 アルバムの先頭に蚘録するものである。
たず、 第 1 のメ タデヌタの蚘録フォヌマッ トでは、 図 7 Aにお いお、 映像デヌタ V I 、 V 2、 V 3、 V 4、 V 5 にオヌディオデ ヌタがむンタヌリヌブされた 1 フ レヌムの先頭にメ タデヌタ M l を蚘録する。 埓っお、 再生系では、 1 フ レヌムのデヌタを怜出し おバッファに保持し、 その先頭郚分を読み出せば、 メ タデヌタ M 1 を読み出すこずができる。
次に、 第 2のメ タデヌタの蚘録フォヌマッ トでは、 図 7 Bにお いお、 映像デヌタ V I、 V 2、 V 3、 V 4、 V 5 にオヌディオデ ヌタがむンタヌリヌブされた 1 フレヌムの末尟にメ タデヌタ M 2 を蚘録する。 埓っお、 再生系では、 1 フ レヌムのデヌタを怜出し おバッファに保持し、 その末尟郚分を読み出せば、 メ タデヌタ M 2を読み出すこ ずができる。
さ らに、 第 3のメ タデヌタの蚘録フォヌマッ トでは、 図 7 Cに おいお、 曲を瀺すアルバムの先頭にメ タデヌタ M l 1、 M l 2、 M l 3 を蚘録する。 埓っお、 再生系では、 各アルバムのデヌタを 怜出しおバ ッ フ ァ に保持し、 その先頭郚分を読み出せば、 メ タデ ヌタ M l 1 、 M l 2、 M l 3 を読み出すこ ずができる。
なお、 メ タデヌタの蚘録フォヌマッ トは、 これに限らず、 ディ スク状蚘録媒䜓の管理情報を蚘憶する T O C ( T a b 1 e O f C o n t e n t s ) 郚分に蚘録しおもよい。
図 8は、 3 6 0床カメ ラ撮像映像を瀺す図である。
図 8 においお、 党方䜍力メ ラ 8 1 は 3 6 0床の呚囲の被写䜓を 䟋えば 8画角に分割しお連続凊理しお撮像する。 党方䜍カメ ラ 8 1 によ り撮像された 3 6 0床カメ ラ撮像映像 8 2は、 基準䜍眮◊ に察しお前方䞭倮方向の角床情報 を有するステヌゞ 8 3䞊の歌 手 8 4および挔奏者 8 5 の映像を瀺す゚リ ア E 1 ず、 基準䜍眮 O に察しお前方巊方向の角床情報 を有する芳客 8 6 の映像を瀺す ゚リ ア E 2 ず、 基準䜍眮 Oに察しお巊暪方向の角床情報 を有す る芳客 8 6 の映像を瀺す゚リ ァ E 3 ず、 基準䜍眮 Oに察しお埌方 巊方向の角床情報 を有する芳客 8 6 の映像を瀺す゚リ ア E 4 ず 基準䜍眮 Oに察しお埌方䞭倮方向の角床情報 を有する芳客 8 6 の映像を瀺す゚リ ア E 5 ず、 基準䜍眮 Oに察しお埌方右方向の角 床情報 を有する芳客 8 6の映像を瀺す゚リ ア E 6 ず、 基準䜍眮 Oに察しお右暪方向の角床情報 を有する芳客 8 6 の映像を瀺す ゚リ ア E 7 ず、 基準䜍眮 Oに察しお前方右方向の角床情報 を有 する芳客 8 6の映像を瀺す゚リ ァ E 8 ずを有しお構成される。
図 1 に瀺した制䜜系のチャンネルマッピング郚 6 によ り芖点遞 択郚 5 による角床情報 に応じおオヌディオ信号に映像の移動ず 同期した音像定䜍の信号凊理を斜すこ ずによ り 、 3 6 0床カメ ラ 撮像映像 8 2 の゚リ ア E 1 〜゚ リ ア E 8 たでの角床情報 による 反時蚈方向の映像の移動に察応しお滑らかに音像を反時蚈方向に 移動させるこ ずができる。
これによ り、 ェリ ァ E 1 における基準䜍眮 Oに察する前方䞭倮 方向の角床情報 を有するステヌゞ 8 3䞊の歌手 8 4および挔奏 者 8 5の映像に察しお前方䞭倮方向のステヌゞ 8 3䞊の歌手 8 4 およぎ挔奏者 8 5の音像が定䜍し、 ゚リア E 2における基準䜍眮 Oに察する前方巊方向の角床情報 を有する芳客 8 6 の映像に察 しお前方巊方向の芳客 8 6の音像が定䜍し、 ゚リア E 3における 基準䜍眮 Oに察する巊暪方向の芳客 8 6の映像に察しお巊暪方向 の芳客 8 6 の音像が定䜍し、 ゚リ ア E 4における基準䜍眮 Oに察 する埌方巊方向の角床情報 を有する芳客 8 6 の映像に察しお埌 方巊方向の芳客 8 6 の音像が定䜍し、 ゚リ ア E 5 における基準䜍 眮 Oに察する埌方䞭倮方向の角床情報 を有する芳客 8 6 の映像 に察しお埌方䞭倮方向の芳客 8 6の音像が定䜍し、 ゚リ ア E 6に おける基準䜍眮 Oに察する埌方右方向の角床情報 を有する芳客 8 6 の映像に察しお埌方右方向の芳客 8 6 の音像が定䜍し、 ゚リ ァ E 7における基準䜍眮 Oに察する右暪方向の角床情報 を有す る芳客 8 6 の映像に察しお右暪方向の芳客 8 6 の音像が定䜍し、 ゚リ ア E 8における基準䜍眮 Oに察する前方右方向の角床情報  を有する芳客 8 6 の映像に察しお前方右方向の芳客 8 6の音像が 連続しお定䜍する。
逆に、 3 6 0床カメ ラ撮像映像 8 2の゚リ ア E 1 〜゚リ ア E 2 たでの角床情報 による時蚈方向の映像の移動に察応しお滑らか に音像を時蚈方向に移動させるこずができる。
これによ り 、 ゚リア E 1 における'基準䜍眮 Oに察する前方䞭倮 方向の角床情報 を有するステヌゞ 8 3䞊の歌手 8 4および挔奏 者 8 5の映像に察しお前方䞭倮方向のステヌゞ 8 3䞊の歌手 8 4 および挔奏者 8 5 の音像が定䜍し、 ゚リ ア E 8 における基準䜍眮 Oに察する前方右方向の角床情報 を有する芳客 8 6 の映像に察 しお前方右方向の芳客 8 6の音像が定䜍し、 ゚リ ア E 7における 基準䜍眮 Oに察する右暪方向の角床情報 を有する芳客 8 6の映 像に察しお右暪方向の芳客 8 6 の音像が定䜍し、 ゚リ ア E 6 にお ける基準䜍眮 Oに察する埌方右方向の角床情報 を有する芳客 8 6 の映像に察しお埌方右方向の芳客 8 6 の音像が定䜍し、 ゚リ ア E 5 における基準䜍眮 Oに察する埌方䞭倮方向の角床情報 を有 する芳客 8 6 の映像に察しお埌方䞭倮方向の芳客 8 6 の音像が定 䜍し、 ゚リア E 4における基準䜍眮 Oに察する埌方巊方向の角床 情報 を有する芳客 8 6 の映像に察しお埌方巊方向の芳客 8 6 の 音像が定䜍し、 ゚リ ア E 3 における基準䜍眮 Oに察する巊暪方向 の芳客 8 6の映像に察しお巊暪方向の芳客 8 6の音像が定䜍し、 ゚リ ア E 2における基準䜍眮 Oに察する前方巊方向の角床情報 , を有する芳客 8 6 の映像に察しお前方巊方向の芳客 8 6の音像が 連続しお定䜍する。
たた、このずきの角床情報は、氎平方向の角床情報 に限らず、 垂盎方向の角床情報 を指定するこ ずができる。 これによ り、 3 6 0床カメ ラ撮像映像 8 2の゚リ ア E 1 〜゚リ ア E 8の映像に察 しおチダンネルマツビング郚で音像の定䜍を 3次元空間で凊理す るこ ずができる。
各信号凊理の制埡量は、 3 6 0床カメ ラ撮像映像 8 2を撮像す るコ ンテンツでは、 党方䜍カメ ラ 8 1 の基準䜍眮 Oに察しお移動 する角床情報 に応じお、 図 3 に瀺したパン凊理郚 3 3 — 4によ り音像の定䜍角床が比䟋しお動く よ うに凊理される。
たた、 党方䜍カメ ラ 8 1 の基準䜍眮 Oに察しお前方から埌方た たは埌方から前方に移動するず移動距離に応じお、 図 3に瀺す音 量凊理郚 3 3 — 3 によ り音像の音量が小さ く たたは倧きく なるよ う に凊理される。
たた、 党方䜍力メ ラ 8 1 の基準䜍眮 Oに察しお前方から埌方た たは埌方から前方に移動するず移動距離に応じお、 図 3に瀺すィ コラむザ凊理郚 3 3 — 1 によ り高呚波数垯域のむコラむザ凊理を 䜎䞋させお高呚波数垯域の音を䞋げるよ う にしたたは高呚波数垯 域のむコラむザ凊理を向䞊させお高呚波数垯域の音を䞊げるよ う に凊理される。
たた、 党方䜍カメ ラ 8 1 の基準䜍眮 Oに察しお前方から埌方た たは埌方から前方に移動するず移動距離に応じお、 図 3に瀺すリ パヌブ凊理郚 3 3 — 2によ り リバヌブ凊理が深く かかるよ う にし たたはリバヌプ凊理が浅く かかるよ うに凊理される。
たた、 党方䜍カメ ラ 8 1 の基準䜍眮 Oに察しお前方から埌方た たは埌方から前方にズヌム凊理によ り移動する ず移動距離に応じ お、 図 3 に瀺す H R T F凊理郚 3 3 — 5 によ り音像が遠く なるよ う に倀が倉曎されおたたは音像が近く なるよ う に倀が倉曎される よ う に凊理される。
なお、 党方䜍カメ ラに限らず、 埌述する円呚状カメ ラを甚いお もよい。
図 9は、 円呚状カメ ラによる撮像を瀺す図である。 図 9 においお、 被写䜓である歌手 9 2に察しお、 基準䜍眮 Oに 察しお角床情報  に応じお、 円呚状カメ ラ 9 1 — 1 、 9 1 侀 2、 9 1 — 3、 9 1 侀 4、 9 1 - 5 , 9 1 侀 6、 9 1 — 7、 9 1 侀 8 を蚭けお、 角床情報 を有する円呚状映像デヌタを撮像する。 な お、 円呚状カメ ラに限らず、 䞀郚分の円匧状カメ ラを甚いおもよ い。 なお、 これら堎合にも、 このずきの角床情報は、 氎平方向の 角床情報 に限らず、 垂盎方向の角床情報 を指定するこ ずがで きる。 これによ り、 円呚状たたは円匧状撮像映像の各゚リ アの映 像に察しおチャンネルマッピング郚で音像の定䜍を 3次元空間で 凊理するこ ずができる。
図 1 0は、時間軞䞊での動䜜モヌ ドの切り換えを瀺す図である。 図 1 0 においお、 時間軞 t に沿っお、 モヌ ド 1 ( 1 0 1 )、 モヌ ド 2 ( 1 0 2 )、 モヌ ド 1 ( 1 0 3 )、 · · · の切り換えを行う。 こ こで、 モヌ ド 1 ( 1 0 1 )、 モヌ ド 1 ( 1 0 3 ) は、 図 3 に瀺した チャンネルマッピング郚の動䜜モヌ ド蚭定郚 3 1 によ り蚭定され る、 耇数のチャンネルのオヌディオ信号のう ちすベおのチャンネ ルに音像定䜍信号凊理を斜す第 1 の動䜜モヌ ドの固定チャンネル モヌ ド 3 1 — 1 であり、 モヌ ド 2 ( 1 0 2 ) は、 耇数のチャンネ ルのオヌディオ信号のう ち特定のチャンネルのみを指定しお音像 定䜍信号凊理を斜しお他のチャンネルは信号凊理を斜さない第 2 の動䜜モヌ ドの非固定チャンネルモヌ ド 3 1 - 2である。
これによ り 、 時間軞䞊で第 1 の動䜜モヌ ドの固定チャンネルモ ヌ ド 3 1 - 1 ず第 2の動䜜モヌ ドの非固定チャンネルモヌ ド 3 1 — 2 ずを切り換えるこずができ、 自由芖点映像のシヌンの切り換 え時などにおけるオヌディオ信号に察する音像定䜍凊理の態様を 倚様にするこ ずができる。 䟋えば、 第 1 の動䜜モヌ ドの固定チダ ンネルモヌ ド 3 1 - 1 ず しおは、 図 8 に瀺した 3 6 0床カメ ラ撮 像映像 8 2においお、 歌手 8 4および挔奏者 8 5のオヌディオ信 号の うちすベおのチャンネルに音像定䜍信号凊理を斜し、 第 2 の 動䜜モヌ ドの非固定チャンネノレモヌ ド 3 1 _ 2 ず しおは、 図 8 に 瀺した 3 6 0床カメ ラ撮像映像 8 2 においお、 歌手 8 4のオヌデ ィォ信号のチャンネルにのみ音像定䜍信号凊理を斜し、 挔奏者 8 5のオヌディオ信号のチャンネルには音像定䜍信号凊理を斜さず に固定ずするよ う にする。
図 1 1 は、 H R T Fによる捕正音像を瀺す図である。
図 1 1 においお、 再生時にリ スナ 1 1 1 は、 ビデオモニタ 1 1 2に再生される自由芖点映像の角床情報に察応しお、スピヌカ L、 R、 S L、 S Rによ り再生される再生音像 1 1 3 を聎取する。 こ こで、 ビデオモニタ 1 1 2 に再生される 自由芖点映像がズヌム映 像ずなっお䟋えばステヌゞ䞊の歌手がリ スナ 1 1 1 の右耳元に近 づいおさ さやく ず、 図 3に瀺す H R T F凊理郚 3 3 — 5によ り音 像がリ スナ 1 1 1 の右耳に近く なるよ う に倀が倉曎されるよ う に 凊理されるこ ずによ り、 リ スナ 1 1 1 の右耳元に補正音像 1 1 4 が定䜍するよ う に凊理される。
図 1 2は、 H R T Fによる捕正凊理の構成図である。
図 1 2においお、 オヌディオデヌタ A I がパン凊理郚 1 2 1 に 䟛絊され、 パン凊理郚 1 2 1 によ りパン凊理が斜されお巊右ステ レオオヌディオデヌタ R、 Lおよびサラりン ドオヌディオデヌタ S L、 S Rが出力される。 この状態では、 スィ ッチ S W 1 2 3、 S W 1 2 4の出力偎はパン凊理郚 1 2 1偎に接続されおいる。 こ こで、 ビデオモニタ 1 1 2 に再生される自由芖点映像がズヌ ム映像ずなっお䟋えばステヌゞ䞊の歌手がリ スナ 1 1 1 の右耳元 に近づいおさ さやく ず、 オヌディオデヌタ A I がオンずなったス ã‚€ ッチ S W 1 1 を介しお H R T F凊理郚 1 2 2に䟛絊され、 H R T F凊理郚 1 2 2 によ り呚波数䌝達特性の凊理が斜されおスむ ツ チ S W 1 2 3、 1 2 4に䟛絊されお捕正オヌディオデヌタ AOず しお巊右ステレオオヌディオデヌタ R、 Lが出力される。 この状 態では、 スィ ッチ S W 1 2 3、 S W 1 2 4の出力偎は H R T F凊 理郚偎に接続されおいる。
このよ う に構成された自由芖点映像 · 音声制䜜再生システムの 制䜜系および再生系の動䜜を説明する。
図 1 3は、 制䜜系の動䜜を.瀺すフロヌチダ䞀トである。
図 1 3においお、 ステップ S 1 で、 入出力装眮  I Oデバむス の初期化を行う。 具䜓的には、 初期倀の代入やオペレヌティ ング システム  O S ) 䞊の䟋えば G U I アプリ ケヌショ ンの起動を行 ぀お制埡プログラムの読み蟌みなどを行う。
ステップ S 2で、 映像ファむルの指定を行う。 具䜓的には、 図 1 に瀺す自由芖点映像の映像デヌタ 1 0の䞭からコンテンツの制 䜜を行う映像ファむルを指定する。
ステップ S 3で、 動䜜モヌ ドの指定を行う。 具䜓的には、 図 4 に瀺す G U I アプリ ケヌショ ン画面 4 1 においおサりン ドク リ゚ ヌタが動䜜モヌ ド蚭定郚 4 2のアむ コンをク リ ックするこずによ り、 図 3 に瀺したよ う に、 耇数のチャンネルのオヌディオ信号の う ちすベおのチャンネルに音像定䜍信号凊理を斜す第 1 の動䜜モ 䞀ドの固定チャンネルモヌ ド 3 1 侀 1 たたは耇数のチャンネノレの オヌディオ信号のう ち特定のチャンネルのみを指定しお音像定䜍 信号凊理を斜しお他のチャンネルは信号凊理を斜さない第 2の動 䜜モヌ ドの非固定チャンネルモヌ ド 3 1 - 2を遞択しお蚭定する, ステップ S 4で、 固定チャンネルたたは移動チャンネルの割り 圓おを行う。 具䜓的には、 たず、 G U I アプリ ケヌショ ン画面 4 1 においおサりン ドク リ ゚ヌタが トラ ック蚭定郚 4 3のアむ コン をク リ ックするこ ずによ り、 芖点遞択郚 5 によ り遞択された再生 音像の角床情報ずなるナヌザヌの芖点遞択情報に察応するよ う に 映像信号の時間情報に応じたフレヌムを移動しおフ レヌム凊理を 行う フ レヌム凊理郚 4 3— 1 ず、 氎平角床凊理を行う氎平角床凊 理郹 4 3— 2 ず、 ズヌム凊理を行うズヌム凊理郚 4 3 — 3 ず、 垂 盎角床凊理を行う垂盎角床凊理郚 4 3 - 3 ずを遞択されたフ レヌ ム画像の蚭定状態に蚭定する。 なお、 ここでは、 トラ ック蚭定郚 4 3が図 1 に瀺した芖点遞択郚 5 に察応し、 この蚭定に応じおこ の GU I アプリ ケヌシ ョ ン画面 4 1 の䞋局たたは䞊局にりむン ド ゥ衚瀺される 自由芖点ビュヌァ 4の自由芖点映像の 3 6 0床にわ たっお倉化する衚瀺状態によ り、 遞択されたフ レヌム画像の蚭定 状態に蚭定する。
次に、 GU I アプリ ケヌシ ョ ン画面 4 1 でサりン ドク リ ゚ヌタ がパラメヌタ蚭定郚 4 4のアむ コンをク リ ックするこ ずによ り、 図 3 に瀺した トラック蚭定郚 3 2からの操䜜信号 Cに基づいお、 オヌディオ信号に所定のパラメヌタによ りィ コラむゞング凊理を 行うィコラむゞング凊理郚 4 4 - 1 ず、 リバヌブ凊理を行う リバ ヌブ凊理郚 4 4侀 2 ず、 音量凊理を行う音量凊理郚 4 4 _ 3 ず、 ノ ン凊理を行うノ ン凊理郚 4 4 - 4 ず、 H R T Fによ り ナヌザヌ の耳に到達する䌝達関数を倉曎するこずによ り音響特性凊理を斜 す H R T F凊理郚 4 4 - 5 ずを トラック蚭定郚 4 3で蚭定された フ レヌム画像に察する各チャ ンネルのオヌディオ信号に察した信 号凊理状態に蚭定するこ ず ができ る。 このパラメヌタ蚭定郚 4 4 による蚭定に応じお移動チャンネルたたは固定チャンネルずを蚭 定する。
ステップ S 5で、 映像の再生をスタヌ トする。 具䜓的には、 G U I アプリ ケヌシ ョ ン画面 4 1 の䞋局たたは䞊局にりィン ドり衚 瀺される自由芖点ビュヌァ 4の自由芖点映像の 3 6 0床にわた぀ お倉化しお衚瀺状態にする映像信号による映像の再生をスタヌ ト する。 これず同時にオヌディォ信号による音響の再生もス タヌ ト する。 ステップ S 6で、 時間メ タデヌタの蚘録モヌ ドキヌであるタむ ムキヌ 4 5が抌された時の時間メ タデヌタの蚘録モヌ ドであるか 吊かを刀断する。 具䜓的には、 パラメヌタ蚭定郚が、 図 5で瀺し たむ コラむザ凊理郚 3 3 _ 1 に察する䟋えば操䜜情報 Cの角床情 報に応じた高呚波数垯域たたは䜎呚波数垯域におけるむコラむザ 凊理の䜎䞋のための操䜜メ タデヌタ、 リパヌブ凊理郚 3 3 侀 2に 察する䟋えば操䜜情報 Cの角床情報に応じた高呚波数垯域たたは 䜎呚波数垯域における リパヌブ凊理の䜎䞋のための操䜜メ タデヌ タ、 音量凊理郚 3 3 — 3 に察する䟋えば操䜜情報 Cの角床情報に 応じた音量の高䜎の操䜜メ タデヌタ、 パン凊理郚 3 3 — 4に察す る䟋えば操䜜情報 Cの角床情報に応じた音の䜍眮の移動のための 操䜜メ タデヌタ、 H R T F凊理郚 3 3 — 5 に察する䟋えば操䜜情 å ± Cの角床情報に応じた呚波数䌝達特性の向䞊たたは䜎䞋のため の操䜜メ タデヌタによる信号凊理があるか、 たたは、 パラメヌタ 蚭定郚が、 図 6で瀺したむ コラむザ凊理郚 3 3 — 1 に察する䟋え ば操䜜情報 Cの時間情報に応じた高呚波数垯域たたは䜎呚波数垯 域におけるィ コラむザ凊理の䜎䞋のための時間メ タデヌタ、 リバ ヌブ凊理郚 3 3 — 2に察する䟋えば操䜜情報 Cの時間情報に応じ た高呚波数垯域たたは䜎呚波数垯域における リバヌブ凊理の䜎䞋 のための時間メ タデヌタ、 パン凊理郚 3 3 — 4に察する䟋えば操 䜜情報 Cの時間情報に応じた音の䜍眮の移動のための時間メ タデ ヌタ、 たたは H R T F凊理郚 3 3 — 5 に察する䟋えば操䜜情報 C の時間情報に応じた呚波数䌝達特性の向䞊たたは䜎䞋のための時 間メ タデヌタによるものであるか吊かを刀断する。
ステップ S 6で時間メ タデヌタの蚘録モヌ ドでないずきは、 ス テツプ S 7ぞ進み、 ステップ S 7で、 操䜜メ タデヌタによるチダ ンネルマッビング信号凊理郚の操䜜があるか吊かを刀断する。 具 䜓的には、 図 5で瀺したむコラむザ凊理郚 3 3 — 1 に察する䟋え ば操䜜情報 cの角床情報に応じた高呚波数垯域たたは䜎呚波数垯 域におけるむコラむザ凊理の䜎䞋のための操䜜メ タデヌタ、 リバ ヌブ凊理郚 3 3 — 2 に察する䟋えば操䜜情報 Cの角床情報に応じ た高呚波数垯域たたは䜎呚波数垯域における リパヌブ凊理の䜎䞋 のための操䜜メ タデヌタ、 パン凊理郚 3 3 侀 4に察する䟋えば操 䜜情報 Cの角床情報に応じた音の䜍眮の移動のための操䜜メ タデ ヌタ、 H R T F凊理郚 3 3 _ 5に察する䟋えば操䜜情報 Cの角床 情報に応じた呚波数䌝達特性の向䞊たたは䜎䞋のための操䜜メ タ デヌタによる信号凊理があるか吊かを刀断する。
ステップ S 7で、 操䜜メ タデヌタによるチャンネルマッピング 信号凊理郚の操䜜がある ずきは、 ステップ S 8ぞ進み、 ステップ S 8で、 芖点情報ず操䜜情報をメ タデヌタ ず しお蚘録する。 具䜓 的には、 図 5で瀺したむ コラむザ凊理郚 3 3 — 1 に察する䟋えば 操䜜情報 Cの角床情報に応じた高呚波数垯域たたは䜎呚波数垯域 におけるむコラむザ凊理の䜎䞋のための操䜜メ タデヌタ、 リパヌ ブ凊理郚 3 3 — 2に察する䟋えば操䜜情報 Cの角床情報に応じた 高呚波数垯域たたは䜎呚波数垯域における リパヌブ凊理の䜎䞋の ための操䜜メ タデヌタ、 パン凊理郚 3 3 — 4に察する䟋えば操䜜 情報 Cの角床情報に応じた音の䜍眮の移動のための操䜜メ タデヌ タ、 H R T F凊理郚 3 3 — 5に察する䟋えば操䜜情報 Cの角床情 報に応じた呚波数䌝達特性の向䞊たたは䜎䞋のための操䜜メ タデ ヌタを各々取り 出しお、 各角床情報に察応させお操䜜メ タデヌタ 郚 M Cに栌玍する。
ステップ S 6で時間メ タデヌタの蚘録モヌ ドである ずきは、 ス テツプ S 1 0ぞ進み、 ステップ S 1 0で、 時間メ タデヌタによる チャンネルマッピング信号凊理郚の操䜜があるか吊かを刀断する 具䜓的には、 図 6で瀺したむコラむザ凊理郚 3 3 — 1 に察する䟋 えば操䜜情報 Cの時間情報に応じた高呚波数垯域たたは䜎呚波数 垯域におけるィ コラむザ凊理の䜎䞋のための時間メ タデヌタ、 リ パヌブ凊理郚 3 3 — 2に察する䟋えば操䜜情報 Cの時間情報に応 じた高呚波数垯域たたは䜎呚波数垯域における リパヌブ凊理の䜎 䞋のための時間メ タデヌタ、 パン凊理郚 3 3 侀 4に察する䟋えば 操䜜情報 Cの時間情報に応じた音の䜍眮の移動のための時間メ タ デヌタ、 H R T F凊理郚 3 3 — 5に察する䟋えば操䜜情報 Cの時 間情報に応じた呚波数䌝達特性の向䞊たたは䜎䞋のための時間メ タデヌタを各々取り 出しお、 各時間情報に察応させお時間メ タデ ヌタ郚 M Tに栌玍するものであるか吊かを刀断する。
ステップ S 1 0で、 時間メ タデヌタによるチャンネルマツピン グ信号凊理郚の操䜜がある ずきは、 ステップ S 1 1ぞ進み、 時間 情報ず操䜜情報をメ タデヌタず しお蚘録する。 具䜓的には、 図 6 で瀺したむコラむザ凊理郚 3 3 - 1 に察する䟋えば操䜜情報 Cの 時間情報に応じた高呚波数垯域たたは䜎呚波数垯域におけるィ コ ラむザ凊理の䜎䞋のための時間メタデヌタ、 リバヌブ凊理郚 3 3 _ 2に察する䟋えば操䜜情報 Cの時間情報に応じた高呚波数垯域 たたは䜎呚波数垯域における リバヌブ凊理の䜎䞋のための時間メ タデヌタ、 パン凊理郚 3 3 — 4に察する䟋えば操䜜情報 Cの時間 情報に応じた音の䜍眮の移動のための時間メ タデヌタ、 H R T F 凊理郚 3 3 — 5 に察する䟋えば操䜜情報 Cの時間情報に応じた呚 波数䌝達特性の向䞊たたは䜎䞋のための時間メタデヌタを各々取 り 出しお、 各時間情報に察応させお時間メ タデヌタ郚 M Tに栌玍 する。
ステップ S 9で、映像の再生をス ト ップするか吊かを刀断する。 ステップ S 9で、 映像の再生をス ト ップしないずきは、 ステップ S 6ぞ戻っおステップ S 6 の刀断を繰り返す。 ステップ S 9で、 映像の再生をス ト ップする ずきは、 ステップ S 1 2ぞ進んで、 ス テツプ S 1 2で、 映像および音響の再生を止める。 図 1 4は、 再生系の動䜜を瀺すフロヌチャヌ トである。
図 1 4 においお、 ステップ S 2 1 で、 入出力装眮  I Oデパむ ス の初期化を行う。 具䜓的には、 初期倀の代入やオペレヌティ ングシステム  O S ) 䞊の䟋えば G U I アプリ ケヌシ ョ ンの起動 を行っお制埡プログラムの読み蟌みなどを行う。
ステ ップ S 2 2で、 映像ファむルの指定を行う。 具䜓的には、 図 2 に瀺すビデオプレヌダ 2 2 の映像デヌタの䞭からコ ンテンツ の再生を行う映像フ ァむルを指定する。
ステップ S 2 3で、 映像の再生をスタヌ トする。 具䜓的には、 ビデオプレヌダ 2 2の再生動䜜によ り ビデオモニタ 2 6に衚瀺さ れる 自由芖点映像のう ちの芖点遞択郚 2 3の遞択による角床情報 に察応する映像信号による映像の再生をスタヌ トする。 これず同 時にオヌディオ信号による音響の再生もスタヌ トする。
ステップ S 2 4で、 時間メタデヌタの再生モヌ ドであるか吊か を刀断する。 具䜓的には、 パラメヌタ蚭定郚が、 図 5で瀺したィ コラむザ凊理郚 3 3 - 1 に察する䟋えば操䜜情報 Cの角床情報に 応じた高呚波数垯域たたは䜎呚波数垯域におけるむコラむザ凊理 の䜎䞋のための操䜜メ タデヌタ、 リパヌブ凊理郚 3 3 - 2 に察す る䟋えば操䜜情報 Cの角床情報に応じた高呚波数垯域たたは䜎呚 波数垯域における リパヌブ凊理の䜎䞋のための操䜜メ タデヌタ、 パン凊理郚 3 3 — 4に察する䟋えば操䜜情報 Cの角床情報に応じ た音の䜍眮の移動のための操䜜メタデヌタ、 H R T F凊理郚 3 3 侀 5 に察する䟋えば操䜜情報 Cの角床情報に応じた呚波数䌝達特 性の向䞊たたは䜎䞋のための操䜜メ タデヌタによる信号凊理があ るか、 たたは、 パラメヌタ蚭定郚が、 図 6で瀺したむ コラむザ凊 理郹 3 3 — 1 に察する䟋えば操䜜情報 Cの時間情報に応じた高呚 波数垯域たたは䜎呚波数垯域におけるむコラむザ凊理の䜎䞋のた めの時間メ タデヌタ、 リバヌブ凊理郚 3 3 侀 2に察する䟋えば操 䜜情報 cの時間情報に応じた高呚波数垯域たたは䜎呚波数垯域に おける リパヌブ凊理の䜎䞋のための時間メ タデヌタ、 パン凊理郚
3 3 — 4に察する䟋えば操䜜情報 Cの時間情報に応じた音の䜍眮 の移動のための時間メ タデヌタ、 たたは H R T F凊理郚 3 3 - 5 に察する䟋えば操䜜情報 Cの時間情報に応じた呚波数䌝達特性の 向䞊たたは䜎䞋のための時間メ タデヌタによるものであるか吊か を刀断する。
ステップ S 2 4で、 時間メ タデヌタによる再生モヌ ドでないず きは、 .ステップ S 2 5ぞ進み、 ステ ップ S 2 5で、 芖点情報ず䞀 臎したら操䜜情報を信号凊理郚に送っお倉曎する。 具䜓的には、 操䜜メ タデヌタによる再生モヌ ドの ず き、 芖点遞択郚 2 3 の遞択 による角床情報ず察応するよ う に、 図 5で瀺したむコラむザ凊理 郚 3 3 — 1 に察する䟋えば操䜜情報 Cの角床情報に応じた高呚波 数垯域たたは䜎呚波数垯域におけるむ コラむザ凊理の䜎䞋のため の操䜜メ タデヌタ、 リパヌブ凊理郚 3 3 _ 2に察する䟋えば操䜜 情報 Cの角床情報に応じた高呚波数垯域たたは䜎呚波数垯域にお ける リパヌブ凊理の䜎䞋のための操䜜メ タデヌタ、 パン凊理郚 3 3 — 4に察する䟋えば操䜜情報 Cの角床情報に応じた音の䜍眮の 移動のための操䜜メタデヌタ、 H R T F凊理郚 3 3(— 5に察する 䟋えば操䜜情報 Cの角床情報に応じた呚波数䌝達特性の向䞊たた は䜎䞋のための操䜜メ タデヌタによる信号凊理を斜す。
ステップ S 2 4で、 時間メタデヌタによる再生モヌ ドである ず きは、 ステップ S 2 7ぞ進み、 ステ ップ S 2 7で、 時間になった ら操䜜情報を信号凊理郚に送っお倉曎する。 具䜓的には、 時間メ タデヌタによる再生モヌ ドのずき、 時間情報ず察応するよ うに、 図 6 で瀺したィ コラむザ凊理郚 3 3 — 1 に察する䟋えば操䜜情報 Cの時間情報に応じた高呚波数垯域たたは䜎呚波数垯域における むコラむザ凊理の䜎䞋のための時間メ タデヌタ、 リバヌブ凊理郚 3 3 — 2に察する䟋えば操䜜情報 Cの時間情報に応じた高呚波数 垯域たたは䜎呚波数垯域における リパヌブ凊理の䜎䞋のための時 間メ タデヌタ、 パン凊理郚 3 3 — 4に察する䟋えば操䜜情報 Cの 時間情報に応じた音の䜍眮の移動のための時間メ タデヌタ、 H R T F凊理郚 3 3 — 5 に察する䟋えば操䜜情報 Cの時間情報に応じ た呚波数䌝達特性の向䞊たたは䜎䞋のための時間メ タデヌタによ り信号凊理を斜す。
ステップ S 2 6で、 映像の再生をス ト ップするか吊かを刀断す る。 ステップ S 2 6で、 映像の再生をス ト ップしないずきは、 ス テツプ S 2 4ぞ戻っおステップ S 2 4の刀断を繰り返す。 ステツ プ S 2 6で、 映像の再生をス ト ップする ずきは、 ステップ S 2 8 ぞ進んで、ステップ S 2 8 2で、映像および音響の再生を止める。
図 1 5は、 制䜜系のチャンネルマッピングの働きを瀺す図であ り、 図 1 5 Aはリ アルサりン ドの堎合、 図 1 5 Bはバヌチャルサ ゥン ドの堎合、 図 1 5 Cはリ アルサりン ドずノ ヌチャルサりン ド の組み合わせの堎合である。
図 1 5 Aにおいお、 リ アルサりン ドの堎合には、 操䜜情報 Cに よ り、 ã‚€ コラむザ凊理郚 3 3 _ 1 に察する高呚波数垯域たたは䜎 呚波数垯域におけるむ コラむザ凊理の䜎䞋、 リバヌブ凊理郚 3 3 — 2に察する高呚波数垯域たたは䜎呚波数垯域における リパヌブ 凊理の䜎䞋、 音量凊理郚 3 3 — 3 に察する音量の䜎䞋、 サラりン ドパン凊理郚 1 5 1 に察するサラりン ド音響の䜍眮の移動によ り 信号凊理を斜す。 これによ り、 䟋えば、 4チャンネルたたは 5チ ダンネルなどのリ アルサラりン ドマルチ出力を埗るこ ずができる, 図 1 5 Bにおいお、 パヌチャルサりン ドの堎合には、 操䜜情報 Cによ り、 ã‚€ コラむザ凊理郚 3 3 — 1 に察する高呚波数垯域たた は䜎呚波数垯域におけるむ コラむザ凊理の䜎䞋、 リバヌブ凊理郚 3 3 — 2に察する高呚波数垯域たたは䜎呚波数垯域における リバ ヌブ凊理の䜎䞋、 音量凊理郚 3 3 — 3 に察する音量の䜎䞋、 H R T F凊理郚 3 3 侀 5 に察する呚波数䌝達特性の向䞊たたは䜎䞋に よ り信号凊理を斜す。 これによ り 、 䟋えば、 遞択蚭定されたォヌ ディォ信号のチャンネルに察しお任意の䜍眮に再生音像を定䜍さ せるこ ずができる。
図 1 5 Cにおいお、 リ アルサゥン ドずバヌチャルサゥン ドの糞䞔 み合わせの堎合には、 スィ ッチ S W 2 1、 SW 2 2、 S W 2 3 SW 2 4の切り替えに応じお、 操䜜情報 Cによ り、 ã‚€ コラむザ凊 理郹 3 3— 1 に察する高呚波数垯域たたは䜎呚波数垯域における むコラむザ凊理の䜎䞋、 リパヌブ凊理郚 3 3— 2 に察する高呚波 数垯域たたは䜎呚波数垯域における リパヌブ凊理の䜎䞋、 音量凊 理郹 3 3— 3 に察する音量の䜎䞋、 サラりン ドパン凊理郚 1 5 1 に察するサラりン ド音響の䜍眮の移動によ り信号凊理を斜すこ ず によ り、 リ アルサラりン ドの出力を埗る堎合ず、 操䜜情報 Cによ り、 むコラむザ凊理郚 3 3 — 1 に察する高呚波数垯域たたは䜎呚 波数垯域におけるむ コラむザ凊理の䜎䞋、 リバヌブ凊理郚 3 3— 2に察する高呚波数垯域たたは䜎呚波数垯域における リバヌブ凊 理の䜎䞋、 音量凊理郚 3 3 — 3 に察する音量の䜎䞋、 HR T F凊 理郹 3 3— 5 に察する呚波数䌝達特性の向䞊たたは䜎䞋によ り信 号凊理を斜す。
これによ り、 バヌチャルサラりン ドの出力を埗る堎合ずを遞択 的に切り換えるこ ずができるので、 リ アルサラりン ドの再生をし おいるずきに、 S W 2 1 、 S W 2 2、 SW 2 3、 S W 2 4の切り 換えを行う こ ずによ り、 遞択蚭定されたオヌディオ信号のチャン ネルに察しおのみ任意の䜍眮に再生音像を定䜍させるこずができ る。
このずきにも、 䟋えば、 操䜜情報 Cに基づいお、 角床情報が 4 5床で音響を 3 d B䞋げる芖点操䜜メ タデヌタ 1 5 5 を蚘録する よ う にし、 たた、 操䜜情報 Cおよび時間情報 1 5 4に基づいお、 1分 3 0秒 1 5 フ レヌムでモヌ ド 1 からモヌ ド 2に切り換える時 間メ タデヌタを蚘録するよ う にしおもよい。
なお、 図 1 5 Aおよび図 1 5 Bの堎合にも同様に、 操䜜メ タデ ヌタたたは時間メ タデヌタを蚘録するよ う にしおもよい。
図 1 6は、 制䜜系ず再生系のチャ ンネルマ ッ ピングのバリ゚䞀 シペ ンを瀺す図であり、 図 1 6 Aはむ ンパルス応答畳み蟌み型の 堎合、 図 1 6 Bは 5 c h出力察応のリバヌブ凊理の堎合である。
図 1 6 Aにおいお、 ã‚€ ンパルス応答畳み蟌み型の堎合には、 ィ コラむザ凊理郚 3 3 — 1 に察する高呚波数垯域たたは䜎呚波数垯 域におけるむ コラむザ凊理の䜎䞋、 音量凊理郚 3 3 — 3に察する 音量の䜎䞋、 ã‚€ ンパルス応答畳み蟌み型のサラりン ドパン凊理郚 1 6 1 に察するむ ンパルス応答が畳み蟌たれたサラりンド音響の 䜍眮の移動によ り信号凊理を斜すこ ずによ り、 ã‚€ ンパルス応答畳 み蟌み型のサラりン ドパン凊理郚 1 6 1 の䞭にリパヌブ凊理郚が 含たれるため、 リバヌブ凊理郚を蚭ける必芁が無く なる。 これに よ り 、 補正されたサラゥン ドチャ ンネルを有する 5 チャ ンネル出 力を埗るこ ずができる。
図 1 6 Bにおいお、 5 c h出力察応のリパヌブ凊理の堎合には、 むコラむザ凊理郚 3 3 — 1 に察する高呚波数垯域たたは䜎呚波数 垯域におけるむ コラむザ凊理の䜎䞋、 音量凊理郚 3 3 — 3 に察す る音量の䜎䞋、 サラりン ドパン凊理郚 1 6 1 に察するィンパルス 応答が畳み蟌たれたサラりン ド音響の䜍眮の移動に察しお加算噚 1 6 3〜 1 6 7 を甚いお䞊列的にリパヌブ凊理郚 3 3— 2に察す る高呚波数垯域たたは䜎呚波数垯域における リバヌプ凊理の䜎䞋 によ り信号凊理を斜しお加算するこ ずによ り、 各チャ ンネルに぀ いおリバヌブ凊理を行っお捕正されたサラゥン ドチャ ンネルを有 する 5 チャ ンネル出力を埗るこずができる。 なお、 䞊述した実斜の圢態に瀺した䟋に限らず、 本発明の特蚱 請求の範囲であれば、 適宜他の䟋を甚いるこ ずができるこ ずはい うたでもない。
この発明の音像定䜍信号凊理装眮は、 基準䜍眮に察しお角床情 報を有する映像信号に基づく 映像に察応するよ う に再生系におけ る再生音像を任意の䜍眮に定䜍させるよ う に制䜜系においお耇数 の音源から入力される各音源デヌタを合成手段によ り合成したォ 䞀ディォ信号に信号凊理を斜す音像定䜍信号凊理装眮においお、 䞊蚘映像信号に基づく 映像の再生音像の角床情報ずなるナヌザヌ の芖点遞択情報を遞択する遞択手段ず、 䞊蚘遞択手段によ り遞択 された再生音像の角床情報ずなるナヌザヌの芖点遞択情報に察応 する䞊蚘オヌディオ信号のチャンネルに音像定䜍のための信号凊 理をリ アルタむ ムで斜す音像定䜍制埡凊理手段ず、 䞊蚘音像定䜍 制埡凊理手段によ り信号凊理を斜すための制埡情報を生成する制 埡情報生成手段ず、 䞊蚘映像信号に䞊蚘オヌディオ信号おょぎ䞊 蚘制埡情報を重畳しお送出甚情報を生成する送出甚情報生成手段 ずを備え、 䞊蚘オヌディオ信号にリ アルタむムで信号凊理を斜し お䞊蚘映像信号に基づく 映像に察応しお音像定䜍䜍眮を制埡する よ う にしたので、 自由芖点映像に察するオヌディオ信号の再生に おいお、 角床を倉化させお映像を移動させお再生した堎合にも移 動する映像の方向に音像を定䜍させるよ う にするための制埡を制 䜜時に行う こずができる ずいう効果を奏する。
たた、 この発明の音像定䜍信号凊理装眮は、 䞊述においお、 侊 蚘音像定䜍制埡凊理手段は、 耇数のチャンネルの䞊蚘オヌディオ 信号の う ちすベおのチャンネルに䞊蚘音像定䜍制埡凊理手段によ り信号凊理を斜す第 1 の動䜜モヌ ドず、 耇数のチャンネルの䞊蚘 オヌディオ信号のう ち特定のチャンネルのみを指定しお䞊蚘音像 定䜍制埡凊理手段によ り信号凊理を斜しお他のチャンネルは䞊蚘 信号凊理を斜さない第 2 の動䜜モヌ ドずを蚭定する動䜜モヌ ド蚭 定手段を有するので、 動䜜モヌ ドに応じおチャンネル毎に音像定 䜍を可胜ずするこ ずができるずいう効果を奏する。
たた、 この発明の音像定䜍信号凊理装眮は、 䞊述においお、 侊 蚘音像定䜍制埡凊理手段は、 䞊蚘遞択手段によ り遞択された再生 音像の角床情報ずなるナヌザヌの芖点遞択情報に察応するよ う に 䞊蚘映像信号のフ レヌム凊理、 氎平角床凊理、 ズヌム凊理おょぎ /たたは垂盎角床凊理によ り䞊蚘オヌディオ信号に䞊蚘信号凊理 を斜すための操䜜信号を生成する トラック蚭定手段を有するので. 遞択手段によ り遞択された再生音像の角床情報ずなるナヌザヌの 芖点遞択情報に察応するよ う に、 映像信号の画像の凊理をしお生 成された操䜜信号によ りオヌディオ信号に信号凊理を斜すよ う に するこずができる ずいう効果を奏する。
たた、 この発明の音像定䜍信号凊理装眮は、 䞊述においお、 侊 蚘音像定䜍制埡凊理手段は、 䞊蚘 トラ ック蚭定手段からの䞊蚘操 䜜信号に基づいお、 䞊蚘オヌディオ信号に所定のパラメヌタによ りィ コラむゞング凊理、 リパヌブ凊理、 音量凊理、 パン凊理およ び Zたたは䌝達特性凊理を斜すパラメヌタ蚭定手段を有するので パラメヌタに応じおオヌディオ信号に信号凊理を斜すよ う にしお 音像定䜍を倉化させるこ ずができる ずいう効果を奏する。
'たた、 この発明の音像定䜍信号凊理装眮は、 䞊述においお、 侊 蚘制埡情報生成手段は、 䞊蚘芖点遞択情報に察応するパラメヌタ によ り䞊蚘制埡情報を生成するので、 芖点遞択情報に察応する制 埡情報によ り音像定䜍を倉化させるこ ずができるずいう効果を奏 する。
たた、 この発明の音像定䜍信号凊理装眮は、 䞊述においお、 侊 蚘制埡情報生成手段は、 時間軞情報に察応するパラメヌタによ り 䞊蚘制埡情報を生成するので、 時間情報に察応する制埡情報によ り音像定䜍を倉化させるこずができるずいう効果を奏する。
たた、 この発明の音像定䜍信号凊理装眮は、 䞊述においお、 侊 蚘音像定䜍制埡凊理手段は、 䞊蚘動䜜モヌ ド蚭定手段によ り䞊蚘 第 1 の動䜜モヌ ドず䞊蚘第 2 の動䜜モヌ ドずを時間軞䞊で切り換 えるので、 時間軞䞊で第 1 の動䜜モヌ ドの固定チャンネルモヌ ド ず第 2の動䜜モヌ ドの非固定チャンネルモヌ ドずを切り換えるこ ずができ、 自由芖点映像のシヌンの切り換え時などにおけるォヌ ディォ信号に察する音像定䜍凊理の態様を倚様にするこずができ る ずいう効果を奏する。
たた、 この発明の音像定䜍信号凊理装眮は、 䞊述においお、 侊 蚘音像定䜍制埡凊理手段は、 耇数のチャンネルの䞊蚘オヌディオ 信号の う ちバヌチャルサラりン ドのチャンネルのみを指定しお䞊 蚘信号凊理を斜しお他のリアルサラりンドのチャンネルは䞊蚘信 号凊理を斜さないので、 バヌチャルサラ りン ドの出力を埗る堎合 ずを遞択的に切り換えるこずができるので、 リ アルサラりン ドの 再生をしおいる ずきに、 切り換えを行う こ ずによ り 、 遞択蚭定さ れたオヌディオ信号のチャンネルに察しおのみ任意の䜍眮に再生 音像を定䜍させるこ ずができる ずいう効果を奏する。
たた、 この発明の音像定䜍信号凊理装眮は、 耇数の音源から入 力される各音源デヌタを合成手段によ り合成しお制䜜系における 制埡情報によ り信号凊理を斜したオヌディオ信号に぀いお、 基準 䜍眮に察しお角床情報を有する映像信号に基づく 映像に察応する よ う に再生系においお再生音像を任意の䜍眮に定䜍させるよ う に 再生甚情報に信号凊理を斜す音像定䜍信号凊理装眮においお、 侊 蚘再生甚情報における映像信号に重畳された䞊蚘オヌディォ信号 および䞊蚘制埡情報から、 䞊蚘映像信号、 䞊蚘オヌディオ信号お よび䞊蚘制埡情報を読み出す再生甚情報読み出し手段ず、 䞊蚘映 像信号を再生する映像信号再生手段ず、 䞊蚘映像信号に基づく 映 像の再生音像の角床情報ずなるナヌザヌの芖点遞択情報を遞択す る遞択手段ず、 䞊蚘遞択手段によ り遞択された再生音像の角床情 報ずなるナヌザヌの芖点遞択情報に察応する䞊蚘オヌディオ信号 のチャンネルに音像定䜍のための信号凊理をリ アルタむムで斜す 音像定䜍制埡凊理手段ずを備え、 䞊蚘オヌディオ信号にリ アルタ ィ ムで信号凊理を斜しお䞊蚘映像信号に基づく映像に察応しお音 像定䜍䜍眮を制埡するよ う にしたので、 自由芖点映像に察するォ 䞀ディォ信号の再生においお、 角床を倉化させお映像を移動させ お再生した堎合にも移動する映像の方向に音像を定䜍させるこ ず ができる ずいう効果を奏する。
たた、 この発明の音像定䜍信号凊理装眮は、 䞊述においお、 侊 蚘音像定䜍制埡凊理手段は、 䞊蚘芖点遞択情報に察応しお、 䞊蚘 オヌディオ信号に所定のパラメヌタによ り少なく ずもサラりン ド パン凊理を斜すパラメヌタ蚭定手段を有するので、 補正されたサ ラ ゥン ドチャンネルを有する出力を埗るこ ずができる ずレ、う効果 を奏する。
たた、 この発明の音像定䜍信号凊理方法は、 基準䜍眮に察しお 角床情報を有する映像信号に基づく 映像に察応するよ う に再生系 における再生音像を任意の䜍眮に定䜍させるよ う に制䜜系におい お耇数の音源から入力される各音源デヌタを合成手段によ り合成 したオヌディォ信号に信号凊理を斜す音像定䜍信号凊理方法にお いお、 䞊蚘映像信号に基づく 映像の再生音像の角床情報ずなるュ 䞀ザ䞀の芖点遞択情報を遞択する遞択ステップず、 䞊蚘遞択ステ ップによ り遞択された再生音像の角床情報ずなるナヌザヌの芖点 遞択情報に察応する䞊蚘オヌディオ信号のチャンネルに音像定䜍 のための信号凊理をリ アルタむムで斜す音像定䜍制埡凊理ステツ プず、 䞊蚘音像定䜍制埡凊理ステップによ り信号凊理を斜すため の制埡情報を生成する制埡情報生成ステップず、 䞊蚘映像信号に 䞊蚘オヌディオ信号および䞊蚘制埡情報を重畳しお送出甚情報を 生成する送出甚情報生成ステップずを備え、 䞊蚘オヌディオ信号 にリ アルタむムで信号凊理を斜しお䞊蚘映像信号に基づく 映像に 察応しお音像定䜍䜍眮を制埡するよ うにしたので、 自由芖点映像 に察するオヌディオ信号の再生においお、 角床を倉化させお映像 を移動させお再生した堎合にも移動する映像の方向に音像を定䜍 させるよ うにするための制埡を制䜜時に行う こずができる ずいう 効果を奏する。
たた、 この発明の音像定䜍信号凊理方法は、 耇数の音源から入 力される各音源デヌタを合成手段によ り合成しお制䜜系における 制埡情報によ り信号凊理を斜したオヌディオ信号に぀いお、 基準 䜍眮に察しお角床情報を有する映像信号に基づく 映像に察応する よ う に再生系においお再生音像を任意の䜍眮に定䜍させるよ う に 再生甚情報に信号凊理を斜す音像定䜍信号凊理方法においお、 侊 蚘再生甚情報における映像信号に重畳された䞊蚘オヌディオ信号 および䞊蚘制埡情報から、 䞊蚘映像信号、 䞊蚘オヌディオ信号お ょぎ䞊蚘制埡情報を読み出す再生甚情報読み出しステップず、 侊 蚘映像信号を再生する映像信号再生ステップず、 䞊蚘映像信号に 基づく 映像の再生音像の角床情報ずなるナヌザヌの芖点遞択情報 を遞択する遞択ステップず、 䞊蚘遞択ステップによ り遞択された 再生音像の角床情報ずなるナヌザヌの芖点遞択情報に察応する䞊 蚘オヌディオ信号のチャンネルに音像定䜍のための信号凊理をリ アルタむムで斜す音像定䜍制埡凊理ステップずを備え、 䞊蚘ォヌ ディォ信号にリ アルタむムで信号凊理を斜しお䞊蚘映像信号に基 づく 映像に察応しお音像定䜍䜍眮を制埡するよ う にしたので、 自 由芖点映像に察するオヌディオ信号の再生においお、 角床を倉化 させお映像を移動させお再生した堎合にも移動する映像の方向に 音像を定䜍させるこずができる ずいう効果を奏する。 産業䞊の利甚の可胜性
党方䜍カメ ラ ず呌ばれる 3 6 0床の呚囲の被写䜓を䟋えば 8画 角に分割しお連続凊理しお撮像するもので撮像された 3 6 0床撮 像映像は、 特に芖点を泚芖するこ ずなく 3 6 0床の呚囲を撮像す るため自由芖点映像ず呌ばれ、 この自由芖点映像に察するオヌデ ィォ信号の再生においお、 本発明は利甚される。

Claims

請求の範囲
1 . 基準䜍眮に察しお角床情報を有する映像信号に基づく 映像 に察応するよ う に再生系における再生音像を任意の䜍眮に定䜍さ せるよ う に制䜜系においお耇数の音源から入力される各音源デヌ タを合成手段によ り合成したオヌディオ信号に信号凊理を斜す音 像定䜍信号凊理装眮においお、
䞊蚘映像信号に基づく映像の再生音像の角床情報ずなるナヌザ 䞀の芖点遞択情報を遞択する遞択手段ず、
䞊蚘遞択手段によ り遞択された再生音像の角床情報ずなるナヌ ザ䞀の芖点遞択情報に察応する䞊蚘オヌディオ信号のチャンネル に音像定䜍のための信号凊理をリ アルタむムで斜す音像定䜍制埡 凊理手段ず、
䞊蚘音像定䜍制埡凊理手段によ り信号凊理を斜すための制埡情 報を生成する制埡情報生成手段ず、
䞊蚘映像信号に䞊蚘オヌディォ信号および䞊蚘制埡情報を重畳 しお送出甚情報を生成する送出甚情報生成手段ず、
を備え、 䞊蚘オヌディオ信号にリ アルタむムで信号凊理を斜し お䞊蚘映像信号に基づく映像に察応しお音像定䜍䜍眮を制埡する よ う にしたこ ずを特城ずする音像定䜍信号凊理装眮。
2 . 請求の範囲 1蚘茉の音像定䜍信号凊理装眮においお、 䞊蚘音像定䜍制埡凊理手段は、 耇数のチャンネルの䞊蚘オヌデ ィォ信号のう ちすベおのチャンネルに䞊蚘音像定䜍制埡凊理手段 によ り信号凊理を斜す第 1 の動䜜モヌ ドず、 耇数のチャンネルの 䞊蚘オヌディオ信号の う ち特定のチャンネルのみを指定しお䞊蚘 音像定䜍制埡凊理手段によ り信号凊理を斜しお他のチダンネルは 䞊蚘信号凊理を斜さない第 2 の動䜜モヌ ドずを蚭定する動䜜モヌ ド蚭定手段を有するこ ずを特城ずする音像定䜍信号凊理装眮。
3 . 請求の範囲 1蚘茉の音像定䜍信号凊理装眮においお、 䞊蚘音像定䜍制埡凊理手段は、 䞊蚘遞択手段によ り遞択された 再生音像の角床情報ずなるナヌザヌの芖点遞択情報に察応するよ うに、 䞊蚘映像信号のフ レヌム凊理、 氎平角床凊理、 ズヌム凊理 およぎノたたは垂盎角床凊理によ り䞊蚘オヌディオ信号に䞊蚘信 号凊理を斜すための操䜜信号を生成する トラック蚭定手段を有す るこ ずを特城ずする音像定䜍信号凊理装眮。
4 . 請求の範囲 3蚘茉の音像定䜍信号凊理装眮においお、 䞊蚘音像定䜍制埡凊理手段は、 䞊蚘 トラ ック蚭定手段からの䞊 蚘操䜜信号に基づいお、 䞊蚘オヌディオ信号に所定のパラメヌタ によ りィ コラむゞング凊理、 リパヌブ凊理、 音量凊理、 パン凊理 および Zたたは䌝達特性凊理を斜すパラメヌタ蚭定手段を有する こ ずを特城ずする音像定䜍信号凊理装眮。
5 . 請求の範囲 1蚘茉の音像定䜍信号凊理装眮においお、 䞊蚘制埡情報生成手段は、 䞊蚘芖点遞択情報に察応するパラメ ヌタによ り䞊蚘制埡情報を生成するこ ずを特城ずする音像定䜍信 号凊理装眮。
6 . 請求の範囲 1蚘茉の音像定䜍信号凊理装眮においお、 䞊蚘制埡情報生成手段は、 時間軞情報に察応するパラメヌタに よ り䞊蚘制埡情報を生成するこずを特城ずする音像定䜍信号凊理 装眮。
7 . 請求の範囲 2蚘茉の音像定䜍信号凊理装眮においお、 䞊蚘音像定䜍制埡凊理手段は、 䞊蚘動䜜モヌ ド蚭定手段によ り 䞊蚘第 1 の動䜜モヌ ドず䞊蚘第 2 の動䜜モヌドずを時間軞䞊で切 り換えるよ う にするこずを特城ずする音像定䜍信号凊理装眮。
8 . 請求の範囲 4蚘茉の音像定䜍信号凊理装眮においお、 䞊蚘音像定䜍制埡凊理手段は、 耇数のチャンネルの䞊蚘オヌデ ィォ信号の う ちバヌチャルサラ ゥン ドのチャンネルのみを指定し お䞊蚘信号凊理を斜しお他のリ アルサラゥンドのチャンネルは䞊 蚘信号凊理を斜さないこずを特城ずする音像定䜍信号凊理装眮。
9 . 請求の範囲 1蚘茉の音像定䜍信号凊理装眮においお、 䞊蚘音像定䜍制埡凊理手段は、 䞊蚘芖点遞択情報に察応しお、 䞊蚘オヌディオ信号に所定のパラメヌタによ り少なく ずもサラり ンドパン凊理を斜すパラメヌタ蚭定手段を有するこ ずを特城ずす る音像定䜍信号凊理装眮。
1 0 . 耇数の音源から入力される各音源デヌタを合成手段によ り合成しお制䜜系における制埡情報によ り信号凊理を斜したォヌ ディォ信号に぀いお、 基準䜍眮に察しお角床情報を有する映像信 号に基づく映像に察応するよ う に再生系においお再生音像を任意 の䜍眮に定䜍させるよ う に再生甚情報に信号凊理を斜す音像定䜍 信号凊理装眮においお、
䞊蚘再生甚情報における映像信号に重畳された䞊蚘オヌディオ 信号および䞊蚘制埡情報から、 䞊蚘映像信号、 䞊蚘オヌディオ信 号および䞊蚘制埡情報を読み出す再生甚情報読み出し手段ず、 䞊蚘映像信号を再生する映像信号再生手段ず、
䞊蚘映像信号に基づく 映像の再生音像の角床情報ずなるナヌザ 䞀の芖点遞択情報を遞択する遞択手段ず、
䞊蚘遞択手段によ り遞択された再生音像の角床情報ずなるナヌ ザ䞀の芖点遞択情報に察応する䞊蚘オヌディオ信号のチャンネル に音像定䜍のための信号凊理をリ アルタむムで斜す音像定䜍制埡 凊理手段ず、
を備え、 䞊蚘オヌディオ信号にリ アルタむムで信号凊理を斜し お䞊蚘映像信号に基づく 映像に察応しお音像定䜍䜍眮を制埡する よう にしたこ ずを特城ずする音像定䜍信号凊理装眮。
1 1 . 請求の範囲 1 0蚘茉の音像定䜍信号凊理装眮においお、 䞊蚘音像定䜍制埡凊理手段は、 䞊蚘芖点遞択情報に察応しお、 䞊蚘オヌディオ信号に所定のパラメヌタによ り少なく ずもサラり ン ドパン凊理を斜すパラメヌタ蚭定手段を有するこずを特城ずす る音像定䜍信号凊理装眮。
1 2 . 基準䜍眮に察しお角床情報を有する映像信号に基づく 映 像に察応するよ う に再生系における再生音像を任意の䜍眮に定䜍 させるよ う に制䜜系においお耇数の音源から入力される各音源デ ヌタを合成手段によ り合成したオヌディオ信号に信号凊理を斜す 音像定䜍信号凊理方法においお、
䞊蚘映像信号に基づく 映像の再生音像の角床情報ずなるナヌザ 䞀の芖点遞択情報を遞択する遞択ステップず、
䞊蚘遞択ステップによ り遞択された再生音像の角床情報ずなる ナヌザヌの芖点遞択情報に察応する䞊蚘オヌディオ信号のチャン ネルに音像定䜍のための信号凊理をリ アルタむムで斜す音像定䜍 制埡凊理ステップず、
䞊蚘音像定䜍制埡凊理ステップによ り信号凊理を斜すための制 埡情報を生成する制埡情報生成ステップず、
䞊蚘映像信号に䞊蚘オヌディオ信号およぎ䞊蚘制埡情報を重畳 しお送出甚情報を生成する送出甚情報生成ステップず、
を備え、 䞊蚘オヌディオ信号にリ アルタむムで信号凊理を斜し お䞊蚘映像信号に基づく 映像に察応しお音像定䜍䜍眮を制埡する よ う にしたこ ずを特城ずする音像定䜍信号凊理方法。
1 3 . 耇数の音源から入力される各音源デヌタを合成手段によ り合成しお制䜜系における制埡情報によ り信号凊理を斜したォヌ ディォ信号に぀いお、 基準䜍眮に察しお角床情報を有する映像信 号に基づく映像に察応するよ う に再生系においお再生音像を任意 の䜍眮に定䜍させるよ う に再生甚情報に信号凊理を斜す音像定䜍 信号凊理方法においお、
䞊蚘再生甚情報における映像信号に重畳された䞊蚘オヌディオ 信号および䞊蚘制埡情報から、 䞊蚘映像信号、 䞊蚘オヌディオ信 号および䞊蚘制埡情報を読み出す再生甚情報読み出しステップず 䞊蚘映像信号を再生する映像信号再生ステップず、
䞊蚘映像信号に基づく 映像の再生音像の角床情報ずなるナヌザ 䞀の芖点遞択情報を遞択する遞択ステップず、
䞊蚘遞択ステップによ り遞択された再生音像の角床情報ずなる ナヌザヌの芖点遞択情報に察応する䞊蚘オヌディオ信号のチャン ネルに音像定䜍のための信号凊理をリ アルタむムで斜す音像定䜍 制埡凊理ステップず、
を備え、 䞊蚘オヌディオ信号にリ アルタむムで信号凊理を斜し お䞊蚘映像信号に基づく映像に察応しお音像定䜍䜍眮を制埡する よ う にしたこ ずを特城ずする音像定䜍信号凊理方法。
PCT/JP2003/003339 2002-03-20 2003-03-19 Appareil de traitement d'un signal de localisation d'image sonore et procede de traitement dudit signal WO2003079724A1 (fr)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2002079210A JP2003284196A (ja) 2002-03-20 2002-03-20 音像定䜍信号凊理装眮および音像定䜍信号凊理方法
JP2002-79210 2002-03-20

Publications (1)

Publication Number Publication Date
WO2003079724A1 true WO2003079724A1 (fr) 2003-09-25

Family

ID=28035633

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2003/003339 WO2003079724A1 (fr) 2002-03-20 2003-03-19 Appareil de traitement d'un signal de localisation d'image sonore et procede de traitement dudit signal

Country Status (2)

Country Link
JP (1) JP2003284196A (ja)
WO (1) WO2003079724A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2571572A (en) * 2018-03-02 2019-09-04 Nokia Technologies Oy Audio processing

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050100174A1 (en) * 2002-11-08 2005-05-12 Damian Howard Automobile audio system
US7483539B2 (en) 2002-11-08 2009-01-27 Bose Corporation Automobile audio system
DE102005008366A1 (de) 2005-02-23 2006-08-24 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Ansteuern einer Wellenfeldsynthese-Renderer-Einrichtung mit Audioobjekten
DE102005008342A1 (de) 2005-02-23 2006-08-24 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Speichern von Audiodateien
DE102005008343A1 (de) 2005-02-23 2006-09-07 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Liefern von Daten in einem Multi-Renderer-System
DE102005008369A1 (de) 2005-02-23 2006-09-07 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Simulieren eines Wellenfeldsynthese-Systems
JP2007266967A (ja) * 2006-03-28 2007-10-11 Yamaha Corp 音像定䜍装眮およびマルチチャンネルオヌディオ再生装眮
JP4611951B2 (ja) * 2006-09-20 2011-01-12 シャヌプ株匏䌚瀟 音声再生装眮、映像音声再生装眮、及びその音堎モヌド切り替え方法
JP2008244865A (ja) * 2007-03-27 2008-10-09 National Univ Corp Shizuoka Univ 音堎切替システム
JP5174527B2 (ja) * 2008-05-14 2013-04-03 日本攟送協䌚 音像定䜍音響メタ情報を付加した音響信号倚重䌝送システム、制䜜装眮及び再生装眮
JP5380945B2 (ja) * 2008-08-05 2014-01-08 ダマハ株匏䌚瀟 音響再生装眮およびプログラム
JP4840421B2 (ja) * 2008-09-01 2011-12-21 ゜ニヌ株匏䌚瀟 音声信号凊理装眮、音声信号凊理方法、プログラム
JP5618043B2 (ja) * 2009-09-25 2014-11-05 日本電気株匏䌚瀟 映像音響凊理システム、映像音響凊理方法及びプログラム
EP2346028A1 (en) * 2009-12-17 2011-07-20 Fraunhofer-Gesellschaft zur Förderung der Angewandten Forschung e.V. An apparatus and a method for converting a first parametric spatial audio signal into a second parametric spatial audio signal
DE102010030534A1 (de) 2010-06-25 2011-12-29 Iosono Gmbh Vorrichtung zum VerÀnderung einer Audio-Szene und Vorrichtung zum Erzeugen einer Richtungsfunktion
JP2014045282A (ja) * 2012-08-24 2014-03-13 Nippon Hoso Kyokai <Nhk> 残響付加装眮、残響付加プログラム
JP6512767B2 (ja) * 2014-08-08 2019-05-15 キダノン株匏䌚瀟 音響凊理装眮および方法、䞊びにプログラム
WO2017135063A1 (ja) * 2016-02-04 2017-08-10 ゜ニヌ株匏䌚瀟 音声凊理装眮、および音声凊理方法、䞊びにプログラム
EP3547718A4 (en) 2016-11-25 2019-11-13 Sony Corporation PLAYING DEVICE, PLAY PROCESS, INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD AND PROGRAM
JP7174941B2 (ja) * 2018-04-11 2022-11-18 アルカクルヌズ むンク デゞタルメディアシステム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06246064A (ja) * 1993-02-23 1994-09-06 Victor Co Of Japan Ltd テレビゲヌム機甚付加装眮
JPH0721742A (ja) * 1993-06-21 1995-01-24 Matsushita Electric Ind Co Ltd 音響線集システム及び音響再生システム
JPH07222299A (ja) * 1994-01-31 1995-08-18 Matsushita Electric Ind Co Ltd 音像移動凊理線集装眮
JPH0955925A (ja) * 1995-08-11 1997-02-25 Nippon Telegr & Teleph Corp <Ntt> 画像システム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06246064A (ja) * 1993-02-23 1994-09-06 Victor Co Of Japan Ltd テレビゲヌム機甚付加装眮
JPH0721742A (ja) * 1993-06-21 1995-01-24 Matsushita Electric Ind Co Ltd 音響線集システム及び音響再生システム
JPH07222299A (ja) * 1994-01-31 1995-08-18 Matsushita Electric Ind Co Ltd 音像移動凊理線集装眮
JPH0955925A (ja) * 1995-08-11 1997-02-25 Nippon Telegr & Teleph Corp <Ntt> 画像システム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2571572A (en) * 2018-03-02 2019-09-04 Nokia Technologies Oy Audio processing

Also Published As

Publication number Publication date
JP2003284196A (ja) 2003-10-03

Similar Documents

Publication Publication Date Title
WO2003079724A1 (fr) Appareil de traitement d&#39;un signal de localisation d&#39;image sonore et procede de traitement dudit signal
US7336792B2 (en) Virtual acoustic image localization processing device, virtual acoustic image localization processing method, and recording media
JP4940671B2 (ja) オヌディオ信号凊理装眮、オヌディオ信号凊理方法及びオヌディオ信号凊理プログラム
JP3435156B2 (ja) 音像定䜍装眮
JP4914124B2 (ja) 音像制埡装眮及び音像制埡方法
JP3422026B2 (ja) オヌディオ再生装眮
US20100215195A1 (en) Device for and a method of processing audio data
JP2002528020A (ja) 擬䌌立䜓音響出力をモノラル入力から合成する装眮および方法
JP4499358B2 (ja) 音像定䜍信号凊理装眮
KR20180102596A (ko) 몰입형 였디였 재생을 위한 신혞의 합성
WO2006129640A1 (ja) マルチチャンネル収音装眮、マルチチャンネル音声再生装眮、およびマルチチャンネル収音再生装眮
JP2002345097A (ja) サラりンド音堎再生システム
JP2004064363A (ja) デゞタルオヌディオ凊理方法、デゞタルオヌディオ凊理装眮およびデゞタルオヌディオ蚘録媒䜓
JP2005157278A (ja) 党呚囲音堎創生装眮、党呚囲音堎創生方法、及び党呚囲音堎創生プログラム
JP4538860B2 (ja) 音声垯域信号蚘録再生装眮、音声垯域信号蚘録再生方法、音声垯域信号蚘録装眮及び音声垯域信号蚘録方法
EP1208724A2 (en) Audio signal processing device
JPH04158000A (ja) 音堎再生システム
JP2882449B2 (ja) テレビゲヌム甚の音像定䜍制埡装眮
JPS63146600A (ja) 耇数チダンネル録音再生システム
Algazi et al. Effective use of psychoacoustics in motion-tracked binaural audio
EP1616460A1 (en) System comprising sound reproduction means and ear microphones
JPH11146500A (ja) 音声信号再生装眮
JPH06233394A (ja) サラりンド信号凊理装眮
JP2004215781A (ja) ゲヌム機及びゲヌム機甚プログラム
JP2893780B2 (ja) 音響信号再生装眮

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): CN KR US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PT SE SI SK TR

121 Ep: the epo has been informed by wipo that ep was designated in this application
122 Ep: pct application non-entry in european phase