WO1998053443A1 - Graphic display, synchronous reproduction method, and synchronous av reproducing device - Google Patents

Graphic display, synchronous reproduction method, and synchronous av reproducing device Download PDF

Info

Publication number
WO1998053443A1
WO1998053443A1 PCT/JP1998/002175 JP9802175W WO9853443A1 WO 1998053443 A1 WO1998053443 A1 WO 1998053443A1 JP 9802175 W JP9802175 W JP 9802175W WO 9853443 A1 WO9853443 A1 WO 9853443A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
music
motion
character
frame
Prior art date
Application number
PCT/JP1998/002175
Other languages
French (fr)
Japanese (ja)
Inventor
Seiichi Suzuki
Yutaka Shirai
Masashi Tokunaga
Haruyo Ohkubo
Kenjirou Tsuda
Tetsuya Imamura
Original Assignee
Matsushita Electric Industrial Co., Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP12771797A external-priority patent/JP3481077B2/en
Priority claimed from JP9131521A external-priority patent/JPH10320589A/en
Priority claimed from JP9141927A external-priority patent/JPH10333673A/en
Priority claimed from JP9167802A external-priority patent/JPH1116001A/en
Priority claimed from JP9290026A external-priority patent/JPH11126066A/en
Priority claimed from JP563298A external-priority patent/JP3475765B2/en
Application filed by Matsushita Electric Industrial Co., Ltd. filed Critical Matsushita Electric Industrial Co., Ltd.
Priority to CA002250021A priority Critical patent/CA2250021C/en
Priority to US09/142,813 priority patent/US6331851B1/en
Publication of WO1998053443A1 publication Critical patent/WO1998053443A1/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/23412Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs for generating or manipulating the scene composition of objects, e.g. MPEG-4 objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43072Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of multiple content streams on the same device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234318Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by decomposing into objects, e.g. MPEG-4 objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
    • H04N21/44012Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving rendering scenes according to scene graphs, e.g. MPEG-4 scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/131Protocols for games, networked simulations or virtual reality

Definitions

  • the present invention relates to an apparatus for displaying computer graphics (hereinafter, referred to as CG).
  • CG computer graphics
  • a graphic display device that communicates between the server and the terminal to play back audio data (Video data) and video data (Video data) on the terminal side in synchronization, and AV synchronization in an independent device It relates to a playback device.
  • CG is widely used in fields such as movies and video games.
  • 3D CG in many cases, a three-dimensional character has a skeletal model composed of bones and joints.
  • Figure 40 shows an example of a skeletal model for a human body.
  • a solid character is displayed by fleshing out each part of a standing character, such as a polygonal arm or leg, around the skeleton model and pasting the texture on the surface of the polygon. It is as follows.
  • a combination of each part constituted by polygons and the texture is referred to as shape data.
  • the movement of the three-dimensional character is realized by giving an instruction (ie, motion) for moving the joints of the skeletal model to the micro-computer overnight.
  • VRML VirtualRealityModedelinngLanguguage
  • the terminal uses the VRML browser to display the received data as a CG video.
  • the shape data and the motion data are transferred from the server to the terminal, the data transfer amount increases, and there is a problem that the data transfer time is long.
  • CG is widely used in fields such as movies and video games. Recently, there have been many CG works that play not only CG images but also music that matches them. As a technique for associating such a CG with a sound, there is a two-dimensional image processing apparatus disclosed in Japanese Patent Application Laid-Open No. Hei 8-212388.
  • the start time and end time of the night of C G are C s and C e, respectively.
  • Tempo Original tempo x (Ae—As) / (Ce—Cs) In this way, by adjusting the tempo of the sound based on the relative ratio to the playback time of the CG, it is possible to reproduce the CG and the sound of different playback times in synchronization.
  • the present invention has been made in view of the above-described problems, and provides a graphic display for reducing the data transfer amount of CG data distributed from a server via a network and for smoothing the movement of a three-dimensional character displayed on a terminal. It is intended to provide a device.
  • the present invention can synchronize and play a song and a video whose tempo changes in the middle of the song, and synchronize and play the song and the video even when the tempo of the song suddenly changes or during special playback.
  • the purpose of the present invention is to provide an AV synchronized playback device that can perform the playback.
  • the graphic display device is characterized in that the server comprises:-a data transmission means for transmitting scenario data describing the combination of motions to the terminal via the network; A data receiving means for receiving the scenario data transmitted by the data transmitting means; a shape data base required for displaying the three-dimensional character; and a motion data necessary for moving the three-dimensional character.
  • a motion switching drawing means for displaying the three-dimensional character by switching motions in the order described in the scenario data received by the data receiving means; and the switching drawing means for displaying the motion. It is equipped with automatic motion compensation means for compensating the previous and next motions so that the motions can be displayed smoothly when switching. Even if each motion does not hold the home position, Can be connected naturally to display CG videos.
  • the server includes a connection portion between the motions described in the scenario data transmitted by the data transmission device.
  • a correction data transmitting unit for transmitting the motion correction data to be corrected through a network, wherein the correction data transmitted by the correction data transmitting means is used instead of the motion automatic correction unit of the terminal.
  • Based on the motion correction data received by the correction data receiving means so that the motion can be smoothly displayed when the switching drawing means switches the motion. It features motion compensation means for compensating motion, and saves computer resources of the terminal because the server sends a pre-calculated correction data from the server. It can be.
  • the server is configured to transmit a motion data base and a data transmission unit from the motion data base.
  • the feature is that the calculation of the correction data is performed in real time, thus saving server memory resources.
  • the graphic display method according to claim 4 of the present invention is characterized in that, when a three-dimensional character is graphically displayed by instructing a terminal from a server to a terminal, a plurality of motion patterns in which a pattern of the three-dimensional character motion is described at a terminal.
  • An evening is prepared, the server sends a scenario to the terminal describing the time series combination order of the motion pattern, detects the scenario from the server, and operates based on this scenario data.
  • the terminal that displays the graphic in the same manner as the home position timing common to the motion pattern to be executed and the next execution pattern, or the position of the home position common to the motion pattern to be executed and the next execution pattern It is characterized in that scene switching is performed by switching the motion pattern to be executed in the evening.
  • the graphic display device describes a motion group describing a plurality of patterns of motion, and a pattern in which the three-dimensional character is operated based on which of the motion groups corresponds to the scene.
  • the character posture control means is provided with a home position that is common to the movement pattern to be executed and the next pattern to be executed or a position that is substantially common to the pattern to be executed and the next pattern to be executed next. Switching scenes by switching the motion pattern executed at the timing It is characterized in that it is configured to execute.
  • a graphic display device is a graphic display device in which a server and a terminal are provided on a network, and the terminal displays the graphic on the terminal.
  • a database of character data that defines the shape, a database of motion that defines the movement of the character, and a scenario database that specifies a time series combination of the character data and one or more of the motions are provided.
  • the terminal includes a character database for storing the character data, a motion database for storing the motion, and a character database specified by the scenario.
  • a data search means for searching whether or not the character data exists on the character database; Obtaining of Mashimashi such have character de Isseki characterized in that a de Isseki request means to request the server.
  • the server requests only the server to acquire character data that does not exist on the terminal's character data base, and creates the required character data together with the terminal to create a character movie on the terminal. If there is no character data necessary for the transfer, the data is transferred to the network. At this time, only the character data that was insufficient for the terminal is transferred over the network. All necessary data for displaying characters can be supplied to the terminal.
  • the graphic display device is a A graphic display device, comprising: a server and a terminal provided thereon; and a graphic display at the terminal, wherein the server includes: a database of character data defining the shape of a three-dimensional character; A motion database that defines the movement of the character, and scenario data that specifies the time series combination of the character data and one or more of the motions.
  • the terminal stores the character data Character data storage pace to be stored, motion data storage base for storing the motion, and data for searching whether the motion specified by the scenario data exists in the motion database. Overnight search means, and a data requester for requesting the server to obtain a motion that does not exist in the motion database. And said that you provided.
  • the server only requests the server to obtain motion data that does not exist on the terminal's motion data base, and creates the required motion video data to generate character animation on the terminal. Therefore, if the terminal does not have the motion data necessary for drawing a 3D character, it is transferred to the network, and at this time, only the motion data that was insufficient for the terminal is transferred to the network. In a short communication time, all data necessary for displaying 3D characters can be supplied to the terminal.
  • An AV synchronous reproducing apparatus comprises: a music playing means for performing a performance based on music data; a music position specifying a position on the music; A synchronization information table for temporarily storing the synchronized time and a synchronization information updating means for updating the synchronization information table based on the performance of the music playing means.
  • Music position calculating means for calculating a music position currently being played by the music playing means from the current time and the contents of the synchronization information table; and a frame buffer for temporarily storing a frame.
  • a frame data synchronized with the performance of the music playing means is calculated from the CG data associated with the music data based on the music position calculated by the music position calculating means, and output to the frame buffer.
  • Frame output means for displaying the frame data stored in the frame buffer as a moving image, wherein the video is displayed only for music data having a fixed tempo.
  • the synchronization information updating means is configured to update the synchronization information table each time the music performance means changes either the music position or the tempo information.
  • An AV synchronous reproducing apparatus is characterized in that, in claim 8, the synchronous information updating means is configured to update the synchronous information table at a specific cycle, and to update the synchronous information.
  • the same effect as in claim 8 can be obtained by reducing the number of times.
  • the AV synchronous reproducing apparatus is characterized in that, in claim 8, a calculation time estimating means for estimating a calculation time required by the frame data output means from the CG data amount is added, and the frame output means includes: The calculation time estimating means predicts from the music position calculated by the music position calculating means. And outputting the frame data synchronized with the music position delayed by the specified time to the frame buffer. The video can be played back in synchronization.
  • the AV synchronous reproducing apparatus is the AV synchronous reproducing apparatus according to claim 8, wherein the performance delay estimating means for estimating a time from the music data until the sound at the current music position is actually output as sound.
  • the synchronization information updating means is configured to output a music position, tempo information, and update time delayed by the expected time of the performance delay to the synchronization information table. In addition to the effect of, the video can be played back in sync with the music without delay due to the performance.
  • the display delay time from when the CG data is reproduced to when the video display means can actually display the frame buffer data is set.
  • a means for predicting video display delay to be predicted is added, and the frame output means delays the frame data synchronized with the music position delayed by the time predicted by the video display delay predicting means from the music position calculated by the music position calculating means. It is configured to output to a frame buffer.
  • the AV synchronous reproducing apparatus is the AV synchronous reproducing apparatus according to claim 8, wherein the special performance start notifying means for generating a special reproduction start signal when the music playing means starts special reproduction, and the special music playing means A special reproduction end notifying means for generating a special reproduction end signal when ending the reproduction, and a special reproduction synchronization information updating means for outputting a music position to a synchronization information table in real time during the special reproduction. Is playing a special And outputting the frame data to a frame buffer on the basis of the synchronization information table updated by the trick play synchronization information updating means.
  • the video can be synchronized with the music data during the special playback, compared to the conventional technology where the synchronization between the music data and the video could be lost during the middle.
  • An AV synchronous reproducing apparatus is an AV synchronous reproducing apparatus that reproduces music data and video data in synchronization with each other.
  • a beat generation circuit that outputs, as a synchronous message, a song position specifying the current position on the song and the tempo information that is the basis of the performance tempo each time the song progresses, and a song data based on the specified note. Linked the evening with the progress of video data
  • a synchronization message is input from the beat generation circuit.
  • a display frame determining circuit for determining the moving image data to be written to the frame buffer based on the progress position of the frame of the moving image data specified by the AV synchronization instruction data and the time interval ⁇ T. It is characterized by an octopus.
  • An AV synchronized playback device is an AV synchronized playback device that plays back a music data and a CG character movement data in synchronization with each other.
  • a beat that outputs the song position specifying the current position on the song and the basic tempo information of the performance tempo as a synchronization message A raw circuit; an AV synchronization instruction data generating circuit for generating an AV synchronization instruction data that associates the progress of the music data with the progress of the motion data of the CG character based on the specific note; and a frame.
  • a synchronization message is input from the beat generation circuit, the tempo information included in the synchronization message, and the time when the synchronization message is input.
  • a character posture calculation circuit that determines the posture of the CG character to be written into the frame buffer based on the progress position of the frame of the evening and the above time interval ⁇ T. And wherein the digit.
  • An AV synchronous reproducing apparatus is characterized in that, in claim 15 or claim 16, a tempo change input circuit for inputting a change in the tempo information is provided.
  • the music position and the tempo information of the music that specify a position on the music based on a specific note are identified. Each time the music progresses by the number of musical notes, the music is transmitted from the sound generation unit to the image generation unit.
  • the AV synchronized playback method is characterized in that, when playing back music data, each time a music piece for a specific note progresses, the music position and performance tempo at which the position on the music piece at that time is specified. Outputting the basic tempo information as a synchronization message, and an AV synchronization instruction data in which the music data and the progress of the moving image data are associated with each other based on the specific note.
  • the synchronization message is input, and the tempo information included in the synchronization message is
  • the synchronization message is input, the progress position of the frame of the video data written in the frame buffer, and when the next synchronization message is input, the AV synchronization instruction data
  • the moving image data to be written into the frame buffer is determined based on the progress position of the frame of the specified moving image data and the time interval.
  • AV synchronous reproduction method when reproducing music data, each time a music piece for a specific note progresses, a music position and a performance tempo at which a position on the music piece at that time is specified. Outputting the tempo information as a synchronization message, which is the basis of the audio data, and AV synchronization instruction data in which the progress of the music data and the progress of the motion data of the CG character are made based on the specific note.
  • the synchronization message is input, and the tempo information included in the synchronization message, the synchronization message,
  • the message is input, the frame progress position of the motion data of the CG character written in the frame buffer, and when the next synchronization message is input, the AV synchronization instruction data Is written in the frame buffer according to the progress position of the frame of the CG character specified by the above and the time interval ⁇ ⁇ c
  • the posture of the G character is determined.
  • the AV synchronized playback method according to claim 21 of the present invention, according to claim 19 or claim 20, wherein the step of inputting a change in the tempo information; and the step of inputting the tempo information of the synchronized message. Change to And a process.
  • a recording medium according to claim 22 is characterized in that a combination program for realizing the AV synchronous reproduction method according to any one of claims 19 to 21 is recorded.
  • FIG. 1 is a configuration diagram of (Embodiment 1) of the present invention.
  • FIG. 2 is an explanatory diagram of the shape data of the embodiment.
  • Fig. 3 is an explanatory diagram of a coordinate change over time of the motion Ma of the embodiment.
  • Fig. 4 is a motion graph of the motion Ma of the embodiment.
  • Fig. 5 is a motion graph of the motion Mb of the embodiment.
  • Fig. 6 is a motion graph of the motions Ma and Mb of the embodiment. Motion graph corrected
  • Fig. 8 shows the configuration of (Embodiment 2).
  • FIG. 9 is an explanatory diagram of correction data according to the embodiment.
  • FIG. 10 shows the configuration of the third embodiment.
  • Fig. 11 shows the configuration of (Embodiment 4).
  • FIG. 12 is an explanatory diagram showing an example of the motion of the embodiment.
  • Figure 13 shows the structure of scenario data according to the embodiment.
  • FIG. 14 is an explanatory diagram showing an example of motions connected according to the scenario data of the embodiment.
  • FIG. 15 is a flowchart of the motion switching drawing means of the embodiment.
  • FIG. 16 is a block diagram of (Embodiment 5) of the present invention.
  • Fig. 17 is a flowchart of the terminal shortage data processing of the embodiment.
  • Fig. 18 is a flowchart of the server's missing data processing according to the embodiment.
  • FIG. 19 is a block diagram of (Embodiment 6) of the present invention.
  • FIG. 20 is a flow chart of the embodiment.
  • FIG. 21 is a block diagram of (Embodiment 7) of the present invention.
  • FIG. 22 is a block diagram of (Embodiment 8) of the present invention.
  • FIG. 23 is a block diagram of (Embodiment 9) of the present invention.
  • FIG. 24 is a block diagram of (Embodiment 10) of the present invention.
  • FIG. 25 is a block diagram of (Embodiment 11) of the present invention.
  • FIG. 26 is a block diagram of (Embodiment 12) of the present invention.
  • FIG. 27 is a block diagram of (Embodiment 13) of the present invention.
  • FIG. 28 is an explanatory diagram showing the relationship between the number of beats of the music, the motion data, the scenario, and the AV synchronization instruction data in the embodiment.
  • FIG. 29 is a timing chart showing the temporal relationship between music data, CG character posture calculation, and rendering processing in the embodiment.
  • FIG. 30 is a flowchart showing a music performance reproduction process according to the embodiment.
  • FIG. 31 is a flowchart showing a process of generating AV synchronization instruction data according to the embodiment.
  • FIG. 32 is a flowchart showing an ACG character reproduction process according to the embodiment.
  • FIG. 33 is a configuration diagram of (Embodiment 14) of the present invention.
  • Fig. 34 is a flow chart showing the playback process of music performance in this embodiment.
  • FIG. 35 is a block diagram of (Embodiment 15) of the present invention.
  • FIG. 36 is an explanatory diagram showing the relationship between the number of beats of music, video data, video scenario data, and AV synchronization instruction data in the embodiment.
  • FIG. 37 is a flowchart showing a moving image playback process in the embodiment.
  • FIG. 38 is a configuration diagram of (Embodiment 16) of the present invention.
  • Fig. 39 is a flowchart showing the playback process of music performance in the embodiment.
  • Figure 40 is an illustration of the skeleton data of a three-dimensional character
  • a server 51 and a terminal 52 are connected by a network 53.
  • the server 51 has a data transmission means 1 and a scenario database 74.
  • the terminal 52 is composed of the data receiving means 11, the motion switching drawing means 12, the automatic motion correcting means 13, the shape data base 14, the motion database 15, and the display means 16. It is configured.
  • the overnight transmission means 1 transmits the scenario data 61 to be displayed on the terminal 52 out of the plurality of scenario data stored in the scenario database 74 via the network 53.
  • Scenario Day 6 1 specifies the three-dimensional character to be displayed, Also, it specifies the combination order of the motions for moving the three-dimensional character, and is a list of motion IDs for specifying the motions.
  • the motion corresponding to the motion ID is supplied to the terminal through a recording medium such as a CD-ROM or a floppy disk or the network 53 in advance, and the motion database of the terminal 52 is provided. It shall be stored in 15.
  • the motion corresponding to the motion ID ⁇ Ma, Mb, Mc, Md, Me ⁇ is stored in the motion data base 15, [Ma, Mc, Ma , Me] (indicating that the display is switched and displayed in order from the top of the list).
  • the scenario [Ma, Mf, Ma, Me] cannot be specified because Mf is not stored in motion day 14. Any combination of the motions stored in the motion database 15 can be defined as the scenario data.
  • the data receiving means 11 receives the scenario transmitted by the data transmitting means 1 via the network 53.
  • the shape database 14 stores the shape data.
  • the shape data consists of a set of polyhedrons called polygons composed of two or more three-dimensional (X, y, z coordinates) points.
  • the motion database 15 stores motions. Motion defines the amount of change over time in a time series.
  • the shape of a triangular prism as shown in Fig. 2 consists of six vertices a, b, c, d, e, and f, and five subsets ⁇ a, b, c ⁇ of the vertices.
  • ⁇ d, e, f ⁇ ⁇ a, b, d, e ⁇ ⁇ a, c, d, f ⁇ ⁇ b, c, e, f ⁇ (This is object A).
  • the motion of rotating object A by 180 degrees around the X axis and 360 degrees around the y axis in 60 seconds is as shown in Fig. 3 (This motion is called motion Ma Do).
  • the rotation angle is defined for a specific time (this is called a key frame), and the rest is calculated by an interpolation algorithm.
  • a key frame a specific time
  • an interpolation algorithm Several types of general algorithms have been proposed for the key frame interpolation algorithm. Here, a one-dimensional linear interpolation algorithm will be used and described below.
  • the Motion Day Base 15 is a set of what is generally defined as a key frame set. When the motion change is graphed, the motion graph is as shown in Fig. 4. The black circles and triangles in Fig. 4 indicate key frames.
  • the motion switching drawing means 12 displays the CG moving image while sequentially switching the motions based on the scenario data 61 received by the data receiving means 11.
  • Each motion is a set of keyframes within a certain time (motion time).
  • motion Ma is a motion having seven key frames in 60 seconds. By performing one-dimensional linear interpolation between key frames, it is possible to restore the motion graph as shown in Fig. 4. You.
  • one-dimensional linear interpolation is used for key frame interpolation, but other known methods such as spline nonlinear interpolation exist.
  • the present invention does not particularly limit the interpolation method, since the same effect can be obtained by using any of these methods.
  • the X-axis rotation angle and y-axis rotation angle are calculated by linear interpolation.
  • the rotation angle of the X axis is 100 degrees as calculated above, and the rotation angle of the y axis is
  • a frame can be displayed by performing a rendering process after these coordinate conversion processes.
  • the motion switching drawing means 12 performs a series of processes from the start to the end of each motion in a chain based on the frame rate (specifying how many frames are drawn per second). Display a movie. When one motion finishes the CG video within the specified motion time, the CG video of the next motion specified in the scenario data is displayed. In this way, the CG moving image is displayed continuously by switching the motion one after another.
  • the motion automatic correcting means 13 corrects the motion when the motion switching drawing means 12 switches the motion. If the motions are displayed one after another, the motions may be discontinuous at the joint.
  • FIG. 6 shows the combined motion graphs of Ma and Mb.
  • discontinuities occur at the 60-second frame of motion Ma and the 0-second frame of motion Mb.
  • the average value of each value of the 60th and 0th second frames of the motion Ma is set as a key frame at the time of switching the motion, so that the motion Avoid discontinuities in the connection.
  • Motion M Calculate keyframes when switching between a and motion Mb.
  • the motion automatic correction means 13 calculates a key frame from the preceding and following motions when switching motions, and automatically corrects the motion. There are a plurality of known correction methods. Since the same effect can be obtained by using any of these methods, the present invention does not particularly limit the correction method.
  • the scenario data that specifies the motion combination order is transmitted to the terminal 52 through the network 53, and the shape data and motion data of the three-dimensional character having a large data capacity are transmitted. Since no data is transmitted, the amount of data transferred is small and the burden on the network is small.
  • the motion automatic correction means 13 of the terminal 52 corrects the motion when switching the motion, the movement of the three-dimensional character displayed on the display means 16 of the terminal 52 is very smooth. is there.
  • the server 51 and the terminal 52 are connected by a network 53.
  • the server 51 includes a data transmission means 1 and a correction data transmission means 21.
  • the terminal 52 includes the data receiving means 11, the correction data receiving means 22, the motion switching drawing means 12, the display means 16, the motion correcting means 23, the shape data base 14 and It is composed of a plurality of motion displays 15.
  • 1, 1, 1, 12, 14, 15, and 16 are the same as those in the first embodiment, and a description thereof will be omitted.
  • the correction data transmission means 21 transmits correction data 62 for correcting the motions of the scenario data 61 transmitted by the data transmission means 1 o
  • the correction data 62 are calculated in advance by the same method as the automatic motion correction means 13 described in (Embodiment 1), and the motion of the three-dimensional character before and after the switching when the motion is switched. Is data for smooth movement.
  • the correction data 62 specifies the motion and the time of the frame.
  • the correction data 62 of the motion Ma and the motion Mb are as shown in FIG.
  • Switch motion Mb after motion Ma and display 60 seconds key frame of M a (rotation angle of X axis 180 degrees, rotation angle of y axis 360 degrees) and motion Mb 0 seconds key frame (rotation angle of X axis 140 degrees, y axis
  • the rotation angle of 320 degrees is corrected to a rotation angle of 160 degrees on the X axis and a rotation angle of 340 degrees on the y axis.
  • Such correction data 62 is necessary for the number of times of switching of each motion of the scenario data. For example, when the scenario data specifies five modes of ⁇ Ma, Mb, Mc, Md, Me ⁇ , (Ma, Mb), (Mb, Mc), (Mc, Md ), (Md, Me)
  • the correction data for the joint between the motions when switching the four motions is required.
  • the correction data transmitting means 21 transmits the correction data 62 to the terminal 52.
  • the correction data receiving means 22 receives the correction data 62 transmitted from the server.
  • the motion correction means 23 corrects the motion based on the correction data 62 received by the correction data receiving means 22 when the motion switching drawing means 12 switches the motion. Smooth character movement.
  • the motion switching drawing means 12 switches the motion from the motion Ma to the motion Mb for 60 seconds and 0 seconds, respectively.
  • the key frame is corrected and the time of the frame in Fig. 7 is specified.
  • the correction data of Ma and Mb are as shown in FIG.
  • a scenario 61 that defines the order of combination of motions, and the switching of each motion.
  • the shape of a three-dimensional character with a large amount of data is not transmitted, and not all motions are transmitted. And the burden on the network 53 is small.
  • the motion is corrected based on the transmitted correction data 62, the movement of the three-dimensional character displayed on the display means 16 of the terminal 52 is very smooth.
  • FIG. 10 shows (Embodiment 3).
  • the server 51 and the terminal 52 are connected by a network 53.
  • the server 51 is connected to the transmission means 1 It comprises a database 76, correction data transmission means 21 and correction scenario calculation means 31.
  • the terminal 52 includes a data receiving means 11, a correction data overnight receiving means 22, a motion switching drawing means 12, a display means 16, a motion correcting means 23, a shape data base 14, and a plurality of It consists of Motion Day Night Base 15.
  • the correction scenario calculating means 31 calculates a correction data based on the motion database 76 so as to smoothly display each motion of the scenario data transmitted by the scenario transmitting means 1 based on the motion database 76.
  • E2 Send to terminal using transmission means 22.
  • the method of calculating the correction data is the same as that of the automatic motion correction means 13 described in (Embodiment 1), and thus the description thereof is omitted here.
  • the motion is corrected based on the transmitted correction data, the movement of the three-dimensional character displayed on the display means 16 of the terminal 52 is very smooth.
  • FIGS. 11 to 15 show (Embodiment 4).
  • a server 91 and a terminal 92 are connected by a network 53.
  • the server 91 has a data transmission means 1 and a scenario database 74.
  • the terminal 92 includes a data receiving means 11, a motion switching drawing means 12, a display means 16, a shape database 14, and a motion data base 15.
  • 1, 11, 12, 14, 14, 15, 16, 74 are the same as those in the first embodiment.
  • the shape database 14 of the terminal 9 2 contains various types of skeletal models of solid characters, polygon data such as the head, chest, waist, both arms, both hands, and both feet, and textures to be attached to the surface of the polygon. —Data is stored.
  • Motions Ml, M2, M3, of the respective scenes of "Sl”, “Scene S2” and “Scene S3" are accumulated to form a motion database 12.
  • Motion Ml and motion M2 shown in FIG. 12 are provided with a movement home position HP1 having a common posture.
  • the motion M2 and M3 are provided with a common home position HP2.
  • Motion M3 has the same home position at the beginning of movement (HP 2) and at the end of movement (HP 2).
  • the shape data base 14 and the motion data base 15 are, for example, CD-R0M, DVD (Digital Video Disc), hard disk, rewritable semiconductor RAM, or rewritable. It can be composed of a simple optical disk or the like.
  • Figure 13 shows the structure of Scenario Day 61.
  • the scenario data 61 is composed of shape data overnight identification information and motion designation information.
  • the shape data identification report includes skeletal model identification information for identifying the skeleton model of the three-dimensional character to be displayed, polygon identification information for the three-dimensional character for identifying the polygon to be filled in with the skeleton model, and the polygon. It consists of the texture identification information of the three-dimensional character for specifying the texture to be attached to the surface of the gon.
  • the three-dimensional character to be displayed is specified by the shape data identification information.
  • the motion data overnight designation information the order of the motions used in the scenario data 61 and the time width indicating the time from the beginning to the end of the motion of each motion are recorded.
  • One motion data is assigned one scene number.
  • the scenario should be such that the posture at the end of movement of the sill (M i) (ie, the home position at the end of the movement) and the posture at the start of the motion (M i +1) (ie, the home position of the movement start) match.
  • the motion order is specified in advance.
  • Fig. 14 shows the movement of the three-dimensional character designated by the scenario data 61 in Fig. 13 as the movement of the skeleton data.
  • the scenario data 61 in FIG. 13 is composed of scenes S 1, S 2, S 3 by moving a three-dimensional character using the motions M 1 to M 3 in FIGS. 12 (a) to 12 (c).
  • the order of the motions in which the three-dimensional character can be moved and the length of time from the start to the end of each motion (hereinafter referred to as the time width) are specified.
  • the scene S 1 is assigned the motion M 1 of (a) of FIG. 12 during the time width T 1, and the posture of the three-dimensional character is changed from the initial posture of the motion M l It moves to the last posture (HP 1) for a time width T 1.
  • the necessary posture can be determined by a known method, for example, one-dimensional linear interpolation ⁇ spline interpolation.
  • the motion M2 is allocated in the scene S2 during the time width T2.
  • the three-dimensional character is in the first pose of motion M2 in Fig. 12 (b). It moves from (HP 1) to the last posture (HP 2) with the time width T 2.
  • the motions Ml and M2 between the temporally adjacent scenes S1 and S2 are the motion Ml motion end posture and the next motion
  • the posture at the start of the movement of M2 is set to be the same as the home position (HP1).
  • the scenario data in FIG. 13 shows that the motions M 2 and M 3 between the temporally adjacent scenes S 2 and S 3 correspond to the motions of the motion M 2.
  • the end position and the start position of the next motion M 3 are set to be the same home position (HP 2). Therefore, the three-dimensional character from scene S 2 to scene S 3 in FIG. 14 is set.
  • the movement is smooth.
  • the scenario data indicates that the home position between the motion (M i) used for one scene and the motion (M i +1) used next between the temporally adjacent scenes is calculated.
  • the posture at the start of movement and the posture at the end of movement are as follows. If the home position is the same (HP 3), it is possible to specify the same motion M 3 as many times as possible in Scenario Day. This is a repetition of the same action, for example, left and right It can be used when repeating the step of alternately stepping on the foot of the user.
  • the motion switching drawing means 12 in FIG. 11 performs the processing shown in FIG.
  • scenario data 61 is read in (step 1), and the motion specified by the scenario data is fetched from the motion database in (step 2).
  • step (3) the time scale of each motion Mi is adjusted so that the movement from the beginning to the end of each motion Mi is completed within the time width Ti.
  • the adjustment means extending and compressing the time scale of the motion.
  • Step 4 the motions Mi whose time scales have been adjusted are arranged in order according to the scenario data. Since motion originally possesses a keyframe as information, the data between the keyframe and the next keyframe must be generated by interpolation. Therefore, in (Step 5), key frame interpolation is performed.
  • key frame interpolation There are many known methods for one-frame interpolation, such as one-dimensional linear interpolation and spline non-linear interpolation, but the same effect can be obtained by using any of these methods.
  • the interpolation method is not limited.
  • Step 6 the motions arranged for each frame rate Determine the posture of the three-dimensional character according to, render, and display the three-dimensional character on display means 16.
  • the amount of data transmitted is small and the load on the network 53 is light.
  • the switching motion is performed at the same home position timing so that the standing character takes the same posture.
  • the graphic display of is smooth.
  • the motion pattern to be executed is switched between the motion pattern to be executed at the timing of the home position that is completely coincident with the motion pattern to be executed and the motion pattern to be executed next, in other words, The switching was executed, but the time of each scene was determined so that the switching of the scene was executed by switching the motion pattern to be executed at the timing of the position almost common to the motion pattern being executed and the next to be executed Almost the same effect can be expected even if the terminal is configured to perform (Embodiment 5)
  • FIGS. 16 to 18 show (Embodiment 5).
  • the terminal 32 is connected to the server 31 via the network 53.
  • 1 4 is the terminal 3 2 shape data overnight pace
  • 1 5 is motion data overnight base
  • 1 8 is memory
  • 7 4 is server 3 1 scenario database
  • 7 5 is shape database
  • 7 6 is motion It is evening-based.
  • the motion database 15 and the shape database 14 of the terminal 32 are CD-ROM, DVD (Digital Video Disc), rewritable semiconductor RAM, hard disk, or rewritable. It can be composed of a simple optical disc or the like.
  • the memory 18 is made of a rewritable semiconductor: AM, a hard disk, a rewritable optical disk, or the like.
  • the server 31 refers to a so-called server dedicated machine of a client / server type, and also includes both a server function and a client function of a via / via type as one unit. What you have on a machine is also called a server.
  • Shape data 14 and 75 store data on various types of three-dimensional characters. Each day is assigned a unique identification number.
  • various 3D character skeleton models-corresponding numbers of polygons such as arms, legs, face, body, etc. Managed and stored.
  • the data stored in the shape data bases 14 and 75 do not always match, and even if the data is stored in the shape data base 75 of the server 31, the shape of the terminal 32 is not Some data is not stored in database 14.
  • motion data bases 15 and 76 store motion data corresponding to each three-dimensional character. Each motion is assigned a unique identification number, and the motion database 15 Managed and stored within The data stored in these databases is not always the same, and is stored in the motion data base of the terminal 32 even though it is in the motion data server 76 on the server 31. There is not even one night.
  • Insufficient data search means 7 1 includes all the shape data and motion specified in scenario 61 sent from server 31 in shape data base 14 and motion database 15 Investigate whether or not.
  • the missing data search means 71 sends the identification information of this data to the data request means 72. .
  • the data requesting means 72 sends the data request for missing data and the identification information of the data (or those data) to the data selecting means 73 of the server 31 via the network 53.
  • the identification number (for example, an I-address) of the terminal 32 that has issued the download request is transmitted.
  • the data selection means 73 finds the corresponding data from the download request and the data identification information from the shape data base 75 or the motion data evening 76, and the terminal that issued the download request 3 2 To the data transmission means 1 together with the identification number.
  • the data transmission means 1 transmits the received data via the network 53 to the terminal 32 of the received identification number.
  • the terminal 3 2 data receiving means 1 1 stores the received data Save to 8.
  • the motion switching drawing means 12 uses the shape database 14 and the data stored in the motion database 15 and the memory 18 to draw as specified in the scenario data 61. And display the graphic on display means 16.
  • FIG. 17 shows a flowchart of the processing of the terminal 32.
  • the scenario data 61 has already been transferred from the server 31 to the terminal 32 via the network 53.
  • step B 1 the scenario data 61 is read to the terminal 32.
  • step B 2 the missing data overnight search means 71 searches the shape data base 14 and the motion data base 15, and searches all the shape data specified by the scenario data 61. For overnight and motion, it is checked whether or not it exists, based on the shape data and motion identification information, and the result is determined in (Step B3).
  • step B4 If it is determined in step B3 that the data does not exist, in step B4, the shape data (or / and) motion lacking the data requesting means 72 is transmitted to the terminal 32. Request server 31 to forward. At this time, the request is transmitted to the server 31 with the identification number of the terminal 32 requested.
  • FIG. 18 shows the processing of the server 31.
  • the server selection means 73 of the server 31 transmits the motion of the identification number requested from the terminal 32 to the motion database 76 in the server 31. And sends it to data transmission means 1.
  • the data transmission means 1 transfers the motion to the terminal 32 which has requested this motion. At this time, the transfer destination is specified by the identification number of the terminal 32.
  • the transferred motion (that is, missing data) is received by the data receiving means 11 of the terminal 32 and is stored in the memory 18. .
  • Step B6 the motion switching drawing means 12 combines the motions as specified in the scenario data 61, generates a series of motions and draws a three-dimensional character, and (Step B7) To display in step 16.
  • the rendering method and the like are the same as in (Embodiment 1).
  • the communication time is short, and the character data required for the terminal 32 is short. If the evening and motion were insufficient, only the missing character data or motion would be transferred, so the character and motion were transferred every time as before.
  • the communication time can be shortened compared to the case.
  • the missing data is set as motion data.
  • the terminal 32 is connected to the server 31 similarly.
  • Server 31 retrieves the requested data from the database and sends it to the terminal 32 via the network 53, thereby compensating for the lack of data on the terminal. Display becomes possible.
  • FIGS. 19 and 20 show (Embodiment 6).
  • FIG. 19 shows an AV synchronous reproducing apparatus according to the present invention.
  • the music playing means 101 reads music data and plays music based on it.
  • the music composition defines all parameters necessary for music performance, such as music performance tempo, tone, and tone, as in the MIDI (Musical Instrumental Digital Interface) standard.
  • MIDI Musical Instrumental Digital Interface
  • the music playing means 101 updates the position of the music currently being played in real time.
  • the music position is specified by the total number of beats from the beginning of the music.
  • any method may be used as long as the music position can be uniquely specified.
  • the position of the song is specified by the number of beats from the beginning of the tune that is currently being played (hereinafter, this is defined as beat ID).
  • the tempo information which is the basis of the performance of the present embodiment, is defined by a unit time of a beat (hereinafter, defined as tempo time). This can also be any information that controls the performance tempo.
  • the synchronization information table 102 temporarily associates a beat ID as a music position, a tempo time as tempo information, and a time at which the tempo was updated (hereinafter, this is defined as a synchronization information update time).
  • the synchronization information updating means 103 stores the beat ID played by the music playing means 101, the tempo time, and the updated time in the synchronization information table 10.
  • the music position calculating means 104 is a synchronizing information table 1002 with the current time.
  • the music position corresponding to the current time is calculated from the synchronization information.
  • the song position is calculated by the following formula (A).
  • H (t c) H t + ((t c-t) / P t)
  • the frame output means 106 receives the music data based on the music position calculated by the music position calculation means 104 from the CG data associated with the music data being played by the music performance means 101. Synchronized frame data — outputs evening to frame buffer 105, which temporarily stores frame data.
  • the frame data corresponding to the music position can be calculated using the frame interpolation technique. Since there are many known techniques for such frame interpolation techniques, such as spline interpolation and linear interpolation, their description will be omitted.
  • the CG data defined from the start time, the end time, and the key frame data can be used to determine the frame position of any frame advance position F t (start time ⁇ F t ⁇ end time). It is possible to calculate overnight.
  • the CG data related to the performance data corresponds the start time and the end time to the music position.
  • the frame data synchronized with the performance of the musical performance means 101 can be always output to the frame buffer 105 by using the frame interpolation technique based on the progress position of the frame calculated as described above. .
  • the video display means 107 displays a moving image by sequentially updating the display of the frame data stored in the frame buffer 105, and FIG. 20 shows the AV synchronous reproduction thus configured.
  • the following is a specific flowchart of the device.
  • the AV synchronous playback device repeats the following operation from the start beat ID to the end beat ID associated with CG data.
  • a process of reproducing in synchronization with the start beat ID (Hs) and the end beat ID (He) will be described.
  • the music position calculating means 104 calculates the music position (H (t)) corresponding to the current time (t) using the equation (A).
  • step S102 if the music position (H (t)) is smaller than the start beat ID (Hs), nothing is done and the process ends, and no more than the start beat ID (Hs). If it is above, go to (Step S103).
  • step S103 if the music position (H (t)) is larger than the end beat ID (He), nothing is done, and if it is less than the end beat ID (He), (step SI04) Proceed to).
  • the frame output means 106 calculates a frame date using the frame interpolation technique based on the frame advance position Ft calculated based on the equation (B), and Output to frame buffer 105. (Embodiment 7)
  • FIG. 21 shows (Embodiment 7).
  • the synchronization information real-time updating means 201 replaces the synchronization information updating means 103 of (Embodiment 6) shown in FIG.
  • the only difference is that they are provided, and the other components are the same as in (Embodiment 6).
  • the synchronization information real-time updating means 201 updates the synchronization information in the synchronization information table 102 only when the music playing means 101 updates data. For example, it is updated only when the tempo information changes or the music position changes. Therefore, if the tempo information and music position are not updated, they are not updated.
  • FIG. 22 shows (Embodiment 8).
  • the synchronization information periodic updating means 301 replaces the synchronization information updating means 103 of (Embodiment 6) shown in FIG. The only difference is that they are provided, and the other components are the same as in (Embodiment 6).
  • the synchronization information periodic updating means 301 updates the synchronization information table 102 at regular intervals.
  • the period may be a music unit such as once per kashiwa or a general unit such as once every 30 seconds. (Embodiment 9)
  • FIG. 23 shows (Embodiment 9).
  • a calculation time estimating means 401 is added to (Embodiment 6) shown in FIG.
  • the other components are the same as in (Embodiment 6).
  • the calculation time estimating means 401 predicts the time required for the calculation from the number of polygons and the number of vertices in CG data.
  • the calculation time is proportional to the number of polygons and vertices to be calculated.
  • the operation time is always estimated from the number of polygons and vertices to be processed next.
  • the calculation time estimating means 401 estimates in consideration of the processing capacity such as the CPU processing capacity of the computer. Therefore, even when the number of polygons is different from that of the frame, it is possible to predict the calculation time according to the number.
  • the frame output means 106 adds the calculation time predicted by the calculation time estimating means 401 to the music position calculated by the music position calculating means 104, and transfers frame data synchronized with the music position to the frame buffer 105. Output.
  • H s Start beat ID associated with start time
  • He End beat ID associated with the end time
  • the frame data synchronized with the performance of the performance means 101 can be always output to the frame buffer 105 using the frame interpolation technique.
  • FIG. 24 shows (Embodiment 10).
  • performance delay estimating means 501 is added to (Embodiment 6) shown in FIG.
  • the other components are the same as in (Embodiment 6).
  • the performance delay estimating means 501 predicts a performance delay time until the data is actually output as a sound from an output device such as a speaker based on the music data.
  • the performance delay time is proportional to the number of simultaneous sounds at the music position.
  • the forecast is made in consideration of the processing capacity such as the CPU processing capacity of the computer. Therefore, if the music position is specified, the performance delay time of the music position can be predicted in real time from the music data evening.
  • the synchronization information updating means 103 outputs to the synchronization information table 102 a value obtained by adding the performance delay time predicted by the performance delay estimating means 501 to the music position.
  • FIG. 25 shows (Embodiment 11).
  • display delay estimating means 501 is added to (Embodiment 6) shown in FIG. I have.
  • the other components are the same as in (Embodiment 6).
  • the display delay estimating means 501 predicts a display delay time until the video display means 107 actually displays the frame buffer 105 data. This can be expected from the performance of the image display means 107 such as the rendering ability.
  • the frame output means 106 calculates frame data of a value obtained by adding the display delay time estimated by the display delay estimating means 501 to the music position calculated by the music position calculating means 104.
  • the value of the frame time is calculated using the following equation (D).
  • D t Display delay estimating means 600 1 predicted display delay time
  • frame data synchronized with the performance of the playing means 101 can be always output to the frame buffer 105 by using the frame interpolation technique.
  • FIG. 26 shows (Embodiment 12).
  • the trick play start notifying means 701 and the trick play are added to FIG. 19 (Embodiment 6).
  • a live end notifying means 720 and a trick play synchronization information updating means 703 are added.
  • the other components are the same as in (Embodiment 6).
  • the special reproduction start notifying means 7001 generates a special reproduction start signal when the special reproduction is started by the observation.
  • the special reproduction end notifying means 7002 generates a special reproduction end signal when the special reproduction is ended by the operation.
  • the special reproduction synchronizing information updating means 7 03 is a special reproduction start information notifying means 7 0 1 from the time when the special reproduction start signal is generated until the special reproduction end notifying means 7 0 2 generates the special reproduction end signal.
  • the music position and tempo time in the synchronization information table 102 are updated according to the type of the special playback. For example, in the case of double-speed playback, the normal tempo time is reduced to 1/2, and the beat ID is advanced at twice the normal speed.
  • CG graphics a three-dimensional CG graphic image drawn by computer graphics
  • CG character a three-dimensional CG graphic image drawn by computer graphics
  • the AV synchronous playback device shown in Fig. 27 receives a performance start command from a user or an operator, and stores music data in the music data storage unit D1 and the music output from the music data storage unit D1.
  • An output waveform generator D2 that generates waveform data of the performance sound based on the data, and a sound data buffer D3 that temporarily stores a certain amount of waveform data from the output waveform generator D2. .
  • the AV synchronous playback device converts the waveform data from the audio data buffer D3 into an analog audio signal.
  • a D / A converter D4 for converting the sound signal, an amplifier D5 for amplifying the sound signal from the DZA converter D4, and a speaker D6 for sounding the amplified sound signal from the amplifier D5 as a performance. I have.
  • the music data storage unit D1 is composed of a rewritable recording medium, for example, a RAM, and is reproduced by a CD-R0M, DVD or similar recording medium or a communication line before a performance start command is input.
  • the music data for the music to be played has been obtained in advance. Since the music composition is the same as that of the sixth embodiment, the description is omitted. Further, since the sound data buffer D3 stores a fixed amount of waveform data, it is possible to prevent the performance reproduced by the speaker D6 from being interrupted.
  • a beat generation unit D7 for outputting a synchronization message is connected to the music data storage unit D1. Based on the tempo information included in the music data from the music data storage D1, the beat generation unit D7 generates a specific note, for example, a quarter note, every time the music performance progresses, at that time. A synchronous message consisting of the performance position (beat ID) of the current song and the tempo time Temp (i) (see Fig. 29) is generated. Since the beat ID and the tempo time are the same as in (Embodiment 6), description thereof will be omitted.
  • the sound generator D7 is connected to a sound buffer D3, and each time the performance sound waveform data is output from the sound buffer D3 to the D / A converter D4.
  • the output timing is transmitted from the sound data buffer D3 to the beat generation unit D7. For example, it informs the beat generation unit D7 that the waveform data has been output at a period of 44.1 kHz.
  • the timing of the output from the sound buffer D3 functions as an internal clock of 44.1 kHz in the beat generator D7.
  • the AV synchronous playback device is connected to a scenario data storage unit D8 for storing the scenario data and a scenario data storage unit D8 as a device for playing back the CG character based on the scenario data.
  • An AV synchronization instruction data generation unit D9, a beat generation unit D7, and a display frame determination unit D10 connected to the AV synchronization instruction data generation unit D9, which generate the AV synchronization instruction data;
  • a CG rendering unit D11, a frame buffer D12, and a monitor D13 are provided.
  • the display frame determination unit D10 stores a motion data storage unit D14 that stores motion data for instructing the motion (movement) of the CG character, and CG character shape data that indicates the shape of the CG character. Yes CG character shape data storage unit D15 is connected.
  • the CG rendering unit Dl1 includes a camera viewpoint information storage unit D16 and a light source information storage unit D17, which store camera viewpoint information and light source information for rendering the CG character to be displayed. It is connected.
  • Scenario data storage D8, motion data storage D14, CG character shape data storage D15, camera viewpoint information storage D16, and light source information storage D17 are rewritable records. It consists of a medium, for example, RAM.
  • the scenario data storage unit D8, the motion data storage unit D14, and the CG character shape data storage unit D15 store the CD-ROM, DVD, or similar recording medium before the performance start command is input.
  • the scenario data, the motion data, and the CG character shape data are input and stored by the or the communication line.
  • the scenario data input to the scenario data storage unit D8 is obtained by combining a plurality of motion data in a time series This is an instruction for generating a series of movements of the CG character.
  • the scenario data includes camera viewpoint information and light source information, and specifies the motion data, CG character shape data, camera viewpoint information, and light source information for each frame to be displayed.
  • the scenario data includes camera viewpoint information and light source information.
  • the camera viewpoint information and the light source information are output and stored in the camera viewpoint information storage unit D 16 and the light source information storage unit D 17 at the same time that the scenario data is stored in the scenario data storage unit D 8. .
  • the camera viewpoint information and the light source information are information indicating the shooting conditions of the virtual camera and the irradiation conditions of the virtual light source, respectively.
  • the camera viewpoint information is a data designating the camera position, the shooting direction, and the zoom.
  • the light source information is composed of data specifying the position of the light source, the irradiation direction, and the effect.
  • the AV synchronization instruction data generation unit D9 progresses the music data with respect to one quarter note (specific note) in each motion data divided by the scenario data.
  • the AV synchronization instruction data is generated by associating the CG character with the progress of the CG character.
  • the AV synchronization instruction data generation unit D9 generates AV synchronization instruction data for specifying a frame to be displayed each time a quarter note (specific note) advances by one beat.
  • FIG. 28 shows the music in the AV synchronized playback device shown in Fig. 27.
  • Fig. 28 (b) shows the relationship between the number of beats, motion data, and scenario data in the AV synchronized playback device shown in Fig. 27. ,, And the relationship between the AV synchronization instruction data.
  • FIGS. 28 (a) and (b) the horizontal axis indicates beat ID.
  • a quarter note is used as the specific note to be a reference for the number of beats.
  • FIG. 28 (b) shows an enlarged portion from the first beat to the first beat in FIG. 28 (a).
  • the scenario data overnight shows the number of beats of the music in the music data stored in the music data storage unit D1 and the motion data stored in the motion data storage unit D14.
  • the beat IDs 1 to H1 of the song are associated with the motion data M1 by the scenario data.
  • the first beat specifies the N1 first original frame
  • the H1 beat specifies the N2 first original frame
  • the beat IDs (H 1 + 1) to H 2 of the song are associated with the motion M 1 by the Sinariode.
  • the (H 1 + 1) beat specifies the N 1 2nd original frame
  • the H 2 beat specifies the N 2 2nd original frame.
  • the motion data M3 is associated with the scenario.
  • the (H2 + 1) beat specifies the N1 third original frame
  • the H3 beat specifies the N2 third original frame.
  • the original frame is referred to as a frame actually displayed on the monitor D13, which is determined by the display frame determination unit D10 based on the original frame. That's why.
  • the motion data for 100 frames can be changed to the motion for 100 frames in six beats depending on the music. It is possible to cope with various speeds of movement using a single movement, such as moving forward or moving 100 frames in eight beats. Since the storage capacity of the data storage unit D 14 can be reduced, it is economical.
  • the AV synchronization instruction data is data for associating the progress of the music data with the progress of the motion of the CG character, and the original file assigned to each of the motion data. It is generated by dividing the frame into quarter notes (specific notes), one beat at a time.
  • the original frames from Nl 1 to N 21 of the beat ID allocated to the motion data Ml are as shown in FIG. 28 (b).
  • the frames n 2 1 and n 3 for indicating the progress position of the frame displayed on the monitor D 13 correspond to the second, third, fourth,. 1, n 4 1, ...
  • the frames n 21, n 31, and n 41 have the motion data storage unit D. Some are not stored in 14. However, the frames that are not stored are stored in the motion data storage unit D by the well-known data interpolation method such as spline interpolation in the reproduction processing of the CG character in the subsequent display frame determination unit D10. Remember in 14 There is no problem because it is obtained from the frame that was obtained.
  • the display frame determination unit D 10 shown in FIG. 27 determines the next frame to be displayed based on the AV synchronization instruction data and the synchronization message in each frame of the CG character to be displayed.
  • the posture of the CG character is calculated and determined. More specifically, when the time interval at which the frame buffer D12 outputs an image to the monitor D13, which is an image display device, is ⁇ , the display frame determination unit D10 includes the above-mentioned beat generation unit D10.
  • the frame buffer is determined by the CG character movement specified by the above AV synchronization instruction data, the progress position of the frame of the night, and the time interval ⁇ T. Determine the posture of the CG character to be written to D12.
  • the specific value of the time interval ⁇ is, for example, when the monitor D 13 displays the CG character 30 times per second, ⁇ T is 1/30 second.
  • the display frame determination unit D10 sets the performance position (i-th beat) of the music of the synchronization message input from the beat generation unit D7 to the AV synchronization instruction data.
  • the movement of the CG character written in the frame notes D12 at the time of inputting this synchronization message At the timing (i + 1th beat) when is sent, the progress position F i + 1 of the frame specified by the AV synchronization instruction data is obtained.
  • the display frame determination unit D10 sets the time interval from the i-th beat to the (i + 1) -th beat indicated by the tempo time Temp (i) of the song of the synchronous message input this time. Then, the CG character to be displayed and made to progress at the above-mentioned time interval ⁇ seconds is calculated using the following equation (1).
  • j is the frame written to the frame buffer D12 between the time when the display frame determination unit D10 inputs one synchronous message and the time when the next synchronous message is input. This is a count value that counts the number of frames.
  • the value of j is set to 0 when a synchronization message is input, and then changes one by one (Temp (i) / AT) as the CG character frame progresses.
  • the values of i and Temp (i) are maintained at the same value when the next synchronization message at the (i + 1) th beat is input, and the synchronization value at the (i + 1) th beat is input.
  • a message is entered, it is updated to the value of the synchronization message o
  • the display frame determination unit D10 calculates a CG character having the progress position flaine (j) of the frame, which is obtained by applying spline interpolation to the original frame of the motion data, as a variable.
  • Motion data function P F The position of the CG character in each frame to be displayed is calculated and determined using the (frame progress position).
  • the display frame determining unit D10 calculates the vertex coordinate data of each polygon of the CG character from the determined attitude of the CG character. Further, the display frame determination unit D10 reads out the CG character shape data designated by the scenario data from the CG character shape data storage unit D15, and stores the CG character shape data The image data of the CG character is created using the calculated vertex coordinate data. Thereafter, the display frame determining unit D10 outputs the created image data to the CG rendering unit D11 together with the scenario data. The display frame determination unit D10 records the progress position ⁇ of the frame sent to the CG rendering unit D11 in order to determine whether the scenario data has been completed.o
  • the CG rendering unit D11 renders a CG character for each frame based on camera viewpoint information and light source information included in the scenario data. That is, based on the image data from the display frame determination unit D10, the CG rendering unit D11 performs the shooting conditions of the specified camera and the irradiation conditions of the specified light source such as spotlight and sunlight. Creates image data of the CG character illuminated with.
  • the CG rendering unit D11 outputs the rendered CG color image data to the frame buffer D12 for writing. Then, the frame buffer D12 outputs the image data of the CG character to the monitor D13, and the monitor D13 displays the CG character.
  • the posture calculation by the display frame determination unit D10 performed for each frame, and the CG rendering unit D1 The relationship with the rendering processing in 1 will be described.
  • FIG. 29 is a timing chart showing a temporal relationship between the music data reproduction, the CG character posture calculation, and the rendering processing in the AV synchronous reproduction device shown in FIG. 27.
  • the arrow “T” indicates the passage of time
  • the vertical lines "A", “B”, and “C” indicate the progress of the music performance in the music data and the display frame determination unit D10.
  • 3 shows the progress of the posture calculation of the CG character and the progress of the rendering process in the CG rendering unit D11.
  • this synchronous message includes the (i) beat, which is the current playing position of the music, and the tempo time Temp (i) of the music.
  • the display frame determining unit D10 calculates the frame advance position flame (j) of the CG character to be advanced every ⁇ seconds using the synchronous message by using the above equation (1). Then, the display frame determination unit D10 determines the posture of the CG character by using a function P (the progress position of the frame) of the movement data, and obtains the vertex coordinate data of each polygon constituting the CG character. Is calculated. In the figure, the time required for this posture calculation (including the calculation time of the vertex coordinate data) is represented by (i) the posture calculation on the beat, (i) + (AT / Temp (i)) the posture calculation on the beat, ⁇ '. After that, the display frame determining unit D 10 calculates the calculated vertex coordinate data. —Create image data instantly based on the evening and the CG character shape designated for the scenario.
  • the created image data is output from the display frame determination unit D10 to the CG rendering unit D11 each time, and the rendering process of the CG character is started.
  • FIG. Fig. 30 shows a flowchart of the music performance playback process.
  • the music data storage unit D1 and the scenario data storage unit D8 store the music data via a recording medium or a communication line.
  • One night and scenario de night are acquired (step S 1).
  • the AV synchronization instruction data generation unit D9 generates an AV synchronization instruction data based on the scenario data from the scenario data storage unit D8 (step S2).
  • Fig. 31 shows the procedure for creating the AV synchronization instruction data in the AV synchronization instruction data generation unit D9.
  • the AV synchronization instruction data generation unit D 9 inputs the scenario data from the scenario data storage unit D 8 (step S 13)
  • the AV synchronization instruction data generation unit D 9 outputs the scenario data.
  • the AV synchronization instruction data is generated ( Step S14).
  • step S3 when the music data storage unit D1 inputs a performance start command, the music data storage unit D1 sequentially stores the stored music data to the output waveform generation unit D2. Output.
  • the output waveform generator D2 performs digital performance based on the music data.
  • a waveform of the played sound is generated (step S4), and is sequentially output to a buffer for sound data D3.
  • the sound buffer D3 temporarily stores a certain amount of waveform data (step S5). After that, the waveform data is output from the sound data buffer D3 to the D / A converter D4.
  • the D / A converter D4 converts the input waveform data into an analog sound signal (step S6). Then, the D / A converter D4 outputs the sound signal to the amplifier D5, and the amplifier D5 amplifies the sound signal (step S7). Subsequently, the sound signal from the amplifier D5 is generated as a performance by the speaker D6 (step S8).
  • the sound buffer D3 transmits the timing to the beat generator D7 every time the waveform data is output to the D / A converter D4 (step S9).
  • the beat generation unit D7 every time a song of one quarter note progresses, plays the music position (i beat
  • the synchronization message consisting of the eye and the tempo time Temp (i) is generated and output to the display frame determination unit D10 (step S10).
  • the beat generating section D7 determines whether or not the music is at the end (step S11). If it is not the end of the music, the process returns to the process shown in (Step S4) again. If it is the end of the music, the performance ends (step S12).
  • Figure 32 shows the playback process of the CG character.
  • the display frame deciding unit D10 inputs a synchronization message from the beat generating unit D7 (step S15)
  • the display frame deciding unit D10 sets the value of j to 0 (step S16). Note that j is written to the frame buffer D12 between the time when the display frame determination unit D10 inputs one synchronization message and the time when the next synchronization message is input, as described above. The number of frames to be counted.
  • the display frame determination unit D10 compares the music playing position of the synchronization message input from the beat generation unit D7 with the AV synchronization instruction data to determine the current time (i.
  • the position of the CG character's motion data, fi and F i +1, at the time of inputting the synchronization message (the beat) and the next synchronous message (i + 1) are obtained.
  • the display frame determination unit D10 calculates the time length from the i-th beat to the (i + 1) -th beat indicated by the tempo time Temp (i) of the song of the synchronous message input this time.
  • the progress position flame (j) of the frame of the CG character to be displayed and progressed at the above-mentioned time interval ⁇ T seconds is calculated by using the above-mentioned formula (1) (step S17).
  • the display frame determining unit D 10 uses the function P (frame progress position) of the motion data of the CG character with the frame progress position flame (j) as a variable to display each frame to be displayed.
  • the posture of the CG character is calculated at step (step S18).
  • the display frame determination unit D10 determines the image data at the frame progress position flame (j). An image is generated and output to the CG rendering unit D11 (step S19).
  • the CG rendering unit D11 renders the input image data based on the camera viewpoint information and the light source information included in the scenario data (step S20).
  • the CG rendering unit D 11 writes the rendered image data into the frame buffer D 12 (step S 21). Then, the monitor D 13 (FIG. 27) The image data from the frame buffer D12 is displayed (step S22).
  • the display frame determining unit D10 When performing the process shown in (Step S19), the display frame determining unit D10 records the progress position fi of the frame output to the CG rendering unit D11 (Step S23). The display frame determination unit D10 determines whether the display of the scenario data has been completed up to the end based on the recorded traveling position fi (step S24).
  • the display frame determination unit D10 increases the value of j by one (step S25), and returns to the processing shown in step S17.
  • step S26 the drawing of the CG character is ended.
  • FIGS. 33 and 34 show (Embodiment 14).
  • the tempo change information for changing the tempo time of the synchronous message output from the beat generation unit by inputting a tempo change instruction of the music in FIG. 27 showing (Embodiment 13) is shown.
  • An input section D 18 has been added.
  • the other components are the same as those in (Embodiment 13).
  • the tempo change information input section D 18 is a beat generation section D Connected to 7.
  • the tempo change information input section D18 when a tempo change instruction of the music is input from the user or an external device during the reproduction of the music (i-th beat), as shown in the following equation (2), the new tempo time Temp (i) is extended by multiplying the original tempo time Temp (i) included in the music data stored in the overnight storage section D1 by the proportionality constant Cs.
  • the new tempo time Temp (i) is output from the tempo change information input section D18 to the beat generation section D7, and is used as the tempo time of the synchronous message output from the beat generation section D7.
  • the tempo change information input section D18 simultaneously obtains the music data to be played back by the music data storage section D1, and simultaneously obtains the original tempo time Temp (i) via a recording medium or a communication line. ) To get.
  • FIG. 34 shows a process of playing back a music performance in the AV synchronous playback device shown in FIG.
  • the music data storage unit Dl and the scenario data storage unit D8 store the music data and the scenario data using a recording medium or a communication line. Get each O
  • the AV synchronization instruction data generation unit D9 generates AV synchronization instruction data based on the scenario data from the scenario data storage unit D8.
  • the tempo change information input section D18 checks whether a tempo change instruction has been input. When a tempo change instruction is input, the tempo change information input section D18 changes the tempo time of the synchronization message output from the beat generation section D7 based on the input tempo change instruction (step S8). 3 4).
  • the music data storage unit D1 sequentially outputs the stored music data to the output waveform generation unit D2.
  • the output waveform generator D2 generates a digital waveform of the performance sound in digital form based on the music data (step S35), and sequentially outputs it to the sound data buffer D3.
  • the sound buffer D3 temporarily stores a fixed amount of waveform data overnight (step S36). After that, the waveform data is output from the sound data buffer D3 to the D / A converter D4.
  • the D / A converter D4 converts the input waveform data into an analog sound signal (step S37). Then, the D / A converter D4 outputs the sound signal to the amplifier D5, and the amplifier D5 amplifies the sound signal (step S38). Subsequently, the sound signal from the amplifier D5 is generated as a performance by the speaker D6 (step S39).
  • the sound buffer D3 outputs the waveform data to the D / A converter D4, it transmits the timing to the beat generator D7 (step S40). Then, based on the tempo time included in the music data, the beat generation unit D7 performs the music for one quarter note, and the music performance position (i-th beat) at that time Then, a synchronous message including the tempo time Temp (i) is generated and output to the display frame determining unit D10 (step S41).
  • the beat generating section D7 determines whether or not the music is at the end (step S42). If it is not the end of the music, the process returns to the process shown in (Step S34) again. If it is the end of the music, the performance ends (step S43).
  • the display frame determining unit generates the image data of the moving image synchronized with the music data by using the frame interpolation method. This makes it possible to automatically match the playback process of the moving image with the playback process of the music performance, and always synchronize the playback processes.
  • FIGS. 35 to 37 show the AV synchronous reproducing apparatus according to the (Embodiment 15).
  • this embodiment instead of the reproduction of the CG character shown in FIG. 27 showing (Embodiment 13), a series of moving image data whose frame length is not constant is reproduced in synchronization with the music performance. Configuration.
  • the other parts are the same as those in (Embodiment 13), and the duplicate description thereof will be omitted.
  • the above-mentioned moving image data include moving image data of a non-frame-independent compression method in the Moving Picture Experts Group (MPEG) standard and the like, and moving image data of which frame is not fixed length.
  • MPEG Moving Picture Experts Group
  • FIG. 35 as a device for performing video playback processing, it is connected to the video scenario data storage unit D8 'for storing video scenario data and the video scenario data storage unit D8,
  • the AV synchronization instruction data generating section D 9 ′ which generates the AV synchronization instruction data based on the data, and the display frame connected to the beat generating section D 7 and the AV synchronization instruction data generating section D 9 ′ are determined.
  • a section D 10 ′ is provided.
  • a moving image data storage unit D 14 ′ for storing moving image data is connected to the display frame determining unit D 10 ′.
  • the display frame determining unit D 10 ′ determines an image data synchronized with the music data overnight for each frame to be displayed based on the video data overnight, and generates a frame knowledge D 1. Output to 2.
  • the moving image scenario data storage unit D 8 ′ and the moving image data storage unit D 14 ′ are configured by a rewritable recording medium, for example, a RAM, and are configured to receive a CD-R0M, DVD, The moving image scenario data and the moving image data are input and stored on a similar recording medium or communication line.
  • a rewritable recording medium for example, a RAM
  • FIG. 36 (a) is an explanatory diagram showing the number of beats of music and the relationship between video data and video scenario data in the AV synchronous playback device shown in FIG. 35
  • FIG. 36 (b) is a diagram showing FIG. 2 shows the relationship between the number of beats of music in the AV synchronized playback device, the moving image data, the moving image scenario data, and the AV synchronization instruction data.
  • FIG. 36 (a) and (b) the horizontal axis indicates the number of beats of a specific note from the start of music performance.
  • Figure 36 (b) is the same as Figure 36 (a). The part from the first beat to the first beat is enlarged.
  • the video scenario data is stored in the music data storage unit D1 at the number of beats of the music data stored in the music data storage unit D1 and the video data storage unit D1 4
  • the original frame of the video data stored in 5 is associated with it.
  • the first beat to the first beat of the song are associated with the moving image data B1 by the moving image scenario.
  • the first beat specifies the Nl 1st original frame
  • the HI beat specifies the N2 1st original frame.
  • the movie scenario data is associated with the movie data B 2.
  • the (H1 + 1) beat specifies the N1 2nd original frame
  • the H2 beat specifies the N2 2nd original frame
  • the moving picture data B3 is associated with the moving picture scenario data.
  • the (H 2 + 1) beat specifies the N 1 3rd original frame
  • the H 3 beat specifies the N 2 3rd original frame.
  • the original frame is referred to as a frame actually displayed on the monitor D13, which is determined by the display frame determination unit D10, based on the original frame. Because it was a frame.
  • the moving image data for 100 frames can be converted to the 100 frames for 6 beats for some music.
  • the AV synchronization instruction data is composed of the music data and the video data based on one quarter note (specific note) in each video data divided by the video scenario data. It is data that correlates with the progress of the evening, and is generated by dividing the original frame assigned to each video data into equal quarter beats (specific notes). .
  • the monitor D 13 shows frames n 2 1, n 3 1, n 4 to indicate the progress position of the frame displayed on the monitor.
  • the frames n 2 1, n 3 1, and n 4 1 have the moving image data storage unit D 1. 4, Some are not memorized in. However, the frames that are not stored are stored in the moving image data by a well-known de-interpolation method such as spline interpolation in the reproduction processing of the moving image in the display frame determining unit D 10, at the subsequent stage. There is no problem because it is obtained from the frame stored in Part D 14 '.
  • the video data—evening B2 is also divided into frames n22, n32, n42, ... to indicate the progress position of the frame corresponding to each beat of the music data. Have been.
  • the display frame determination unit D10 compares the performance position (the i-th beat) of the music of the synchronization message input from the beat generation unit D7 with the AV synchronization instruction data, and generates the synchronization message. Is input to the frame buffer D12 at the point in time when the video is sent. The AV is sent to the frame advance position fi and the timing (i + 1st beat) at which the next synchronization message is sent. Obtain the traveling position F i +1 of the frame specified by the synchronization instruction data.
  • the display frame determination unit D 10 ′ determines whether the time interval from the i-th beat to the (i + 1) -th beat indicated by the tempo time Temp (i) of the music of the synchronous message input this time is satisfied.
  • the moving position flame (j,) of the frame of the moving image data to be displayed and made to progress at the above-mentioned time interval ⁇ seconds is calculated by using the following equation (3).
  • j ′ is a frame buffer D from the time when the display frame determining section D 10 inputs one synchronous message to the time when the next synchronous message is input. This is a count value obtained by counting the number of frames written to 12. In other words, the value of j 'is set to 0 when a synchronous message is input, and then changes to 1 (Temp (i) / AT) one by one as the frame of video data progresses . In equation (1), the values of i and Temp (i) are kept the same in the next synchronous message input at the (i + 1) th beat, and the values of (i + 1) th beat When you enter a synchronization message, it is updated to the value of that synchronization message. O
  • the display frame determining unit D 10 uses a function D () of the moving image data obtained by applying spline interpolation to the original frame of the moving image data and using the moving position flame (j ′) of the frame as a variable. Calculate and determine the image data of each frame to be displayed using (frame progress position). After that, the display frame determination unit D10, outputs the created image data to the frame buffer D12 and writes it. Then, the frame buffer D12 outputs the image data to the monitor D13, and the monitor D13 displays a moving image.
  • the display frame determination unit D 10 ′ records the progress position fi of the frame sent to the frame buffer D 12 in order to determine whether or not the moving image scenario has been completed.
  • FIG. 37 shows a moving image playback process in the AV synchronous playback device shown in FIG.
  • step S 45 when the display frame determination unit D 10 ′ inputs a synchronization message from the beat generation unit D 7 (step S 45), the display frame determination unit D 10, sets the value of j to 0. Yes (step S46).
  • j is the frame number from when the display frame determining unit D 10 inputs one synchronous message to when the next synchronous message is input. This is a count value obtained by counting the number of frames written to the buffer D12.
  • the display frame determination unit D 10 ′ compares the music playing position of the synchronization message input from the beat generation unit D 7 with the AV synchronization instruction data to determine the current (i.
  • step S47 the moving position of the frame of the moving image data to be displayed and progressed at the above-mentioned time interval ⁇ flame seconds is calculated using the above formula (3) (step S47).
  • the display frame determination unit D 10 for each frame to be displayed, uses a function D (moving position of the frame) of the moving image data with the moving position of the frame flame (j ′) as a variable.
  • the image data of the image is calculated (step S48).
  • the display frame determination unit D 10 ′ outputs the calculated image data to the frame buffer D 12 (step S 49), and the frame buffer D 12 Then, write the image data to be displayed (step S50). Then, the monitor D13 displays the image data from the frame buffer D12 (step S51).
  • the display frame determining unit D10 When performing the processing shown in (Step S49), the display frame determining unit D10, records the progress position fi of the frame output to the frame buffer D12 (Step S49). Step S52). The display frame determination unit D10 'determines whether or not the display has been completed until the end of the moving image scenario based on the recorded progress position fi (step S53). When the display is not completed, the display frame determination unit D 10 'increases the value of j by 1 (step S54), and returns to the process shown in step S47. On the other hand, if the display is completed, the reproduction of the moving image is ended (step S55).
  • the tempo change instruction of the music is input, and the tempo change information input for changing the tempo information of the synchronous message output from the beat generating section is input. Section is provided.
  • FIGS. 38 and 39 show (Embodiment 16) of the present invention.
  • a tempo change information input section D18 for inputting a tempo change instruction for a music piece and changing the tempo time of a synchronous message output from the beat generation section D7.
  • the other parts are the same as those shown in FIG. 35 showing (Embodiment 15), and thus redundant description thereof will be omitted.
  • a tempo change information input section D 18 is connected to a beat generation section D 7.
  • the tempo change information input section D18 when a tempo change instruction of the music is input from the user or an external device during the reproduction of the music (i-th beat), as shown in the following equation (4),
  • the new tempo time Temp (i) is obtained by multiplying the original tempo time Temp (i) included in the music data stored in the data storage section D1 by the proportional constant Cs'.
  • New tempo time Temp (i) is
  • the new tempo time Temp (i) is output from the tempo change information input section D18 to the beat generating section D7, and is used as the tempo time of the synchronous message output from the beat generating section D7.
  • the tempo change information input section D 18 obtains the original tempo time Temp (i) at the same time via the recording medium or the communication line when the music data played back by the music data storage section D 1 is obtained. I do.
  • FIG. 39 shows the process of playing back a music performance in the AV synchronous playback device shown in FIG.
  • Step S 6 1 As shown in FIG. 3 9, (Step S 6 1) before the start of the music performance, song de Isseki storage unit D 1 and moving scenario data storage section D 8 5 is the recording medium or a communication line, music Acquisition of a video and a video of the video.
  • the AV synchronization instruction data generating unit D9 generates AV synchronization instruction data based on the moving image scenario data from the moving image scenario data storing unit D8.
  • the tempo change information input section D18 receives a tempo change instruction. Find out if you have been forced.
  • the tempo change information input section D 18 changes the tempo time of the synchronous message output from the beat generating section 7 based on the input tempo change instruction (step S64). .
  • the music data storage unit D1 sequentially outputs the stored music data to the output waveform generation unit D2.
  • the output waveform generation unit D2 generates a digital waveform of the performance sound in digital form based on the music data (step S2).
  • the sound buffer D3 temporarily stores a fixed amount of waveform data (step S6'6). Thereafter, the waveform data is output from the sound data buffer D 3 to the D / A converter 4.
  • the 0/8 converter 04 converts the input waveform data into an analog sound signal (step S67). Then, the D / A converter D 4 outputs the sound signal to the amplifier D 5, and amplifies the sound signal with the amplifier D 5 (step S 6 8). Subsequently, the amplifier D 5 is output from the speaker D 6. The sound signal from this is pronounced as a performance (step S69).
  • the buffer D3 informs the beat generator D7 of the timing (step S7).
  • the beat generation unit D7 executes the music for one quarter note, and the musical position at that time (the i-th beat) Then, a synchronous message including the tempo time Temp (i) is generated and output to the display frame determining section D10, (Step S71).
  • the AV synchronized playback device checks whether the end of the music (Step S72). If it is not the end of the music, the process returns to the process shown in (Step S64) again. If the music ends, the performance ends (step S73).
  • the AV synchronized playback apparatus of this embodiment is provided with a tempo change information input section D18 for inputting a music tempo change instruction and changing the tempo time of a synchronous message output from the beat generation section D7. ing.
  • a tempo change information input section D18 for inputting a music tempo change instruction and changing the tempo time of a synchronous message output from the beat generation section D7.
  • the reproduction processing of the AV synchronous reproducing apparatus of each of the above embodiments can be programmed by a computer
  • the AV synchronous method of the present invention is provided on a recording medium executable by a computer. It is also possible to do so.
  • the recording medium mentioned here is a floppy disk, a CD-ROM, a DVD (digital video disk), a magneto-optical disk, a removable hard disk, or the like.

Abstract

A graphic display by which the amount of transfer of CG data distributed by a server through a network is reduced and the motion of a three-dimensional character displayed on a terminal is smoothed; and a synchronous AV reproducing device by which the music whose tempo is changed halfway and the image are synchronized with each other and reproduced. In order to graphically display a three-dimensional character on the terminal by the command of the server, a plurality of motion patterns are prepared on the terminal side, scenario data are transmitted from the server to the terminal, and the terminal switches the scene in accordance with the scenario data and performs graphic display. The scene is switched at the timing of the home position common to the motion pattern being displayed and the motion pattern to be displayed next or at the timing of a position approximately common to the motion pattern being displayed and the motion pattern to be displayed next so as to perform the graphic display.

Description

明 細 書 グラフ ィ ック表示装置と同期再生方法および A V同期再生装置 技術分野  Description Graphic display device, synchronous playback method, and AV synchronous playback device
本発明はコンピュータグラフィ ックス (以下、 C G ) を表示する 装置に関するものである。 詳しく は、 サーバーと端末間で通信して 端末側でオーディオデ一夕 (Audio data) とビデオデータ (Video d ata) とを同期して再生するグラフィ ック表示装置や、 独立した装置 における A V同期再生装置に関するものである。 背景技術  The present invention relates to an apparatus for displaying computer graphics (hereinafter, referred to as CG). For details, a graphic display device that communicates between the server and the terminal to play back audio data (Video data) and video data (Video data) on the terminal side in synchronization, and AV synchronization in an independent device It relates to a playback device. Background art
C Gは、 映画やテレビゲームなどの分野で盛んに用いられている。 たとえば、 3次元 C Gでは、 従来よ り多くの場合、 立体キャラク 夕は骨と関節とからなる骨格モデルを備えている。 図 4 0に人体の 場合の骨格モデルの一例を示す。  CG is widely used in fields such as movies and video games. For example, in 3D CG, in many cases, a three-dimensional character has a skeletal model composed of bones and joints. Figure 40 shows an example of a skeletal model for a human body.
その骨格モデルの周辺にポリ ゴンで構成された腕、 足といった立 体キャラクタの各部位を肉付けし、 そのポリ ゴンの表面にテキスチ ャを貼り付けることで、 立体キャラクタを表示させているのは周知 の通りである。 ここでは、 ポリゴンで構成された各部位とテキスチ ャとを合わせて、 形状データ と呼ぶ。  It is well known that a solid character is displayed by fleshing out each part of a standing character, such as a polygonal arm or leg, around the skeleton model and pasting the texture on the surface of the polygon. It is as follows. Here, a combination of each part constituted by polygons and the texture is referred to as shape data.
そして、 立体キャラクタの動きは、 その骨格モデルの関節を動か す指示 (すなわちモーショ ン) をマイ クロコンビュ一夕に与えるこ とによ り実現している。  Then, the movement of the three-dimensional character is realized by giving an instruction (ie, motion) for moving the joints of the skeletal model to the micro-computer overnight.
近年、 イ ン夕一ネッ トの普及によ りネッ トワークを介して C G動 画を配信することも一般的になってきた。 イ ン夕一ネッ トを用いたIn recent years, with the spread of the Internet, the use of CG Delivering images has also become commonplace. Using the Internet
C G動画の表現言語として、 「V i r t u a l R e a l i t y Mo d e l i n g L a n gu a g e」 (以下、 VRML) が普及 している。 As an expression language for CG moving images, “VirtuaralRealityModedelinngLanguguage” (hereinafter VRML) has become widespread.
C G動画を表示するためには、 3次元の立体キャラクタを表示す るための形状デ一夕と、 それを動画表示させるためのモーションが 必要である。 形状デ一夕とモーションを、 V R M Lではイン夕一ネ ッ トを利用してサーバーから端末へ転送する。  In order to display a CG moving image, it is necessary to have a shape display for displaying a three-dimensional solid character and a motion for displaying the moving image. The shape data and the motion are transferred from the server to the terminal by using the in-net network in VRML.
端末は、 受信したデータを VRMLブラウザを用いて C G動画を 表示する。 しかし、 このような方式では、 形状データ及び動きデー 夕をサーバーから端末へ転送するため、 データ転送量が増大し、 デ 一夕の転送時間が長くかかるという問題がある。  The terminal uses the VRML browser to display the received data as a CG video. However, in such a method, since the shape data and the motion data are transferred from the server to the terminal, the data transfer amount increases, and there is a problem that the data transfer time is long.
C Gは、 映画やテレビゲームなどの分野で盛んに用いられいる。 最近では、 C Gの映像だけではなく、 それに合った音楽を同時に再 生した C G作品が数多くでてきている。 このような C Gと音とを関 連づける技術としては、 特開平 8 — 2 1 2 3 8 8号公報の Ξ次元画 像処理装置がある。  CG is widely used in fields such as movies and video games. Recently, there have been many CG works that play not only CG images but also music that matches them. As a technique for associating such a CG with a sound, there is a two-dimensional image processing apparatus disclosed in Japanese Patent Application Laid-Open No. Hei 8-212388.
これは、 開始時刻と終了時刻とが規定された C Gデータと音デ一 夕とを関連づけて再生する画像処理装置である。 C Gのデ一夕の開 始時刻、 終了時刻を各々 C s , C eとする。 音のデータの開始時刻 終了時刻を各々 A s, A eとする。 音の再生時間 (A e— A s ) と This is an image processing apparatus that reproduces CG data with a defined start time and end time in association with sound data. The start time and end time of the night of C G are C s and C e, respectively. Let the start time and end time of the sound data be As and Ae respectively. Sound playback time (A e— A s) and
C Gの再生時間 (C e— C s ) とを比較し、 一致しない場合に音の 再生に使うテンポを次のように算出し、 それに基づいて音を再生す る。 Compare the playback time of C G (C e-C s), and if they do not match, calculate the tempo used for sound playback as follows, and play back the sound based on that.
テンポ = 本来のテンポ x (A e— A s ) / ( C e— C s ) このように、 音のテンポを C Gの再生時間との相対比によ り調整 することによ り、 異なった再生時間の C Gと音とを同期させて再生 することを実現する。 Tempo = Original tempo x (Ae—As) / (Ce—Cs) In this way, by adjusting the tempo of the sound based on the relative ratio to the playback time of the CG, it is possible to reproduce the CG and the sound of different playback times in synchronization.
しかしながら、 上記従来技術では、 一定テンポの音データは再生 できるが、 曲の途中でテンポの変わる楽曲デ一夕に同期させること はできない。 さらに、 カラオケのピッチコン ト ロール操作などによ つて、 曲のテンポを演奏途中で突発的に変更された場合は、 同期が 崩れてしまう可能性がある。 さらに、 早送りや巻戻しなどの特殊再 生が行われた場合、 同期が崩れてしまう可能性がある。 発明の開示  However, in the above-mentioned conventional technology, sound data with a fixed tempo can be reproduced, but cannot be synchronized with a music data whose tempo changes during the music. Furthermore, if the tempo of the song suddenly changes during the performance due to karaoke pitch control operations, etc., the synchronization may be lost. Furthermore, if special playback such as fast forward or rewind is performed, synchronization may be lost. Disclosure of the invention
本発明は、 かかる課題に鑑みて、 サーバーからネッ トワークを通 して配信された C Gデータのデータ転送量を少な く し、 かつ、 端末 に表示される立体キャラクタの動き滑らかにするグラフィ ック表示 装置を提供することを目的とする。  The present invention has been made in view of the above-described problems, and provides a graphic display for reducing the data transfer amount of CG data distributed from a server via a network and for smoothing the movement of a three-dimensional character displayed on a terminal. It is intended to provide a device.
また本発明は、 テンポが曲の途中で変化する曲と映像とを同期さ せて再生でき、 曲のテンポが突発的に変更された場合や特殊再生中 でも曲と映像とを同期させて再生できる A V同期再生装置を提供す ることを目的とする。  In addition, the present invention can synchronize and play a song and a video whose tempo changes in the middle of the song, and synchronize and play the song and the video even when the tempo of the song suddenly changes or during special playback. The purpose of the present invention is to provide an AV synchronized playback device that can perform the playback.
本発明の請求項 1記載のグラフィ ック表示装置は、 サーバーには- 端末へモーショ ンの組合わせ順序を記載したシナリオデータをネッ トワークを通して送信するデ一夕送信手段を備え、 端末には、 前記 データ送信手段によ り送信されたシナリオデータを受信するデ一夕 受信手段と、 立体キャラクタを表示するために必要な形状デ一夕べ ースと、 立体キャラクタを動かすために必要なモーショ ンデータべ —スと、 前記デ一夕受信手段によ り受信したシナリオデ一夕に記載 された順序通りにモーショ ンを切替えて前記立体キャラクタを表示 するモーション切替え描画手段と、 前記切替え描画手段がモーショ ンを切替える際にモーショ ンが滑らかに表示できるように、 前後の モーションを補正するモーション自動補正手段とを備えたことを特 徴とし、 各モーションがホームポジショ ンを保持していなくても、 モーショ ン間を自然につないで C G動画を表示することができる。 本発明の請求項 2記載のグラフィ ック表示装置は、 請求項 1 にお いて、 サーバ一には、 デ一夕送信手段が送信するシナリオデ一夕に 記載された各モーショ ン間のつなぎ部分を補正するモーショ ン補正 デ一夕をネッ トワークを通じて送信する補正データ送信手段を備え、 端末のモーショ ン自動補正手段の代わりに、 前記補正デ一夕送信手 段によ り送信された補正デ一夕を受信する補正デ一夕受信手段と、 切替え描画手段がモーショ ンを切替える際にモーショ ンが滑らかに 表示できるように前記補正データ受信手段によ り受信したモ一ショ ン補正データに基づき前後のモーショ ンを補正するモーショ ン補正 手段を備えたことを特徴と し、 予め計算した補正デ一夕をサーバー から送信するため、 端末の計算機資源を節約することができる。 本発明の請求項 3記載のグラフイ ツク表示装置は、 請求項 1 にお いて、 サーバ一には、 モーショ ンデ一夕ベースと、 前記モーショ ン デ—夕べ—スからデ一夕送信手段が送信するシナリオデ一夕に記載 された各モーショ ン間のつなぎ部分を補正するモーショ ン補正デ一 夕を算出し、 補正データ送信手段を用いてネッ トワークを通じて送 信する補正シナリオ算定手段を備えたことを特徴と し、 補正データ の計算を リアルタイムで行うので、 サーバーのメモ リ資源を節約す ることができる。 The graphic display device according to claim 1 of the present invention is characterized in that the server comprises:-a data transmission means for transmitting scenario data describing the combination of motions to the terminal via the network; A data receiving means for receiving the scenario data transmitted by the data transmitting means; a shape data base required for displaying the three-dimensional character; and a motion data necessary for moving the three-dimensional character. A motion switching drawing means for displaying the three-dimensional character by switching motions in the order described in the scenario data received by the data receiving means; and the switching drawing means for displaying the motion. It is equipped with automatic motion compensation means for compensating the previous and next motions so that the motions can be displayed smoothly when switching. Even if each motion does not hold the home position, Can be connected naturally to display CG videos. In the graphic display device according to a second aspect of the present invention, in the first aspect, the server includes a connection portion between the motions described in the scenario data transmitted by the data transmission device. A correction data transmitting unit for transmitting the motion correction data to be corrected through a network, wherein the correction data transmitted by the correction data transmitting means is used instead of the motion automatic correction unit of the terminal. Based on the motion correction data received by the correction data receiving means so that the motion can be smoothly displayed when the switching drawing means switches the motion. It features motion compensation means for compensating motion, and saves computer resources of the terminal because the server sends a pre-calculated correction data from the server. It can be. According to a third aspect of the present invention, in the graphic display device according to the first aspect, the server is configured to transmit a motion data base and a data transmission unit from the motion data base. The correction scenario calculating means for calculating the motion correction data for correcting the connection between the motions described in the scenario data and the correction data calculating means for transmitting the correction data through the network using the correction data transmitting means. The feature is that the calculation of the correction data is performed in real time, thus saving server memory resources. Can be
本発明の請求項 4記載のグラフィ ック表示方法は、 サーバ一から 端末へ指示して立体キャラクタをグラフィ ック表示するに際し、 端 末には立体キャラクタの動きのパターンを記述した複数の動きパ夕 ーンを用意し、 サーバーが端末へ前記動きパターンの時系列組み合 わせ順序を記載したシナリォデ一夕を送信し、 サーバ一からのシナ リオデ一夕を検出してこのシナリオデータに基づいて動作してグラ フィ ック表示する端末が、 実行中と次に実行する動きパターンとに 共通するホームポジショ ンのタイ ミ ング、 または実行中と次に実行 する前記パターンとにほぼ共通するポジショ ンの夕イ ミ ングで実行 する動きパターンを切り換えてシーンの切り換えを実行することを 特徴とする。  The graphic display method according to claim 4 of the present invention is characterized in that, when a three-dimensional character is graphically displayed by instructing a terminal from a server to a terminal, a plurality of motion patterns in which a pattern of the three-dimensional character motion is described at a terminal. An evening is prepared, the server sends a scenario to the terminal describing the time series combination order of the motion pattern, detects the scenario from the server, and operates based on this scenario data. The terminal that displays the graphic in the same manner as the home position timing common to the motion pattern to be executed and the next execution pattern, or the position of the home position common to the motion pattern to be executed and the next execution pattern It is characterized in that scene switching is performed by switching the motion pattern to be executed in the evening.
この構成によると、 サーバ一から端末へ少ないデータ伝送量で、 しかもシーンとシーンの切り換えが滑らかで自然なグラフィ ック表 示を実施できる。  According to this configuration, it is possible to perform a natural graphic display with a small amount of data transmission from the server to the terminal and in which the switching between scenes is smooth.
本発明の請求項 5記載のグラフィ ック表示装置は、 複数パターン の動きを記述したモーショ ン群と、 モーショ ン群の何れのパターン に基づいて立体キャラクタを動作させるかをシーンに対応させて記 述したシナリオデータベースと、 シナ リオデ一夕ベースとモ一ショ ン群に基づいて表示出力する立体キャラクタの動きを制御するキヤ ラク夕姿勢制御手段と  The graphic display device according to claim 5 of the present invention describes a motion group describing a plurality of patterns of motion, and a pattern in which the three-dimensional character is operated based on which of the motion groups corresponds to the scene. A scenario database described above, and a character attitude control means for controlling the movement of the three-dimensional character to be displayed and output based on the scenario data base and the motion group.
を設け、 かつキャラクタ姿勢制御手段を、 実行中と次に実行する動 きパターンとに共通するホームポジショ ンの夕ィ ミ ングまたは実行 中と次に実行する前記パターンとにほぼ共通するポジショ ンのタイ ミ ングで実行する動きパターンを切り換えてシーンの切り換えを実 行するように構成したことを特徴とする。 The character posture control means is provided with a home position that is common to the movement pattern to be executed and the next pattern to be executed or a position that is substantially common to the pattern to be executed and the next pattern to be executed next. Switching scenes by switching the motion pattern executed at the timing It is characterized in that it is configured to execute.
この構成によると請求項 4に記載のグラフィ ック表示方法を実現 できる。  According to this configuration, the graphic display method described in claim 4 can be realized.
本発明の請求項 6記載のグラフィ ック表示装置は、 ネッ トワーク 上にサーバーと端末を設け、 端末でグラフィ ック表示するグラフィ ック表示装置であって、 前記サーバーには、 3次元キャラクタの形 状を定義したキャラクタデータのデータベースと、 前記キャラクタ の動きを定義したモーショ ンのデータベースと、 前記キャラクタデ —夕および一つ以上の前記モーショ ンの時系列組み合わせを指定し たシナリオデ一夕を設け、 前記の端末には、 前記キャラクタデータ を保管するキャラクタデ一夕ベースと、 前記モーショ ンを保管する モ一ションデ一夕べ一スと、 前記シナリォデ一夕が指定したキヤラ ク夕デ一夕が前記キャラクタデ一夕ベースに存在するかどうかを検 索するデ一夕検索手段と、 前記キャラクタデータベースに存在しな いキャラクタデ一夕の入手を前記サーバーに要求するデ一夕要求手 段を設けたことを特徴とする。  A graphic display device according to claim 6 of the present invention is a graphic display device in which a server and a terminal are provided on a network, and the terminal displays the graphic on the terminal. A database of character data that defines the shape, a database of motion that defines the movement of the character, and a scenario database that specifies a time series combination of the character data and one or more of the motions are provided. The terminal includes a character database for storing the character data, a motion database for storing the motion, and a character database specified by the scenario. A data search means for searching whether or not the character data exists on the character database; Obtaining of Mashimashi such have character de Isseki characterized in that a de Isseki request means to request the server.
この構成によると、 端末のキャラクタデ一夕ベースに存在しない キャラクタデータの入手だけをサーバーに要求して必要なキャラク 夕データを揃えて端末でのキャラクタ動画を生成するので、 端末に 3次元キャラクタ描画のために必要なキャラクタデータがなかった 場合にネッ トワーク転送し、 このときにネッ トワーク転送するのは 端末に不足していたキャラクタデ一夕のみであるので、 短時間の通 信時間で 3次元キャラク夕の表示に必要なすべてのデータが端末に 供給できるようになる。  According to this configuration, the server requests only the server to acquire character data that does not exist on the terminal's character data base, and creates the required character data together with the terminal to create a character movie on the terminal. If there is no character data necessary for the transfer, the data is transferred to the network. At this time, only the character data that was insufficient for the terminal is transferred over the network. All necessary data for displaying characters can be supplied to the terminal.
本発明の請求項 7記載のグラフィ ック表示装置は、 ネッ ト ワーク 上にサーバ一と端末を設け、 端末でグラフィ ック表示するグラフィ ック表示装置であって、 前記サーバ一には、 3次元キャラクタの形 状を定義したキャラクタデ一夕のデータベースと、 前記キャラクタ の動きを定義したモーショ ンのデータベースと、 前記キャラクタデ —夕および一つ以上の前記モーショ ンの時系列組み合わせを指定し たシナリオデータを設け、 前記の端末には、 前記キャラク夕デ一夕 を保管するキャラクタデ一夕ペースと、 前記モーショ ンを保管する モーショ ンデ一夕ベースと、 前記シナリオデータが指定したモ一シ ョ ンが前記モ一ショ ンデータベースに存在するかどうかを検索する デ一夕検索手段と、 前記モーショ ンデータベースに存在しないモー シヨ ンの入手を前記サーバ一に要求するデ一夕要求手段を設けたこ とを特徴とする。 The graphic display device according to claim 7 of the present invention is a A graphic display device, comprising: a server and a terminal provided thereon; and a graphic display at the terminal, wherein the server includes: a database of character data defining the shape of a three-dimensional character; A motion database that defines the movement of the character, and scenario data that specifies the time series combination of the character data and one or more of the motions. The terminal stores the character data Character data storage pace to be stored, motion data storage base for storing the motion, and data for searching whether the motion specified by the scenario data exists in the motion database. Overnight search means, and a data requester for requesting the server to obtain a motion that does not exist in the motion database. And said that you provided.
この構成によると、 端末のモ一ショ ンデ一夕ベースに存在しない モーショ ンデ一夕の入手だけをサーバーに要求して必要なモーショ ンデ一夕を揃えて端末でのキャラクタ動画を生成するので、 端末に 3次元キャラクタ描画のために必要なモーショ ンデータがなかった 場合にネッ トワーク転送し、 このときにネッ トワーク転送するのは、 端末に不足していたモーショ ンデ一夕のみであるので、 短時間の通 信時間で 3次元キャラクタの表示に必要なすべてのデータが端末に 供給できるようになる。  According to this configuration, the server only requests the server to obtain motion data that does not exist on the terminal's motion data base, and creates the required motion video data to generate character animation on the terminal. Therefore, if the terminal does not have the motion data necessary for drawing a 3D character, it is transferred to the network, and at this time, only the motion data that was insufficient for the terminal is transferred to the network. In a short communication time, all data necessary for displaying 3D characters can be supplied to the terminal.
本発明の請求項 8記載の A V同期再生装置は、 楽曲データに基づ き演奏を行う楽曲演奏手段と、 楽曲上の位置を特定した楽曲位置と 演奏テンポの基本となるテンポ情報とそれらを更新した時刻とを対 応づけて一時的に記憶する同期情報テーブルと、 前記楽曲演奏手段 の演奏に基づき前記同期情報テーブルを更新する同期情報更新手段 と、 現在時刻と前記同期情報テーブルの内容とから前記楽曲演奏手 段が現在演奏している楽曲位置を算定する楽曲位置算定手段と、 フ レ一ムデ一夕を一時的に記憶するフレームバッファと、 楽曲デ一夕 と関連づけられた C Gデ一夕から前記楽曲位置算定手段が算定した 楽曲位置に基づき前記楽曲演奏手段の演奏と同期したフ レームデ一 夕を算出し前記フ レームバッ フ ァに出力するフ レーム出力手段と、 前記フ レームバッファに記憶されたフレームデ一夕を動画像として 表示す映像表示手段とを備えたことを特徴とし、 一定のテンポの楽 曲デ一夕に対してしか映像を同期させることができなかった従来技 術に比べ、 曲の途中でテンポが動的に変化する楽曲データを再生す る場合や、 突発的にテンポ情報を変更された場合でも、 映像を同期 させて再生できる。 An AV synchronous reproducing apparatus according to claim 8 of the present invention comprises: a music playing means for performing a performance based on music data; a music position specifying a position on the music; A synchronization information table for temporarily storing the synchronized time and a synchronization information updating means for updating the synchronization information table based on the performance of the music playing means. Music position calculating means for calculating a music position currently being played by the music playing means from the current time and the contents of the synchronization information table; and a frame buffer for temporarily storing a frame. A frame data synchronized with the performance of the music playing means is calculated from the CG data associated with the music data based on the music position calculated by the music position calculating means, and output to the frame buffer. Frame output means; and video display means for displaying the frame data stored in the frame buffer as a moving image, wherein the video is displayed only for music data having a fixed tempo. Compared to the conventional technology that could not synchronize the song, even when playing back music data whose tempo changes dynamically in the middle of the song or when the tempo information is suddenly changed, To synchronize it can play.
本発明の請求項 9記載の A V同期再生装置は、 請求項 8において、 同期情報更新手段を、 楽曲演奏手段が楽曲位置またはテンポ情報の いづれかが変化する毎に同期情報テーブルを更新するよう構成した ことを特徴とし、 同期倩報の更新回数を最小限にして請求項 8 と同 様の効果が得られる。  According to a ninth aspect of the present invention, in the AV synchronous reproducing apparatus according to the eighth aspect, the synchronization information updating means is configured to update the synchronization information table each time the music performance means changes either the music position or the tempo information. With the above feature, the same effect as that of claim 8 can be obtained by minimizing the number of updates of the synchronization information.
本発明の請求項 1 0記載の A V同期再生装置は、 請求項 8におい て、 同期情報更新手段を、 特定の周期で同期情報テーブルを更新す るよう構成したことを特徴とし、 同期情報の更新回数を抑えて請求 項 8 と同様の効果が得られる。  An AV synchronous reproducing apparatus according to claim 10 of the present invention is characterized in that, in claim 8, the synchronous information updating means is configured to update the synchronous information table at a specific cycle, and to update the synchronous information. The same effect as in claim 8 can be obtained by reducing the number of times.
本発明の請求項 1 1記載の A V同期再生装置は、 請求項 8におい て、 C Gデータ量からフ レームデータ出力手段が要する演算時間を 予想する演算時間予想手段を追加し、 フレーム出力手段が、 楽曲位 置算定手段が算定した楽曲位置より前記演算時間予想手段が予想し た時間だけ遅らせた楽曲位置と同期したフ レームデ一夕をフ レーム バッ フ ァに出力するよう構成したことを特徴とし、 請求項 8の効果 に加えて、 フレーム演算による遅延なく楽曲デ一夕と同期させて映 像を再生できる。 The AV synchronous reproducing apparatus according to claim 11 of the present invention is characterized in that, in claim 8, a calculation time estimating means for estimating a calculation time required by the frame data output means from the CG data amount is added, and the frame output means includes: The calculation time estimating means predicts from the music position calculated by the music position calculating means. And outputting the frame data synchronized with the music position delayed by the specified time to the frame buffer. The video can be played back in synchronization.
本発明の請求項 1 2記載の A V同期再生装置は、 請求項 8におい て、 楽曲データから現在の楽曲位置の音が実際に音となって出力さ れるまでの時間を予想する演奏遅れ予想手段を追加し、 同期情報更 新手段が前記演奏遅れ予想時間が予想した時間分だけ遅らせた楽曲 位置とテンポ情報と更新時間とを同期情報テーブルに出力するよう 構成したことを特徴とし、 請求項 8の効果に加えて、 演奏による遅 延なく楽曲デ一夕と同期させて映像を再生できる。  The AV synchronous reproducing apparatus according to claim 12 of the present invention is the AV synchronous reproducing apparatus according to claim 8, wherein the performance delay estimating means for estimating a time from the music data until the sound at the current music position is actually output as sound. 9. The synchronization information updating means is configured to output a music position, tempo information, and update time delayed by the expected time of the performance delay to the synchronization information table. In addition to the effect of, the video can be played back in sync with the music without delay due to the performance.
本発明の請求項 1 3記載の A V同期再生装置は、 請求項 8におい て、 C Gデ一夕量から映像表示手段がフ レームバッ フ ァのデ一夕を 実際に表示できるまでの表示遅れ時間を予想する映像表示遅れ予想 手段を追加し、 フ レーム出力手段が楽曲位置算定手段が算定した楽 曲位置より前記映像表示遅れ予想手段が予想した時間だけ遅らせた 楽曲位置と同期したフ レームデ一夕をフ レームバッ フ ァへ出力する よう構成したことを特徴とし、 請求項 8の効果に加えて、 映像表示 による遅延なく楽曲デ一夕と同期させて映像を再生できる。  In the AV synchronous reproducing apparatus according to claim 13 of the present invention, in claim 8, the display delay time from when the CG data is reproduced to when the video display means can actually display the frame buffer data is set. A means for predicting video display delay to be predicted is added, and the frame output means delays the frame data synchronized with the music position delayed by the time predicted by the video display delay predicting means from the music position calculated by the music position calculating means. It is configured to output to a frame buffer. In addition to the effect of claim 8, it is possible to reproduce the video in synchronization with the music data without delay due to the video display.
本発明の請求項 1 4記載の A V同期再生装置は、 請求項 8におい て、 楽曲演奏手段が特殊再生を始める時に特殊再生開始信号を発生 する特殊再生開始通知手段と、 楽曲演奏手段が特殊再生を終了する 時に特殊再生終了信号を発生する特殊再生終了通知手段と、 特殊再 生中に楽曲位置をリアルタイムに同期情報テ一ブルに出力する特殊 再生同期情報更新手段とを設け、 フ レーム出力手段が、 特殊再生中 は前記特殊再生同期情報更新手段が更新する前記同期情報テーブル に基づきフ レ一ムデ一夕をフ レームバッファに出力するよう構成し たことを特徴とし、 請求項 8の効果に加えて、 特殊再生中は楽曲デ 一夕と映像との同期が崩れる可能性があった従来技術に比べ、 特殊 再生中でも楽曲データと同期させて映像を再生できる。 The AV synchronous reproducing apparatus according to claim 14 of the present invention is the AV synchronous reproducing apparatus according to claim 8, wherein the special performance start notifying means for generating a special reproduction start signal when the music playing means starts special reproduction, and the special music playing means A special reproduction end notifying means for generating a special reproduction end signal when ending the reproduction, and a special reproduction synchronization information updating means for outputting a music position to a synchronization information table in real time during the special reproduction. Is playing a special And outputting the frame data to a frame buffer on the basis of the synchronization information table updated by the trick play synchronization information updating means. During the special playback, the video can be synchronized with the music data during the special playback, compared to the conventional technology where the synchronization between the music data and the video could be lost during the middle.
本発明の請求項 1 5記載の A V同期再生装置は、 楽曲データと動 画データとを同期して再生する A V同期再生装置であって、 楽曲デ —夕を再生するときに特定音符分の楽曲が進行する毎にその時点で の楽曲上の位置を特定した楽曲位置及び演奏テンポの基本となるテ ンポ情報を同期メ ッセージとして出力する拍発生回路と、 前記特定 音符分を基準として楽曲デ一夕と動画データの進行とを対応づけた An AV synchronous reproducing apparatus according to claim 15 of the present invention is an AV synchronous reproducing apparatus that reproduces music data and video data in synchronization with each other. A beat generation circuit that outputs, as a synchronous message, a song position specifying the current position on the song and the tempo information that is the basis of the performance tempo each time the song progresses, and a song data based on the specified note. Linked the evening with the progress of video data
A V同期指示デ一夕を生成する A V同期指示デ一夕生成回路と、 フ レームバッファが画像表示回路に画像を出力する時間間隔を Δ Τと するとき、 前記拍発生回路から同期メ ッセージを入力し、 この同期 メ ッセージに含まれたテンポ情報、 この同期メ ッセージを入力した 時点でフ レームバッファに書き込まれている動画デ一夕のフ レーム の進行位置、 次の同期メ ッセージを入力するときに前記 A V同期指 示データにより指定される動画データのフ レームの進行位置、 及び 上記時間間隔△ Tとによって、 フ レームバッ フ ァに書き込む動画デ 一夕を決定する表示フ レーム決定回路とを設けたこ とを特徴とする。 When the time interval at which the frame buffer outputs an image to the image display circuit is defined as Δ Τ, a synchronization message is input from the beat generation circuit. The tempo information included in this synchronization message, the moving position of the frame of the video data that has been written to the frame buffer at the time this synchronization message was input, and the time when the next synchronization message is input And a display frame determining circuit for determining the moving image data to be written to the frame buffer based on the progress position of the frame of the moving image data specified by the AV synchronization instruction data and the time interval ΔT. It is characterized by an octopus.
本発明の請求項 1 6記載の A V同期再生装置は、 楽曲デ一夕と C Gキャラクタの動きデ一夕とを同期して再生する A V同期再生装置 であって、 楽曲デ一夕を再生するとき、 特定音符分の楽曲が進行す る毎に、 その時点での楽曲上の位置を特定した楽曲位置及び演奏テ ンポの基本となるテンポ情報を同期メ ッセージとして出力する拍発 生回路と、 前記特定音符分を基準として楽曲デ一夕の進行と C Gキ ャラク夕の動きデータの進行とを対応づけた A V同期指示デ一夕を 生成する A V同期指示データ生成回路と、 フレームバッファが画像 表示回路に画像を出力する時間間隔を Δ Τ とするとき、 前記拍発生 回路から同期メ ッセージを入力し、 この同期メ ッセージに含まれた テンポ情報、 この同期メ ッセージを入力した時点でフレームバヅフ ァに書き込まれている C Gキャラクタの動きデ一夕のフレームの進 行位置、 次の同期メ ッセージを入力するときに前記 A V同期指示デ —夕によ り指定される C Gキャラクタの動きデ一夕のフ レームの進 行位置、 及び上記時間間隔△ T とによって、 フレームバッファに書 き込む C Gキャラクタの姿勢を決定するキャラクタ姿勢計算回路と を設けたことを特徴とする。 An AV synchronized playback device according to claim 16 of the present invention is an AV synchronized playback device that plays back a music data and a CG character movement data in synchronization with each other. Each time a song for a specific note progresses, a beat that outputs the song position specifying the current position on the song and the basic tempo information of the performance tempo as a synchronization message A raw circuit; an AV synchronization instruction data generating circuit for generating an AV synchronization instruction data that associates the progress of the music data with the progress of the motion data of the CG character based on the specific note; and a frame. When the time interval at which the buffer outputs an image to the image display circuit is Δ 回路, a synchronization message is input from the beat generation circuit, the tempo information included in the synchronization message, and the time when the synchronization message is input. The motion data of the CG character written in the frame buffer at the time of advance of the frame and the AV synchronization instruction data at the time of inputting the next synchronization message. A character posture calculation circuit that determines the posture of the CG character to be written into the frame buffer based on the progress position of the frame of the evening and the above time interval ΔT. And wherein the digit.
本発明の請求項 1 7記載の A V同期再生装置は、 請求項 1 5 また は請求項 1 6において、 前記テンポ情報の変更を入力するテンポ変 更入力回路を設けたことを特徴とする。  An AV synchronous reproducing apparatus according to claim 17 of the present invention is characterized in that, in claim 15 or claim 16, a tempo change input circuit for inputting a change in the tempo information is provided.
本発明の請求項 1 8記載の A V同期再生方法は、 楽曲と画像を同 期させるため、 特定音符を基準とした前記楽曲上の位置を特定した 楽曲位置及び前記楽曲のテンポ情報を、 前記特定音符分だけ前記楽 曲が進行する毎に、 前記楽曲の音生成部から前記画像の生成部に対 して伝えることを特徴とする。  In the AV synchronous reproduction method according to claim 18 of the present invention, in order to synchronize a music with an image, the music position and the tempo information of the music that specify a position on the music based on a specific note are identified. Each time the music progresses by the number of musical notes, the music is transmitted from the sound generation unit to the image generation unit.
本発明の請求項 1 9記載の A V同期再生方法は、 楽曲データを再 生するとき、 特定音符分の楽曲が進行する毎に、 その時点での楽曲 上の位置を特定した楽曲位置及び演奏テンポの基本となるテンポ情 報を同期メ ッセージと して出力する工程と、 前記特定音符を基準と して楽曲データと動画データの進行とを対応づけた A V同期指示デ 一夕を生成する工程と、 フ レームバッ フ ァが画像表示回路に画像を 出力する時間間隔を Δ Τ とするとき、 前記同期メ ッセージを入力し, この同期メ ッセージに含まれたテンポ情報、 この同期メ ッセージを 入力した時点でフ レームバッ フ ァに書き込まれている動画デ一夕の フ レームの進行位置、 次の同期メ ッセ一ジを入力するときに前記 A V同期指示デ一夕によ り指定される動画データのフ レームの進行位 置、 及び上記時間間隔 とによって、 フ レームバッ フ ァに書き込 む動画デ一夕を決定することを特徴とする。 The AV synchronized playback method according to claim 19 of the present invention is characterized in that, when playing back music data, each time a music piece for a specific note progresses, the music position and performance tempo at which the position on the music piece at that time is specified. Outputting the basic tempo information as a synchronization message, and an AV synchronization instruction data in which the music data and the progress of the moving image data are associated with each other based on the specific note. When the time interval for generating the image and the time interval at which the frame buffer outputs an image to the image display circuit is ΔΤ, the synchronization message is input, and the tempo information included in the synchronization message is When the synchronization message is input, the progress position of the frame of the video data written in the frame buffer, and when the next synchronization message is input, the AV synchronization instruction data The moving image data to be written into the frame buffer is determined based on the progress position of the frame of the specified moving image data and the time interval.
本発明の請求項 2 0記載の A V同期再生方法は、 楽曲データを再 生するとき、 特定音符分の楽曲が進行する毎に、 その時点での楽曲 上の位置を特定した楽曲位置及び演奏テンポの基本となるテンポ情 報を同期メ ッセージと して出力する工程と、 前記特定音符を基準と して楽曲データの進行と C Gキャラクタの動きデータの進行とを対 応づけた A V同期指示データを生成する工程と、 フ レームバッ フ ァ が画像表示回路に画像を出力する時間間隔を Δ Τとするとき、 前記 同期メ ッセージを入力し、 この同期メ ヅセージに含まれたテンポ情 報、 この同期メ ッセージを入力した時点でフ レームバッ フ ァに書き 込まれている C Gキャラクタの動きデータのフ レームの進行位置、 次の同期メ ッセージを入力するときに前記 A V同期指示データによ り指定される C Gキャラクタの動きデ一夕のフ レームの進行位置、 及び上記時間間隔△ τ とによって、 フ レームバッ フ ァに書き込む c In the AV synchronous reproduction method according to claim 20 of the present invention, when reproducing music data, each time a music piece for a specific note progresses, a music position and a performance tempo at which a position on the music piece at that time is specified. Outputting the tempo information as a synchronization message, which is the basis of the audio data, and AV synchronization instruction data in which the progress of the music data and the progress of the motion data of the CG character are made based on the specific note. When the generation step and the time interval at which the frame buffer outputs an image to the image display circuit are ΔΤ, the synchronization message is input, and the tempo information included in the synchronization message, the synchronization message, When the message is input, the frame progress position of the motion data of the CG character written in the frame buffer, and when the next synchronization message is input, the AV synchronization instruction data Is written in the frame buffer according to the progress position of the frame of the CG character specified by the above and the time interval △ τ c
Gキャラクタの姿勢を決定するすることを特徴とする。 The posture of the G character is determined.
本発明の請求項 2 1記載の A V同期再生方法は、 請求項 1 9 また は請求項 2 0において、 前記テンポ情報の変更を入力する工程と、 前記同期メ ッセージのテンポ情報を入力したテンポ情報に変更する 工程とを備えたことを特徴とする。 The AV synchronized playback method according to claim 21 of the present invention, according to claim 19 or claim 20, wherein the step of inputting a change in the tempo information; and the step of inputting the tempo information of the synchronized message. Change to And a process.
請求項 2 2記載の記録媒体は、 請求項 1 9〜請求項 2 1の何れか に記載の A V同期再生方法を実現するコンビユー夕プログラムが記 録されたことを特徴とする。 図面の簡単な説明  A recording medium according to claim 22 is characterized in that a combination program for realizing the AV synchronous reproduction method according to any one of claims 19 to 21 is recorded. BRIEF DESCRIPTION OF THE FIGURES
図 1は本発明の (実施の形態 1 ) の構成図  FIG. 1 is a configuration diagram of (Embodiment 1) of the present invention.
図 2は同実施の形態の形状デ一夕の説明図  FIG. 2 is an explanatory diagram of the shape data of the embodiment.
図 3は同実施の形態のモーション M aの時間経過に伴う座標変化 の説明図  Fig. 3 is an explanatory diagram of a coordinate change over time of the motion Ma of the embodiment.
図 4は同実施の形態のモーション M aのモーショングラフ 図 5は同実施の形態のモーション M bのモーショングラフ 図 6は同実施の形態のモーション M aと M bのモーショングラフ 図 7は同実施の形態の補正したモーショングラフ  Fig. 4 is a motion graph of the motion Ma of the embodiment. Fig. 5 is a motion graph of the motion Mb of the embodiment. Fig. 6 is a motion graph of the motions Ma and Mb of the embodiment. Motion graph corrected
図 8は (実施の形態 2 ) の構成図  Fig. 8 shows the configuration of (Embodiment 2).
図 9は同実施の形態の補正データの説明図  FIG. 9 is an explanatory diagram of correction data according to the embodiment.
図 1 0は (実施の形態 3 ) の構成図  FIG. 10 shows the configuration of the third embodiment.
図 1 1は (実施の形態 4 ) の構成図  Fig. 11 shows the configuration of (Embodiment 4).
図 1 2は同実施の形態のモーシヨンの一例を示す説明図  FIG. 12 is an explanatory diagram showing an example of the motion of the embodiment.
図 1 3は同実施の形態のシナリオデータの構造図  Figure 13 shows the structure of scenario data according to the embodiment.
図 1 4は同実施の形態のシナリオデータにしたがってつなげられ たモーショ ンの一例を示す説明図  FIG. 14 is an explanatory diagram showing an example of motions connected according to the scenario data of the embodiment.
図 1 5は同実施の形態のモ一シヨン切替え描画手段のフローチヤ ート図  FIG. 15 is a flowchart of the motion switching drawing means of the embodiment.
図 1 6は本発明の (実施の形態 5 ) の構成図 図 1 7は同実施の形態の端末の不足データ処理のフ口一チャート 図 FIG. 16 is a block diagram of (Embodiment 5) of the present invention. Fig. 17 is a flowchart of the terminal shortage data processing of the embodiment.
図 1 8は同実施の形態のサーバーの不足データ処理のフローチヤ 一ト  Fig. 18 is a flowchart of the server's missing data processing according to the embodiment.
図 1 9は本発明の (実施の形態 6 ) のブロック図  FIG. 19 is a block diagram of (Embodiment 6) of the present invention.
図 2 0は同実施の形態のフローチヤ一ト  FIG. 20 is a flow chart of the embodiment.
図 2 1は本発明の (実施の形態 7 ) の構成図  FIG. 21 is a block diagram of (Embodiment 7) of the present invention.
図 2 2は本発明の (実施の形態 8 ) の構成図  FIG. 22 is a block diagram of (Embodiment 8) of the present invention.
図 2 3は本発明の (実施の形態 9 ) の構成図  FIG. 23 is a block diagram of (Embodiment 9) of the present invention.
図 2 4は本発明の (実施の形態 1 0 ) の構成図  FIG. 24 is a block diagram of (Embodiment 10) of the present invention.
図 2 5は本発明の (実施の形態 1 1 ) の構成図  FIG. 25 is a block diagram of (Embodiment 11) of the present invention.
図 2 6は本発明の (実施の形態 1 2 ) の構成図  FIG. 26 is a block diagram of (Embodiment 12) of the present invention.
図 2 7は本発明の (実施の形態 1 3 ) の構成図  FIG. 27 is a block diagram of (Embodiment 13) of the present invention.
図 2 8は同実施の形態における楽曲の拍数、 動きデータ、 シナリ ォデ一夕及び A V同期指示データの関係を示す説明図  FIG. 28 is an explanatory diagram showing the relationship between the number of beats of the music, the motion data, the scenario, and the AV synchronization instruction data in the embodiment.
図 2 9は同実施の形態における楽曲デ一夕、 C Gキャラクタの姿 勢計算、 及びレンダリ ング処理の時間的な関係を示すタイ ミ ングチ ャ一ト  FIG. 29 is a timing chart showing the temporal relationship between music data, CG character posture calculation, and rendering processing in the embodiment.
図 3 0は同実施の形態における楽曲演奏の再生処理を示すフロー チャー ト  FIG. 30 is a flowchart showing a music performance reproduction process according to the embodiment.
図 3 1は同実施の形態における A V同期指示データの生成処理を 示すフローチャート  FIG. 31 is a flowchart showing a process of generating AV synchronization instruction data according to the embodiment.
図 3 2は同実施の形態における A C Gキャラクタの再生処理を示 すフローチヤ一 卜図  FIG. 32 is a flowchart showing an ACG character reproduction process according to the embodiment.
図 3 3は本発明の (実施の形態 1 4 ) の構成図 図 3 4は同実施の形態における楽曲演奏の再生処理を示すフ ロー チャート FIG. 33 is a configuration diagram of (Embodiment 14) of the present invention. Fig. 34 is a flow chart showing the playback process of music performance in this embodiment.
図 3 5は本発明の (実施の形態 1 5 ) の構成図  FIG. 35 is a block diagram of (Embodiment 15) of the present invention.
図 3 6は同実施の形態における楽曲の拍数、 動画デ一夕、 動画シ ナリオデータ、 及び A V同期指示デ一夕の関係を示す説明図  FIG. 36 is an explanatory diagram showing the relationship between the number of beats of music, video data, video scenario data, and AV synchronization instruction data in the embodiment.
図 3 7は同実施の形態における動画の再生処理を示すフ ローチヤ ト 図 3 8は本発明の (実施の形態 1 6 ) の構成図  FIG. 37 is a flowchart showing a moving image playback process in the embodiment. FIG. 38 is a configuration diagram of (Embodiment 16) of the present invention.
図 3 9は同実施の形態における楽曲演奏の再生処理を示すフ ロー チャート  Fig. 39 is a flowchart showing the playback process of music performance in the embodiment.
図 4 0は立体キャラク夕の骨格データの説明図  Figure 40 is an illustration of the skeleton data of a three-dimensional character
実施例の説明 Description of the embodiment
(実施の形態 1 )  (Embodiment 1)
図 1〜図 7は (実施の形態 1 ) を示す。  1 to 7 show (Embodiment 1).
図 1において、 サーバ一 5 1 と端末 5 2は、 ネヅ トワーク 5 3 で接続されている。 サーバー 5 1は、 デ一夕送信手段 1 とシナリオ デ—夕べ—ス 7 4を備えている。  In FIG. 1, a server 51 and a terminal 52 are connected by a network 53. The server 51 has a data transmission means 1 and a scenario database 74.
端末 5 2は、 データ受信手段 1 1 とモーション切替え描画手段 1 2 とモーション自動補正手段 1 3 と形状デ一夕ベース 1 4 とモ一シ ヨンデータべ一ス 1 5および表示手段 1 6 とから構成されている。 デ一夕送信手段 1は、 シナリオデータベース 7 4に保存されてい る複数のシナリオデータのうち端末 5 2で表示させるシナリオデ一 夕 6 1 をネッ 卜ワーク 5 3を介して送信する。  The terminal 52 is composed of the data receiving means 11, the motion switching drawing means 12, the automatic motion correcting means 13, the shape data base 14, the motion database 15, and the display means 16. It is configured. The overnight transmission means 1 transmits the scenario data 61 to be displayed on the terminal 52 out of the plurality of scenario data stored in the scenario database 74 via the network 53.
シナリオデ一夕 6 1 とは、 表示させる立体キャラクタを特定し、 かつ、 立体キャラクタを動かすためのモ一ショ ンの組合わせ順序を 規定したものであって、 モーショ ンを特定するモーショ ン I Dのリ ス トである。 Scenario Day 6 1 specifies the three-dimensional character to be displayed, Also, it specifies the combination order of the motions for moving the three-dimensional character, and is a list of motion IDs for specifying the motions.
ただし、 そのモーショ ン I Dに対応するモーショ ンは、 予め CD 一 R OMやフロ ッピ一ディスク等の記録媒体またはネッ トワーク 5 3を通じて端末に供給されており、 端末 5 2のモーションデータべ —ス 1 5に格納されているものとする。  However, the motion corresponding to the motion ID is supplied to the terminal through a recording medium such as a CD-ROM or a floppy disk or the network 53 in advance, and the motion database of the terminal 52 is provided. It shall be stored in 15.
例えば、 モーショ ン I D {Ma, Mb , M c, M d, Me } に対 応するモーショ ンがモーショ ンデ一夕ベース 1 5に格納されている 場合に、 [ M a, M c , M a, M e ] ( リス トの先頭から順々に、 切替えて表示することを示す) というシナリオを規定することがで きる。 しかし、 [Ma, Mf , Ma , M e ] というシナリオは、 M f がモーショ ンデ一夕べ一ス 1 4に格納されていないので、 規定す ることはできない。 モーショ ンデータベース 1 5に格納されている モーショ ンの任意の組合わせをシナリオデ一夕 と して規定すること ができる。  For example, if the motion corresponding to the motion ID {Ma, Mb, Mc, Md, Me} is stored in the motion data base 15, [Ma, Mc, Ma , Me] (indicating that the display is switched and displayed in order from the top of the list). However, the scenario [Ma, Mf, Ma, Me] cannot be specified because Mf is not stored in motion day 14. Any combination of the motions stored in the motion database 15 can be defined as the scenario data.
デ一夕受信手段 1 1は、 データ送信手段 1が送信したシナリォデ —夕を、 ネッ ト ワーク 5 3を介して受信する。  The data receiving means 11 receives the scenario transmitted by the data transmitting means 1 via the network 53.
形状データベース 1 4には形状デ一夕が保存される。 形状データ は、 2個以上の 3次元 ( X, y, z座標) 座標の点で構成されるポリ ゴンと呼ばれる多面体の集合からなる。  The shape database 14 stores the shape data. The shape data consists of a set of polyhedrons called polygons composed of two or more three-dimensional (X, y, z coordinates) points.
モーショ ンデータべ一ス 1 5にはモーショ ンが保存される。 モー シヨ ンは、 形状デ一夕の変化量を時系列に基づき規定する。  The motion database 15 stores motions. Motion defines the amount of change over time in a time series.
例えば、 図 2のような 3角柱の形状デ一夕は、 a, b, c , d , eおよび f の 6頂点で、 その頂点の 5つの部分集合 {a , b, c } { d , e , f } { a , b, d , e } { a , c , d, f } { b , c, e , f } で構成される 5ポリ ゴン面によ り規定することができる (これを物体 Aとする) 。 物体 Aを、 6 0秒間で、 X軸中心に 1 8 0 度、 y軸中心に 3 6 0度、 各々回転させるモーションは、 図 3のよ うになる (このモーショ ンを、 モーショ ン M aとする) 。 For example, the shape of a triangular prism as shown in Fig. 2 consists of six vertices a, b, c, d, e, and f, and five subsets {a, b, c} of the vertices. {d, e, f} {a, b, d, e} {a, c, d, f} {b, c, e, f} (This is object A). The motion of rotating object A by 180 degrees around the X axis and 360 degrees around the y axis in 60 seconds is as shown in Fig. 3 (This motion is called motion Ma Do).
表示する全てのフ レームの回転角を規定する必要はない。 特定の 時刻に対して回転角を規定 (これをキーフレームと呼ぶ) し、 それ 以外は補間アルゴリズムで算定する。 キ一フレームの補間アルゴリ ズムは、 数種類の一般的なアルゴリズムが提案されているが、 ここ では 1次元線形補間アルゴリズムを用いて以下に説明する。  It is not necessary to specify the rotation angles of all displayed frames. The rotation angle is defined for a specific time (this is called a key frame), and the rest is calculated by an interpolation algorithm. Several types of general algorithms have been proposed for the key frame interpolation algorithm. Here, a one-dimensional linear interpolation algorithm will be used and described below.
ここで、 1次元線形補間アルゴリズムを用いて、 4 5秒後の X軸 の回転角を算定すると、  Here, using the one-dimensional linear interpolation algorithm, when the rotation angle of the X axis after 45 seconds is calculated,
100 (度) = [ ( ( 45 - 40) / ( 50 - 40 ) ) x ( 120 - 80) + 80 ] となる。  100 (degrees) = [((45-40) / (50-40)) x (120-80) + 80].
モーショ ンデ一夕ベース 1 5は、 一般的にキーフレーム集合と し て規定されたものの集合である。 モーショ ンの変化をグラフ化する と、 図 4のようなモーショ ングラフになる。 図 4の黒丸や黒三角は キーフレームを示している。  The Motion Day Base 15 is a set of what is generally defined as a key frame set. When the motion change is graphed, the motion graph is as shown in Fig. 4. The black circles and triangles in Fig. 4 indicate key frames.
モーション切替え描画手段 1 2は、 データ受信手段 1 1 が受信し たシナリオデ一夕 6 1 に基づきモーショ ンを順番に切替えながら C G動画像を表示する。 各モーショ ンは、 ある特定の時間内 (モ一シ ヨ ン時間) のキーフ レームの集合である。  The motion switching drawing means 12 displays the CG moving image while sequentially switching the motions based on the scenario data 61 received by the data receiving means 11. Each motion is a set of keyframes within a certain time (motion time).
例えば、 モーショ ン M aは、 6 0秒間で 7つのキ一フ レームを持 つモーショ ンである。 キーフ レーム間は 1次元線形補間を行う こと によ り、 図 4のようなモーショ ングラフを復元することが可能であ る。 For example, motion Ma is a motion having seven key frames in 60 seconds. By performing one-dimensional linear interpolation between key frames, it is possible to restore the motion graph as shown in Fig. 4. You.
この実施の形態では、 キ一フレーム補間は 1次元線形補間を用い ているが、 この他にスプライ ン非線型補間など既知の方法が存在す る。 その何れの手法を用いても同等の効果を奏することができるの で、 本発明はその補間方法は特に限定しない。  In this embodiment, one-dimensional linear interpolation is used for key frame interpolation, but other known methods such as spline nonlinear interpolation exist. The present invention does not particularly limit the interpolation method, since the same effect can be obtained by using any of these methods.
例えば、 モーショ ン M aの 4 5秒後の物体 Aの頂点 aの座標を計 算してみる。 まず、 X軸回転角, y軸回転角を線形補間で算定する。  For example, calculate the coordinates of the vertex a of the object A 45 seconds after the motion Ma. First, the X-axis rotation angle and y-axis rotation angle are calculated by linear interpolation.
X軸の回転角は上で計算した通り 100度、 y軸の回転角は、 The rotation angle of the X axis is 100 degrees as calculated above, and the rotation angle of the y axis is
300 (度) = [ ( ( 45- 40) / ( 50- 40) ) x ( 345—255) + 25 5]  300 (degrees) = [((45-40) / (50-40)) x (345-255) + 25 5]
である。 まず、 X軸を中心に 100度回転した場合の座標を計算する。 It is. First, calculate the coordinates when rotated by 100 degrees around the X axis.
X軸回転角を x a n gとすると、 ( X , y , z ) は、 Assuming that the X-axis rotation angle is x ang, (X, y, z) is
( , y · cos ( x a n g ) + z · sin ^ x a n g , — y · sin ( a n g ) + z * cos ( x a n g ) )  (, ycos (x ang) + zsin ^ x ang,-y sin (ang) + z * cos (x ang))
で計算できる。 したがって、 a (3.0, 3.0, 1.0) の値は、 Can be calculated by Therefore, the value of a (3.0, 3.0, 1.0) is
X = 3.0  X = 3.0
y = 3.0 - ( - 0.174) + 1.0 - 0.984 = 0.462  y = 3.0-(-0.174) + 1.0-0.984 = 0.462
z = - 3.0 · 0.984+ 1.0 - ( - 0.174) = - 3.126 次に、 y軸を中心に 300度回転した場合の座標を計算する。 z軸 回転角を y a n gとすると、 ( x , y , z ) は、  z =-3.0 · 0.984+ 1.0-(-0.174) =-3.126 Next, calculate the coordinates when rotated 300 degrees around the y-axis. Assuming that the rotation angle of the z-axis is yang, (x, y, z) is
( - cos ( y a n g ) + z · sin ( y a n g ) , y , - x - sin ( y a n g ) + z · cos ( y a n g ) )  (-cos (yang) + z sin (yang), y,-x-sin (yang) + z cos (yang))
で計算できる。 Can be calculated by
x = 3.0 - 0.5+ ( - 3.126) · ( - 0.866) = 4.207  x = 3.0-0.5+ (-3.126) (-0.866) = 4.207
y = 0.462 z = - 3.0 · ( - 0.866) + ( - 3.126) - 0.5 = 1.035 したがって、 4 5秒後の頂点 aは (4.207, 0.462, 1.035) の位置 に移動している。 これと同じ計算を他の 5つの頂点に施すと、 各頂 点座標を算出することができる。 y = 0.462 z =-3.0 · (-0.866) + (-3.126)-0.5 = 1.035 Therefore, the vertex a after 45 seconds has moved to the position of (4.207, 0.462, 1.035). By applying the same calculation to the other five vertices, each vertex coordinate can be calculated.
これらの座標変換処理の後、 レンダリ ング処理を行う ことによ り、 フレームを表示することができる。 モーショ ン切替え描画手段 1 2 は、 各モーションの開始から終了までの間、 この一連の処理をフレ ームレー ト ( 1秒間に何フレーム描画するかを規定) に基づき連鎖 的に行う ことによ り C G動画を表示する。 1つのモーショ ンが規定 されたモーショ ン時間内の C G動画を終えた場合、 シナリオデータ で規定されている次のモ一ショ ンの C G動画の表示を始める。 この ように、 次々とモーショ ンを切替えることによ り、 C G動画を連続 的に表示する。  A frame can be displayed by performing a rendering process after these coordinate conversion processes. The motion switching drawing means 12 performs a series of processes from the start to the end of each motion in a chain based on the frame rate (specifying how many frames are drawn per second). Display a movie. When one motion finishes the CG video within the specified motion time, the CG video of the next motion specified in the scenario data is displayed. In this way, the CG moving image is displayed continuously by switching the motion one after another.
モーショ ン自動補正手段 1 3は、 モーショ ン切替え描画手段 1 2 がモーショ ンを切替える際にモーショ ンを補正する。 モーショ ンを 順々に表示した場合、 そのつなぎ目でモーショ ンが不連続になるこ とがある。  The motion automatic correcting means 13 corrects the motion when the motion switching drawing means 12 switches the motion. If the motions are displayed one after another, the motions may be discontinuous at the joint.
例えば、 モーショ ン M aの後、 モーショ ン M bを表示する場合を 考えてみる。 モーション M bのモーショ ングラフを図 5に示す。 さ らに、 M a, M bのモーショ ングラフを結合したものを図 6に示す。 図 6から明らかなように、 モーショ ン M aの 6 0秒目のフレーム と、 モーショ ン M bの 0秒のフレームで不連続点が生じている。 ここで、 モ一シヨ ン M aの 6 0秒目のフ レームと 0秒目のフレー ムの各値の平均値を、 モーショ ンの切替えの時にキ一フレームと し て設定することで、 モーショ ンの不連続を回避する。 モーショ ン M aとモーショ ン M bの切替えの時のキーフレームを計算する。 For example, consider the case where motion Mb is displayed after motion Ma. Figure 5 shows the motion graph of motion Mb. Figure 6 shows the combined motion graphs of Ma and Mb. As is evident from FIG. 6, discontinuities occur at the 60-second frame of motion Ma and the 0-second frame of motion Mb. Here, the average value of each value of the 60th and 0th second frames of the motion Ma is set as a key frame at the time of switching the motion, so that the motion Avoid discontinuities in the connection. Motion M Calculate keyframes when switching between a and motion Mb.
X軸の回転角 160 = ( 180 + 140 ) / 2、 y軸の回転角 340 = ( 360 + 320 ) ノ 2を、 切替えの時のキ一フレームと して設定すると、 図 7の ようにモ一ショ ングラフは滑らかにつながる。  If the X-axis rotation angle 160 = (180 + 140) / 2 and the y-axis rotation angle 340 = (360 + 320) No 2 are set as the key frame for switching, One-shot graphs connect smoothly.
モーショ ン自動補正手段 1 3は、 モーショ ンを切替える時に前後 のモーショ ンからキーフ レームを算出し、 自動的にモーショ ンを補 正する。 このような補正方法は、 既知の方法が複数存在する。 その 何れの手法を用いても同等の効果を奏することができるので、 本発 明はその補正方法は特に限定しない。  The motion automatic correction means 13 calculates a key frame from the preceding and following motions when switching motions, and automatically corrects the motion. There are a plurality of known correction methods. Since the same effect can be obtained by using any of these methods, the present invention does not particularly limit the correction method.
このように、 ネッ トワーク 5 3 を通じて端末 5 2に送信されるの は、 モーショ ンの組合わせ順序を規定したシナリオデ一夕のみであ り、 データ容量の大きな立体キャラク夕の形状データやモ一ショ ン は送信されないので、 データ転送量が少なく、 ネッ トワークへの負 担が少ない。  As described above, only the scenario data that specifies the motion combination order is transmitted to the terminal 52 through the network 53, and the shape data and motion data of the three-dimensional character having a large data capacity are transmitted. Since no data is transmitted, the amount of data transferred is small and the burden on the network is small.
また、 端末 5 2のモーショ ン自動補正手段 1 3が、 モーショ ンを 切替える際のモーショ ンを補正するので、 端末 5 2の表示手段 1 6 に表示される立体キャラク夕の動きは非常に滑らかである。  Also, since the motion automatic correction means 13 of the terminal 52 corrects the motion when switching the motion, the movement of the three-dimensional character displayed on the display means 16 of the terminal 52 is very smooth. is there.
(実施の形態 2 ) (Embodiment 2)
図 8 と図 9は (実施の形態 2 ) を示す。  8 and 9 show (Embodiment 2).
図 8において、 サーバー 5 1 と端末 5 2はネヅ ト ワーク 5 3で接 続されている。 サーバ一 5 1 は、 デ一夕送信手段 1 と補正データ送 信手段 2 1 から構成されている。 端末 5 2は、 デ一夕受信手段 1 1 と補正データ受信手段 2 2 とモーショ ン切替え描画手段 1 2 と表示 手段 1 6 とモーショ ン補正手段 2 3 と形状デ一夕べ一ス 1 4および 複数のモーションデ一夕べ一ス 1 5とから構成されている。 In FIG. 8, the server 51 and the terminal 52 are connected by a network 53. The server 51 includes a data transmission means 1 and a correction data transmission means 21. The terminal 52 includes the data receiving means 11, the correction data receiving means 22, the motion switching drawing means 12, the display means 16, the motion correcting means 23, the shape data base 14 and It is composed of a plurality of motion displays 15.
なお、 1 , 1 1 , 1 2 , 1 4 , 1 5 , 1 6については、 (実施の 形態 1 ) と同一のものであるのでその説明を省略する。  It should be noted that 1, 1, 1, 12, 14, 15, and 16 are the same as those in the first embodiment, and a description thereof will be omitted.
補正デ一夕送信手段 2 1は、 デ一夕送信手段 1が送信するシナリ ォデ一夕 6 1の各モーショ ン間を補正する補正データ 6 2を送信す る o  The correction data transmission means 21 transmits correction data 62 for correcting the motions of the scenario data 61 transmitted by the data transmission means 1 o
補正デ一夕 6 2は、 (実施の形態 1 ) で説明したモーショ ン自動 補正手段 1 3と同一手法で予め算出されたもので、 モーショ ンを切 替える際の切換前後の立体キャラクタのモーショ ンが滑らかに動か すためのデータである。  The correction data 62 are calculated in advance by the same method as the automatic motion correction means 13 described in (Embodiment 1), and the motion of the three-dimensional character before and after the switching when the motion is switched. Is data for smooth movement.
すなわち、 補正デ一夕 6 2はモーショ ンとそのフレームの時間を 規定する。 例えば、 モーショ ン M aとモーショ ン M bの補正デ一夕 6 2は、 図 9のようになる。  That is, the correction data 62 specifies the motion and the time of the frame. For example, the correction data 62 of the motion Ma and the motion Mb are as shown in FIG.
モーショ ン Maの後にモーショ ン Mbを切替えて表示する。 M a の 6 0秒のキ一フレーム ( X軸の回転角 180度, y軸の回転角 360 度) と、 モーショ ン Mbの 0秒のキ一フレーム ( X軸の回転角 140 度, y軸の回転角 320度) を、 X軸の回転角 160度、 y軸の回転角 3 40度に補正することを示している。  Switch motion Mb after motion Ma and display. 60 seconds key frame of M a (rotation angle of X axis 180 degrees, rotation angle of y axis 360 degrees) and motion Mb 0 seconds key frame (rotation angle of X axis 140 degrees, y axis The rotation angle of 320 degrees is corrected to a rotation angle of 160 degrees on the X axis and a rotation angle of 340 degrees on the y axis.
このような補正データ 6 2は、 シナリオデータの各モーショ ンの 切替え回数分だけ必要である。 例えば、 シナリオデータが {Ma, Mb , M c , Md , M e} の 5つのモ一シヨ ンを指定する場合には、 (Ma, Mb) , (Mb , M c ) , (M c, Md) , (Md , M e ) の 4組のモ一ショ ン切替えの際のモ一ショ ン間のつなぎ目に対 する補正データが必要である。 補正データ送信手段 2 1はこの補正 データ 6 2を端末 5 2へ送信する。 補正データ受信手段 2 2は、 サーバーから送信されて く る補正デ 一夕 6 2を受信する。 Such correction data 62 is necessary for the number of times of switching of each motion of the scenario data. For example, when the scenario data specifies five modes of {Ma, Mb, Mc, Md, Me}, (Ma, Mb), (Mb, Mc), (Mc, Md ), (Md, Me) The correction data for the joint between the motions when switching the four motions is required. The correction data transmitting means 21 transmits the correction data 62 to the terminal 52. The correction data receiving means 22 receives the correction data 62 transmitted from the server.
モーショ ン補正手段 2 3は、 モーショ ン切替え描画手段 1 2がモ ーシヨ ンを切替える際に、 補正デ一夕受信手段 2 2が受信した補正 デ一夕 6 2に基づきモーショ ンを補正して立体キャラクタの動きを 滑らかにする。  The motion correction means 23 corrects the motion based on the correction data 62 received by the correction data receiving means 22 when the motion switching drawing means 12 switches the motion. Smooth character movement.
例えば、 図 9の補正デ一夕を受信している場合、 モーショ ン切替 え描画手段 1 2が、 モーショ ン M aからモーショ ン M bに切替える にあた り、 それぞれ 6 0秒と 0秒のキ一フレームを補正し、 図 7の フレームの時間を規定する。 例えば、 M aと M bの補正データは、 図 9のようになる。  For example, when the correction data of FIG. 9 is received, the motion switching drawing means 12 switches the motion from the motion Ma to the motion Mb for 60 seconds and 0 seconds, respectively. The key frame is corrected and the time of the frame in Fig. 7 is specified. For example, the correction data of Ma and Mb are as shown in FIG.
このように本実施の形態では、 ネッ トワーク 5 3 を通じて端末 5 2に送信されるのは、 モ一ショ ンの組合わせ順序を規定したシナリ ォデ一夕 6 1 と、 各モーショ ンの切替えの前後の動きデ一夕である 補正データ 6 2のみであ り、 デ一夕容量の大きな立体キャラクタの 形状デ一夕や、 全てのモーショ ンが送信されるわけではないので、 デ一夕転送量が少なく、 ネッ ト ワーク 5 3への負担が少ない。  As described above, in the present embodiment, what is transmitted to the terminal 52 through the network 53 is a scenario 61 that defines the order of combination of motions, and the switching of each motion. This is only the correction data 62, which is the amount of data before and after the movement.The shape of a three-dimensional character with a large amount of data is not transmitted, and not all motions are transmitted. And the burden on the network 53 is small.
また、 送信された補正デ一夕 6 2に基づきモーショ ンを補正する ので、 端末 5 2の表示手段 1 6に表示される立体キャラクタの動き は非常に滑らかである。  Also, since the motion is corrected based on the transmitted correction data 62, the movement of the three-dimensional character displayed on the display means 16 of the terminal 52 is very smooth.
(実施の形態 3 ) (Embodiment 3)
図 1 0は (実施の形態 3 ) を示す。  FIG. 10 shows (Embodiment 3).
図 1 0において、 サーバー 5 1 と端末 5 2はネッ トワーク 5 3で 接続されている。 サーバ一 5 1 は、 デ一夕送信手段 1 とモーショ ン データベース 7 6と補正データ送信手段 2 1および補正シナリオ算 定手段 3 1から構成されている。 端末 5 2は、 データ受信手段 1 1 と補正デ一夕受信手段 2 2とモーショ ン切替え描画手段 1 2と表示 手段 1 6とモーショ ン補正手段 2 3と形状デ一夕ベース 1 4および 複数のモーショ ンデ一夕ベース 1 5とから構成されている。 In FIG. 10, the server 51 and the terminal 52 are connected by a network 53. The server 51 is connected to the transmission means 1 It comprises a database 76, correction data transmission means 21 and correction scenario calculation means 31. The terminal 52 includes a data receiving means 11, a correction data overnight receiving means 22, a motion switching drawing means 12, a display means 16, a motion correcting means 23, a shape data base 14, and a plurality of It consists of Motion Day Night Base 15.
なお、 1 , 1 1 , 1 2, 1 4, 1 5 , 1 6 , 2 1, 2 2 , 2 3に ついては、 (実施の形態 1 ) (実施の形態 2 ) と同一のものである ので、 その説明を省略する。  Note that 1, 1 1, 1 2, 1, 2, 1, 2, 1, 2, 2, and 2 are the same as those in (Embodiment 1) and (Embodiment 2). The description is omitted.
補正シナリオ算定手段 3 1は、 シナリオ送信手段 1が送信するシ ナリオデ一夕の各モーショ ン間を滑らかに表示できるような補正デ 一夕を、 モーショ ンデータベース 7 6に基づき算定し、 補正デ一夕 送信手段 2 2を用いて端末に送信する。 補正データの算出方法につ いては、 (実施の形態 1 ) で説明したモーション自動補正手段 1 3 と同一手法であるので、 ここでは説明を省略する。  The correction scenario calculating means 31 calculates a correction data based on the motion database 76 so as to smoothly display each motion of the scenario data transmitted by the scenario transmitting means 1 based on the motion database 76. E2 Send to terminal using transmission means 22. The method of calculating the correction data is the same as that of the automatic motion correction means 13 described in (Embodiment 1), and thus the description thereof is omitted here.
このように、 ネッ トワーク 5 3を介して端末 5 2に送信されるの は、 モーショ ンの組合わせ順序を規定したシナリオデ一夕と、 サ一 バー 5 1の補正シナリオ算定手段 3 1で算定された補正デ一夕のみ であ り、 データ容量の大きな立体キャラクタの形状データや、 全て のモーショ ンが送信されるわけではないのでデータ転送量が少な く . ネッ トワーク 5 3への負担が少ない。  In this way, what is transmitted to the terminal 52 via the network 53 is calculated by the scenario data that defines the motion combination order and the correction scenario calculation means 31 of the server 51. The data transfer amount is small because the shape data of a three-dimensional character having a large data capacity and not all motions are transmitted. The load on the network 53 is small.
また、 送信された補正データに基づきモーショ ンを補正するので 端末 5 2の表示手段 1 6に表示される立体キャラクタの動きは非常 に滑らかである。  Also, since the motion is corrected based on the transmitted correction data, the movement of the three-dimensional character displayed on the display means 16 of the terminal 52 is very smooth.
(実施の形態 4 ) 上記の (実施の形態 1 ) 〜 (実施の形態 3 ) では、 モーションの 切替えの際に、 モーショ ンを補正する必要があつたが、 この (実施 の形態 4 ) では各モーショ ンがホームポジションを備え、 シナリオ デ一夕が切替えの際の立体キャラクタの姿勢が共通となるモーショ ンを順番に切替えることによ り、 滑らかな動きを表示する。 (Embodiment 4) In the above (Embodiment 1) to (Embodiment 3), it is necessary to correct the motion when switching the motion. However, in this (Embodiment 4), each motion sets the home position. The smooth motion is displayed by sequentially switching the motions in which the posture of the three-dimensional character is common when the scenario is changed.
図 1 1〜図 1 5は (実施の形態 4 ) を示す。  FIGS. 11 to 15 show (Embodiment 4).
図 1 1において、 サーバ一 9 1 と端末 9 2はネッ トワーク 53で 接続されている。 サーバ一 9 1はデータ送信手段 1 とシナリオデ一 夕ベース 74を備えている。 端末 9 2は、 デ一夕受信手段 1 1とモ ーシヨ ン切替え描画手段 1 2と表示手段 1 6と形状データベース 1 4およびモーショ ンデ一夕ベース 1 5とから構成されている。  In FIG. 11, a server 91 and a terminal 92 are connected by a network 53. The server 91 has a data transmission means 1 and a scenario database 74. The terminal 92 includes a data receiving means 11, a motion switching drawing means 12, a display means 16, a shape database 14, and a motion data base 15.
なお、 1 , 1 1, 1 2, 1 4, 1 5 , 1 6, 74については (実 施の形態 1 ) と同一のものである。  In addition, 1, 11, 12, 14, 14, 15, 16, 74 are the same as those in the first embodiment.
端末 9 2の形状データベース 1 4には、 立体キャラクタのいろい ろな種類の骨格モデル、 頭部、 胸、 腰、 両腕、 両手ならびに両足な どのポリ ゴンデータおよびポリ ゴンの表面に張り付けるテキスチャ —データが蓄えられている。  The shape database 14 of the terminal 9 2 contains various types of skeletal models of solid characters, polygon data such as the head, chest, waist, both arms, both hands, and both feet, and textures to be attached to the surface of the polygon. —Data is stored.
モーションデ一夕ベース 1 5には、 図 1 2に示すように 「シーン As shown in Fig. 12, the motion scene
S l」 「シーン S 2」 「シーン S 3」 の各シーンのモーショ ン M l , M 2 , M 3 , が蓄積されてモーショ ンデータベース 1 2 を構成している。 Motions Ml, M2, M3, of the respective scenes of "Sl", "Scene S2" and "Scene S3" are accumulated to form a motion database 12.
なお、 説明を簡単にするため、 ここでは動き変化の様子を骨格デ —夕で表示して説明する。 ただし、 実際のグラフィ ック表示は、 各 骨格データの周囲にポリ ゴンで構成させた各部位が肉付けされ、 各 部位には必要に応じてテキスチャが貼り付けられ表示される。 図 1 2に示すモーショ ン M l とモーショ ン M 2には、 共通の姿勢 の動きホームポジショ ン H P 1が設けられている。 また、 モーショ ン M 2と M 3には、 共通の姿勢の動きホームポジショ ン HP 2が設 けられている。 モーショ ン M 3は、 動きはじめのホームポジション (H P 2 ) と動き終わりの終わりのホームポジショ ン (同じく H P 2 ) を同じである。 For the sake of simplicity, here, the state of the motion change will be displayed in the skeleton image in the evening. However, in the actual graphic display, each part composed of polygons is fleshed around each skeletal data, and the texture is pasted to each part as necessary and displayed. Motion Ml and motion M2 shown in FIG. 12 are provided with a movement home position HP1 having a common posture. In addition, the motion M2 and M3 are provided with a common home position HP2. Motion M3 has the same home position at the beginning of movement (HP 2) and at the end of movement (HP 2).
なお、 形状デ一夕ベース 1 4とモーションデ一夕ベース 1 5は、 例えば、 C D— R 0 Mや D V D (Digital Video Disc) 、 ハー ドデ イ スク、 書き換え可能な半導体 R AM、 または書き換え可能な光デ ィスク等で構成することができる。  The shape data base 14 and the motion data base 15 are, for example, CD-R0M, DVD (Digital Video Disc), hard disk, rewritable semiconductor RAM, or rewritable. It can be composed of a simple optical disk or the like.
図 1 3にシナリオデ一夕 6 1の構造を示す。  Figure 13 shows the structure of Scenario Day 61.
シナリオデータ 6 1は、 形状デ一夕識別情報とモ一シヨ ン指定情 報とから構成されている。  The scenario data 61 is composed of shape data overnight identification information and motion designation information.
形状データ識別倩報は、 表示する立体キャラクタの骨格モデルを 特定するための骨格モデル識別情報と、 この骨格モデルに肉付けす るポリ ゴンを特定するための立体キャラクタのポリ ゴン識別情報と、 このポリ ゴンの表面に貼り付けるテキスチャを特定するための立体 キャラクタのテキスチャ識別情報とからなる。 これらの形状データ 識別情報によ り表示する立体キャラクタが特定される。  The shape data identification report includes skeletal model identification information for identifying the skeleton model of the three-dimensional character to be displayed, polygon identification information for the three-dimensional character for identifying the polygon to be filled in with the skeleton model, and the polygon. It consists of the texture identification information of the three-dimensional character for specifying the texture to be attached to the surface of the gon. The three-dimensional character to be displayed is specified by the shape data identification information.
モーショ ンデ一夕指定情報は、 シナリオデータ 6 1で利用するモ ーシヨ ンの順番と各モーショ ンの動きの最初から最後までの時間を 指示する時間幅が記録されている。 一つの動きデータに一つのシ一 ン番号が割り当てられている。  In the motion data overnight designation information, the order of the motions used in the scenario data 61 and the time width indicating the time from the beginning to the end of the motion of each motion are recorded. One motion data is assigned one scene number.
シナリオデ一夕 6 1の中で切り替わるシーン ( S i) とシーン ( S i + 1) とのモーショ ン (M i) とモーショ ン (M i + 1) の間では、 モ —シヨン (M i) の動き終わりの姿勢 (すなわち動き終わりのホーム ポジション) とモーション (M i + 1) の動き開始の姿勢 (すなわち動 き開始のホームポジション) とが一致するように、 シナリオデ一夕 6 1はモーショ ンの順番を予め指定する。 Between the scene (S i) and the scene (S i +1) that switch between the scenes (S i +1) and the motion (M i +1) -The scenario should be such that the posture at the end of movement of the sill (M i) (ie, the home position at the end of the movement) and the posture at the start of the motion (M i +1) (ie, the home position of the movement start) match. In the evening 61, the motion order is specified in advance.
具体的な例として、 図 1 2と図 1 3と図 1 4を用いて説明する。 図 1 4は図 1 3のシナリオデ一夕 6 1で指示された立体キャラク 夕の動きを骨格デ一夕で動きとして図示したものである。  A specific example will be described with reference to FIGS. 12, 13, and 14. Fig. 14 shows the movement of the three-dimensional character designated by the scenario data 61 in Fig. 13 as the movement of the skeleton data.
図 1 3のシナリオデ一夕 6 1は、 図 1 2 ( a) 〜 ( c ) のモ一シ ヨン M l〜M 3等を利用して立体キャラクタを動かし、 シーン S 1, S 2 , S 3 , · · . , S iを作成するため、 立体キャラクタを動か せるモーションの順番と各モーショ ンの動き開始から動き終了まで の時間の長さ (以下、 時間幅という) を指示している。  The scenario data 61 in FIG. 13 is composed of scenes S 1, S 2, S 3 by moving a three-dimensional character using the motions M 1 to M 3 in FIGS. 12 (a) to 12 (c). In order to create,..., Si, the order of the motions in which the three-dimensional character can be moved and the length of time from the start to the end of each motion (hereinafter referred to as the time width) are specified.
すなわち、 図 1 4の例では、 シーン S 1は時間幅 T 1の間に図 1 2の ( a) のモーション M 1が割りあてられ、 立体キャラクタの姿 勢はモーション M lの最初の姿勢から最後の姿勢 (HP 1 ) までを、 時間幅 T 1だけの時間をかけて動く。  That is, in the example of FIG. 14, the scene S 1 is assigned the motion M 1 of (a) of FIG. 12 during the time width T 1, and the posture of the three-dimensional character is changed from the initial posture of the motion M l It moves to the last posture (HP 1) for a time width T 1.
なお、 図 1 2では説明のため、 モーションのうち代表的な姿勢し か表示していないが、 実際のモーションには、 これら代表的な姿勢 間に立体キャラクタが取るべき、 さらに細かい姿勢がデ一夕として 含まれている。 また、 姿勢がデータとして無い場合も、 公知の、 例 えば 1次元線形補間ゃスプライ ン補間などで、 必要な姿勢を c P U Note that, for the sake of explanation, only representative postures of the motions are shown in FIG. 12, but in the actual motion, a more detailed posture that the three-dimensional character should take between these representative postures is not sufficient. Included as evening. Also, when the posture is not provided as data, the necessary posture can be determined by a known method, for example, one-dimensional linear interpolation ゃ spline interpolation.
(Central Processing Unit)の演算で生成することも可能である。 引き続き、 シナリオデータ 6 1は、 シーン S 2で時間幅 T 2の間 にモーション M 2を割り当てている。 このシナリオデータに従って 立体キャラクタは、 図 1 2 ( b ) のモーション M 2の最初の姿勢 (H P 1 ) から最後の姿勢 (H P 2 ) までを時間幅 T 2だけの時間 をかけて動く。 (Central Processing Unit). Subsequently, in the scenario data 61, the motion M2 is allocated in the scene S2 during the time width T2. According to this scenario data, the three-dimensional character is in the first pose of motion M2 in Fig. 12 (b). It moves from (HP 1) to the last posture (HP 2) with the time width T 2.
この場合、 シナリオデ一夕は時間的に隣接するシーン S 1 とシ一 ン S 2間のモーショ ン M l, M 2と しては、 モーショ ン M lの動き 終わりの姿勢と、 次のモーショ ン M 2の動き開始の姿勢とが同じホ —ムポジショ ン (H P 1 ) となるように設定されている。  In this case, in the scenario data, the motions Ml and M2 between the temporally adjacent scenes S1 and S2 are the motion Ml motion end posture and the next motion The posture at the start of the movement of M2 is set to be the same as the home position (HP1).
そのため、 図 1 4でシーン S 1からシーン S 2への立体キヤラク 夕の動きは滑らかになる。  Therefore, the movement of the three-dimensional character from scene S1 to scene S2 in FIG. 14 is smooth.
同様にして、 図 1 3のシナリオデ一夕は、 時間的に隣接するシー ン S 2とシーン S 3の間のモーショ ン M 2 , M 3と しては、 モ一シ ヨ ン M 2の動き終わりの姿勢と、 次のモーショ ン M 3の動き開始の 姿勢とが同じホームポジショ ン (H P 2 ) となるように設定され、 そのため図 1 4のシーン S 2からシーン S 3への立体キャラクタの 動きは滑らである。  Similarly, the scenario data in FIG. 13 shows that the motions M 2 and M 3 between the temporally adjacent scenes S 2 and S 3 correspond to the motions of the motion M 2. The end position and the start position of the next motion M 3 are set to be the same home position (HP 2). Therefore, the three-dimensional character from scene S 2 to scene S 3 in FIG. 14 is set. The movement is smooth.
このようにして、 シナリオデータは、 時間的に隣接するシーン間 で、 あるシーンに使われるモーション (M i) と、 その次に使われる モーショ ン (M i + 1) との間のホームポジションが共通になるように 予めモ一ショ ンの順番を設定することで、 シーンのつなぎ目で立体 キャラクタの動きが不連続になるのを防止して滑らかな動きを実現 している。  In this way, the scenario data indicates that the home position between the motion (M i) used for one scene and the motion (M i +1) used next between the temporally adjacent scenes is calculated. By setting the order of the motions in advance so that they are common, the movement of the three-dimensional character is prevented from becoming discontinuous at the joints of scenes, and smooth motion is realized.
また、 図 1 3と図 1 4には図示していないが、 切り替わるモ一シ ヨ ンとして、 図 1 2 ( c ) のモーショ ン M 3のように、 動き開始の 姿勢と動き終わりの姿勢が同じホームポジショ ン (H P 3 ) である 場合、 シナリオデ一夕は同じモーショ ン M 3を何度でも繰り返し指 定することが可能である。 これは同じ動作の繰り返し、 例えば左右 の足を交互に踏み出すステップの繰り返す場合に利用できる。 Although not shown in FIGS. 13 and 14, as the switching mode, as shown in motion M3 in FIG. 12 (c), the posture at the start of movement and the posture at the end of movement are as follows. If the home position is the same (HP 3), it is possible to specify the same motion M 3 as many times as possible in Scenario Day. This is a repetition of the same action, for example, left and right It can be used when repeating the step of alternately stepping on the foot of the user.
この場合は、 ひとつのモーショ ンを所定回数だけ繰り返し利用す るので、 2回の繰り返しのモーショ ン、 3回の繰り返しのモ一ショ ンと繰り返しごとに別々のモーショ ンを用意しておく場合に比べ、 端末 9 2のモーショ ンデ一夕べ一ス 1 5に備えるモーショ ンが少な くてすみ、 経済的である。  In this case, since one motion is used repeatedly a predetermined number of times, two motions, three motions, and a separate motion for each repetition are prepared. In comparison, there are few motions to prepare for the motion day 15 of the terminal 9 2, which is economical.
図 1 1のモーション切替え描画手段 1 2は、 図 1 5に示す処理を 行うものである。  The motion switching drawing means 12 in FIG. 11 performs the processing shown in FIG.
図 1 5において、 (ステップ 1 ) でシナリオデータ 6 1 を読み込 み、 (ステップ 2 ) ではシナリオデータで指定されたモーショ ンを モーショ ンデータベースよ り取り込む。 (ステップ 3 ) では各モ一 ショ ン M iの時間スケールを各モ一ショ ン M iの最初から最後まで の動きが時間幅 T iで完了するように時間スケールの調整する。  In FIG. 15, scenario data 61 is read in (step 1), and the motion specified by the scenario data is fetched from the motion database in (step 2). In step (3), the time scale of each motion Mi is adjusted so that the movement from the beginning to the end of each motion Mi is completed within the time width Ti.
ここで調整とは、 モ一ショ ンの時間スケールの伸張 · 圧縮を行う ことをいう。  Here, the adjustment means extending and compressing the time scale of the motion.
(ステップ 4 ) では、 時間スケールを調整したモーショ ン M i を シナリオデータに従って順番に並べる。 元々、 モーショ ンはキーフ レームを情報と して所有するものであるので、 キーフ レームと次の キーフレームとの間のデータは補間によって生成する必要がある。 そこで (ステップ 5 ) では、 キーフ レーム補間を行う。 なお、 キ 一フレーム補間としては、 1次元線形補間、 スプライ ン非線型補間 など既知の方法がいくつも存在するが、 何れの手法を用いても同等 の効果を奏することができるので、 本発明はその補間方法は限定し ない。  In (Step 4), the motions Mi whose time scales have been adjusted are arranged in order according to the scenario data. Since motion originally possesses a keyframe as information, the data between the keyframe and the next keyframe must be generated by interpolation. Therefore, in (Step 5), key frame interpolation is performed. There are many known methods for one-frame interpolation, such as one-dimensional linear interpolation and spline non-linear interpolation, but the same effect can be obtained by using any of these methods. The interpolation method is not limited.
(ステップ 6 ) では、 フレームレー ト毎に並べられたモーショ ン に従って立体キャラクタの姿勢を決定し、 レンダリ ングし、 表示手 段 1 6に立体キヤラク夕を表示する。 In (Step 6), the motions arranged for each frame rate Determine the posture of the three-dimensional character according to, render, and display the three-dimensional character on display means 16.
以上の処理を、 シナリオデ一夕 6 1が指定したモーションの最後 の動きが完了するまで行う ものである。  The above processing is performed until the last motion of the motion specified by Scenario 1 is completed.
このように、 サーバ一 9 1 から端末 9 2に送信するのはシナリォ デ一夕 6 1のみであるので、 送信するデ一夕量が小さ くネッ トヮー ク 5 3の負担が軽くてすむ。  As described above, since only the scenario data 61 is transmitted from the server 91 to the terminal 92, the amount of data transmitted is small and the load on the network 53 is light.
しかも、 シーンの切り換えの際には、 切り替わるモーショ ンが立 体キャラクタに同じ姿勢を取らせるべく、 共通するホームポジショ ンのタイ ミ ングで切り替わり を実行するので、 シーンとシーンの繋 ぎ目の部分のグラフィ ック表示は滑らかである。  In addition, when the scene is switched, the switching motion is performed at the same home position timing so that the standing character takes the same posture. The graphic display of is smooth.
また、 上記の実施の形態では、 実行中と次に実行する動きパ夕一 ンとに共通する、 換言すれば、 完全一致のホームポジショ ンのタイ ミ ングで実行する動きパターンを切り換えてシーンの切り換えを実 行したが、 実行中と次に実行する動きパターンとにほぼ共通するポ ジシヨ ンのタイ ミ ングで実行する動きパターンを切り換えてシーン の切り換えを実行するように各シーンの時間を決定するよう端末側 を構成しても、 ほぼ同様な効果を期待できる。 (実施の形態 5 )  Also, in the above embodiment, the motion pattern to be executed is switched between the motion pattern to be executed at the timing of the home position that is completely coincident with the motion pattern to be executed and the motion pattern to be executed next, in other words, The switching was executed, but the time of each scene was determined so that the switching of the scene was executed by switching the motion pattern to be executed at the timing of the position almost common to the motion pattern being executed and the next to be executed Almost the same effect can be expected even if the terminal is configured to perform (Embodiment 5)
図 1 6〜図 1 8は (実施の形態 5 ) を示す。  FIGS. 16 to 18 show (Embodiment 5).
図 1 6において、 端末 3 2はネッ トワーク 5 3 を介してサーバー 3 1 と接続されている。 1 4は端末 3 2の形状デ一夕ペース、 1 5 はモーションデ一夕ベース、 1 8はメモリ、 7 4はサーバ一 3 1の シナリオデータベース、 7 5は形状データベース、 7 6はモーショ ンデ—夕ベースである。 In FIG. 16, the terminal 32 is connected to the server 31 via the network 53. 1 4 is the terminal 3 2 shape data overnight pace, 1 5 is motion data overnight base, 1 8 is memory, 7 4 is server 3 1 scenario database, 7 5 is shape database, 7 6 is motion It is evening-based.
なお、 端末 3 2のモーショ ンデータベース 1 5と形状データべ一 ス 1 4は、 CD— R OMや DVD (Digital Video Disc) 、 書き換 えが可能な半導体 RAM、 ハー ドディスク、 または、 書き換え可能 な光ディ スク等で構成することができる。 また、 メモリ 1 8は、 書 き換えが可能な半導体: AM、 ハー ドディスク、 または、 書き換え 可能な光ディスク等で構成する。  The motion database 15 and the shape database 14 of the terminal 32 are CD-ROM, DVD (Digital Video Disc), rewritable semiconductor RAM, hard disk, or rewritable. It can be composed of a simple optical disc or the like. The memory 18 is made of a rewritable semiconductor: AM, a hard disk, a rewritable optical disk, or the like.
また、 ここでサーバ一 3 1 とは、 クライアン ト一サーバ一型のい わゆるサ一バー専用マシンを意味するとともに、 ビアヅ一ビア型の いわゆるサーバー機能とクライアン ト機能の両機能を一台のマシン に持たせたものもサーバーと呼んでいる。  Here, the server 31 refers to a so-called server dedicated machine of a client / server type, and also includes both a server function and a client function of a via / via type as one unit. What you have on a machine is also called a server.
形状デ一夕べ一ス 1 4, 7 5には、 いろいろな種類の立体キャラ クタに関するデ一夕が保管されている。 各デ一夕にはそれぞれ固有 の識別番号が割り当てられている。  Shape data 14 and 75 store data on various types of three-dimensional characters. Each day is assigned a unique identification number.
一例を挙げるならば、 いろいろな 3次元キャラクタの骨格モデル- それに対応した腕、 足、 顔、 胴体といったポリ ゴンで構成された各 部位のデ一夕、 ポリゴンの表面に貼り付けるテキスチャなどが識別 番号で管理され保管されている。  For example, various 3D character skeleton models-corresponding numbers of polygons such as arms, legs, face, body, etc. Managed and stored.
ただし、 形状デ一夕ベース 1 4, 7 5とに保管されているデータ は必ずしも一致するものではな く、 サーバー 3 1の形状デ一夕べ一 ス 7 5にあっても、 端末 3 2の形状データべ一ス 1 4には保管され ていないデータもある。  However, the data stored in the shape data bases 14 and 75 do not always match, and even if the data is stored in the shape data base 75 of the server 31, the shape of the terminal 32 is not Some data is not stored in database 14.
同様に、 モーショ ンデータべ一ス 1 5 , 7 6には、 各立体キャラ クタに対応する動きのデータが保管されている。 それぞれのモーシ ョ ンには固有の識別番号が付与され、 モーショ ンデータベース 1 5 内で管理され保存されている。 これらのデータベースに保管されて いるデータは必ずしも一致するものではなく、 サーバー 3 1 のモー シヨ ンデ一夕べ一ス 7 6にあっても、 端末 3 2のモーションデ一夕 ベース 1 5には保管されていないデ一夕もある。 Similarly, motion data bases 15 and 76 store motion data corresponding to each three-dimensional character. Each motion is assigned a unique identification number, and the motion database 15 Managed and stored within The data stored in these databases is not always the same, and is stored in the motion data base of the terminal 32 even though it is in the motion data server 76 on the server 31. There is not even one night.
不足データ検索手段 7 1 は、 サーバー 3 1から送信されたシナリ ォデ一夕 6 1で指定された形状データおよびモーショ ンがすべて、 形状デ一夕ベース 1 4およびモーションデータベース 1 5に含まれ るかどうかを調査する。  Insufficient data search means 7 1 includes all the shape data and motion specified in scenario 61 sent from server 31 in shape data base 14 and motion database 15 Investigate whether or not.
この調査は、 図 1 3に示したシナリオデ一夕 6 1のモーション指 定情報中のモ一ショ ンの識別番号 (Μ 1 , Μ 2, · ' · , Μ ;ί ) で 行う ことができる。  This investigation can be performed using the motion identification numbers (Μ1, Μ2, · ', Μ; ί) in the motion specification information of scenario data 61 shown in Fig. 13.
も し、 端末 3 2の各デ一夕ベースに含まれていないデ一夕がある 場合、 不足デ一夕検索手段 7 1 は、 デ一夕要求手段 7 2にこのデー 夕の識別情報を伝える。 デ一夕要求手段 7 2はネッ トワーク 5 3 を 経由して、 サーバー 3 1のデ一夕選択手段 7 3に、 不足データのダ ゥンロー ド要求とその (または、 それらの) データの識別情報とダ ゥンロー ド要求を出した端末 3 2の識別番号 (例えば、 I Ρァ ドレ ス等) を伝える。  If there is a data that is not included in each data base of the terminal 32, the missing data search means 71 sends the identification information of this data to the data request means 72. . The data requesting means 72 sends the data request for missing data and the identification information of the data (or those data) to the data selecting means 73 of the server 31 via the network 53. The identification number (for example, an I-address) of the terminal 32 that has issued the download request is transmitted.
データ選択手段 7 3は、 ダウンロー ド要求とデータの識別情報と から該当するデ一夕を形状デ一夕ベース 7 5 またはモーショ ンデー 夕べ一ス 7 6から探し出し、 ダウンロー ド要求を出した端末 3 2の 識別番号と共にデータ送信手段 1 に伝える。  The data selection means 73 finds the corresponding data from the download request and the data identification information from the shape data base 75 or the motion data evening 76, and the terminal that issued the download request 3 2 To the data transmission means 1 together with the identification number.
データ送信手段 1は、 受け取った識別番号先の端末 3 2に対して ネッ トワーク 5 3 を経由して受け取ったデータを送信する。  The data transmission means 1 transmits the received data via the network 53 to the terminal 32 of the received identification number.
端末 3 2のデ一夕受信手段 1 1は、 受け取ったデ一夕をメモリ 1 8に保存する。 The terminal 3 2 data receiving means 1 1 stores the received data Save to 8.
モーショ ン切替え描画手段 1 2は、 形状デ一夕べ一ス 1 4とモ一 シヨ ンデータベース 1 5およびメモリ 1 8に保存されているデータ を用い、 シナリオデ一夕 6 1で指示された通りの作画を行い表示手 段 1 6にグラフィ ックを表示する。  The motion switching drawing means 12 uses the shape database 14 and the data stored in the motion database 15 and the memory 18 to draw as specified in the scenario data 61. And display the graphic on display means 16.
図 1 7は端末 3 2の処理のフローチャー トを示す。 シナリオデ一 夕 6 1は、 ネッ トワーク 5 3を介してサーバ一 3 1から端末 3 2に 転送済みである。  FIG. 17 shows a flowchart of the processing of the terminal 32. The scenario data 61 has already been transferred from the server 31 to the terminal 32 via the network 53.
図 1 7において、 (ステップ B 1 ) ではシナリオデータ 6 1が端 末 3 2に読み込みされる。 (ステップ B 2 ) では不足デ一夕検索手 段 7 1が形状デ一夕ベース 1 4及びモーショ ンデ一夕べ一ス 1 5を 検索して、 シナリオデ一夕 6 1が指定するすべての形状デ一夕およ びモーションについて、 存在するか否かを、 形状デ一夕およびモ一 シヨ ンの識別情報によって調べ、 その結果を (ステップ B 3 ) で判 定する。  In FIG. 17, in step B 1, the scenario data 61 is read to the terminal 32. In step B 2, the missing data overnight search means 71 searches the shape data base 14 and the motion data base 15, and searches all the shape data specified by the scenario data 61. For overnight and motion, it is checked whether or not it exists, based on the shape data and motion identification information, and the result is determined in (Step B3).
(ステップ B 3 ) において存在していなかつたと判定された場合 には、 (ステップ B 4 ) でデ一夕要求手段 7 2が不足している形状 データ (または/および) モーショ ンを端末 3 2に転送するように サーバー 3 1に要求する。 このとき、 要求した端末 3 2の識別番号 も付与してサーバー— 3 1に当該要求を送信する。  If it is determined in step B3 that the data does not exist, in step B4, the shape data (or / and) motion lacking the data requesting means 72 is transmitted to the terminal 32. Request server 31 to forward. At this time, the request is transmitted to the server 31 with the identification number of the terminal 32 requested.
サーバ一 3 1の処理を図 1 8に示す。  FIG. 18 shows the processing of the server 31.
図 1 8の (ステップ B 2 1 ) においてサーバ一 3 1のデ一夕選択 手段 7 3は、 端末 3 2から要求された識別番号のモーションをサ一 バ一 3 1内のモーションデータベース 7 6よ り検索し、 データ送信 手段 1へ送る。 (ステップ B 2 2 ) においてデ一夕送信手段 1 は、 このモーショ ンを要求した端末 3 2 に転送する。 このとき端末 3 2の識別番号に よ り転送先を特定する。 In (Step B 21) in FIG. 18, the server selection means 73 of the server 31 transmits the motion of the identification number requested from the terminal 32 to the motion database 76 in the server 31. And sends it to data transmission means 1. In (Step B22), the data transmission means 1 transfers the motion to the terminal 32 which has requested this motion. At this time, the transfer destination is specified by the identification number of the terminal 32.
図 1 7に戻り、 (ステップ B 5 ) では転送されたモーショ ン (す なわち、 不足データ) は、 端末 3 2のデ一夕受信手段 1 1で受信し、 メモ リ 1 8に保持される。  Referring back to FIG. 17, at step B 5, the transferred motion (that is, missing data) is received by the data receiving means 11 of the terminal 32 and is stored in the memory 18. .
(ステップ B 6 ) では、 モーション切換描画手段 1 2がモ一ショ ンをシナリオデータ 6 1 の指定どおりに組み合わせ、 一連のモ一シ ヨ ンを生成し立体キャラクタを作画し、 (ステップ B 7 ) で表示手 段 1 6で表示する。 レンダリ ングの方法などは、 (実施の形態 1 ) と同様である。  In (Step B6), the motion switching drawing means 12 combines the motions as specified in the scenario data 61, generates a series of motions and draws a three-dimensional character, and (Step B7) To display in step 16. The rendering method and the like are the same as in (Embodiment 1).
この実施の形態では、 サーバー 3 1 から端末 3 2に転送されるの はデータ容量の小さいシナリォデ一夕 6 1であるので通信時間が短 く、 また万一、 端末 3 2 に必要なキャラクタデ一夕およびモーショ ンが不足していた場合は、 そのときだけ、 不足していたキャラクタ データまたはモーショ ンを転送するので、 従来のように毎回、 キヤ ラク夕デ一夕およびモーショ ンを転送していた場合に比べ通信時間 を短くできる。  In this embodiment, since the data transferred from the server 31 to the terminal 32 is a small data area 61 having a small data capacity, the communication time is short, and the character data required for the terminal 32 is short. If the evening and motion were insufficient, only the missing character data or motion would be transferred, so the character and motion were transferred every time as before. The communication time can be shortened compared to the case.
この (実施の形態 5 ) では、 不足デ一夕がモーショ ンデ一夕と し たが、 これ以外に、 形状データが不足していた場合も同様に、 端末 3 2がサーバー 3 1 にデ一夕要求し、 サーバー 3 1 がデータベース から要求されたデ一夕を検索し端末 3 2にネッ トワーク 5 3 を介し て送信することによ り、 端末の不足データが補われ、 シナリオデー 夕通りの表示が可能となる。 (実施の形態 6 ) In this (Embodiment 5), the missing data is set as motion data. However, in the case where the shape data is insufficient, the terminal 32 is connected to the server 31 similarly. Server 31 retrieves the requested data from the database and sends it to the terminal 32 via the network 53, thereby compensating for the lack of data on the terminal. Display becomes possible. (Embodiment 6)
図 1 9 と図 2 0は (実施の形態 6 ) を示す。  FIGS. 19 and 20 show (Embodiment 6).
図 1 9は本発明の A V同期再生装置を示し、 楽曲演奏手段 1 0 1 は、 楽曲デ一夕を読込み、 それに基づき音楽演奏を行う。 楽曲デ一 夕は M I D I ( Musical Instrumental D igital Interface) 規格の ように、 音楽の演奏テンポ、 音色、 音調などの音楽演奏に必要な全 てのパラメ一夕を規定している。 このような M I D Iデ一夕から音 楽を演奏する方式は、 既に多くのシステムが商品化された既知の技 術であるので、 ここでは説明を省略する。  FIG. 19 shows an AV synchronous reproducing apparatus according to the present invention. The music playing means 101 reads music data and plays music based on it. The music composition defines all parameters necessary for music performance, such as music performance tempo, tone, and tone, as in the MIDI (Musical Instrumental Digital Interface) standard. Such a method of playing music from mid-day is a well-known technology that has already been commercialized for many systems, and therefore a description thereof is omitted here.
この楽曲演奏手段 1 0 1は、 現在演奏している楽曲位置をリアル タイムに更新する。 本実施の形態での楽曲位置の特定は曲頭からの 総拍数で行う。 しかし、 その特定方法に関しては、 楽曲位置が一意 に特定できるものであれば、 どのような方法でもよい。 現在演奏し ている音は、 曲頭から何拍目であるか (以下、 これを拍 I Dと定義 する) によって楽曲位置が特定される。 さらに、 本実施の形態の演 奏の基本であるテンポ情報は、 拍の単位時間 (以下、 テンポ時間と 定義する) で規定する。 これも演奏テンポを制御する情報であれば- どのような情報でもよい。  The music playing means 101 updates the position of the music currently being played in real time. In the present embodiment, the music position is specified by the total number of beats from the beginning of the music. However, any method may be used as long as the music position can be uniquely specified. The position of the song is specified by the number of beats from the beginning of the tune that is currently being played (hereinafter, this is defined as beat ID). Further, the tempo information, which is the basis of the performance of the present embodiment, is defined by a unit time of a beat (hereinafter, defined as tempo time). This can also be any information that controls the performance tempo.
同期情報テーブル 1 0 2は、 楽曲位置として拍 I Dと、 テンポ情 報としてテンポ時間と、 それを更新した時刻 (以下、 これを同期情 報更新時刻と定義する) とを対応づけて一時的に記憶する。  The synchronization information table 102 temporarily associates a beat ID as a music position, a tempo time as tempo information, and a time at which the tempo was updated (hereinafter, this is defined as a synchronization information update time). Remember.
同期情報更新手段 1 0 3は、 楽曲演奏手段 1 0 1が演奏している 拍 I Dと、 テンポ時間と、 その更新時刻とを同期情報テーブル 1 0 The synchronization information updating means 103 stores the beat ID played by the music playing means 101, the tempo time, and the updated time in the synchronization information table 10.
2へ記憶させる。 Store it in 2.
楽曲位置算定手段 1 0 4は、 現在時刻と同期倩報テーブル 1 0 2 の同期情報から現在時刻に対応した楽曲位置を算定する。 その楽曲 位置は、 以下の式 (A) で算定する。 The music position calculating means 104 is a synchronizing information table 1002 with the current time. The music position corresponding to the current time is calculated from the synchronization information. The song position is calculated by the following formula (A).
H ( t c ) = H t + ( ( t c - t ) /P t ) · · · H (t c) = H t + ((t c-t) / P t)
(A) (A)
H ( t c ) 現在時刻に対応した楽曲位置 (拍 I D)  H (t c) Music position corresponding to the current time (beat ID)
t c 現在時刻  t c Current time
H t : 同期情報テ一ブル 1 0 2の拍 I D  H t: Synchronization information table 102 beat ID
t : 同期情報テーブル 1 0 2の同期情報更新時刻  t: Synchronization information update time of synchronization information table 102
P t : 同期情報テーブル 1 0 2のテンポ時間  P t: Tempo time of synchronization information table 102
フレーム出力手段 1 0 6は、 楽曲演奏手段 1 0 1が演奏している 楽曲データと対応づけられた C Gデ一夕から、 楽曲位置算定手段 1 04が算定する楽曲位置に基づき楽曲デ一夕と同期したフ レームデ —夕を、 フ レームデータを一時的に記憶するフ レームノ ッファ 1 0 5へ出力する。  The frame output means 106 receives the music data based on the music position calculated by the music position calculation means 104 from the CG data associated with the music data being played by the music performance means 101. Synchronized frame data — outputs evening to frame buffer 105, which temporarily stores frame data.
C Gデ一夕は、 必ずしも楽曲位置に 1対 1に対応づけられてい る必要はない。 複数のキーフレームデ一夕さえあれば、 フ レーム補 間技術を用いて楽曲位置に対応したフ レームデ一夕を算出すること ができる。 このようなフ レーム補間技術は、 スプライ ン補間や線形 補間などのように、 既知の技術が数多くあるためその説明を省略す る。 これらのフレーム補間技術を用いれば、 開始時刻と終了時刻と キーフ レームデ一夕から定義された C Gデータから、 任意のフ レー ムの進行位置 F t (開始時刻≤ F t≤終了時刻) のフ レームデ一夕 を算出することが可能である。  It is not always necessary for CG de night to correspond one-to-one to song positions. As long as there are a plurality of key frame data, the frame data corresponding to the music position can be calculated using the frame interpolation technique. Since there are many known techniques for such frame interpolation techniques, such as spline interpolation and linear interpolation, their description will be omitted. Using these frame interpolation techniques, the CG data defined from the start time, the end time, and the key frame data can be used to determine the frame position of any frame advance position F t (start time ≤ F t ≤ end time). It is possible to calculate overnight.
したがって、 演奏デ一夕に関連づけられた C Gデ一夕は、 開始時 刻と終了時刻とを、 楽曲位置に対応づける (以下、 対応づけられた 楽曲位置を、 開始拍 I D、 終了拍 I Dとそれぞれ定義する) ことに より生成される。 このように関連づけられた C Gであれば、 以下の 式 (B) を用いてフレームの進行位置 F tを算出することができる, F t = H s + ( ( H ( t c ) - H s ) / (H e -H s ) ) … (B) Therefore, the CG data related to the performance data corresponds the start time and the end time to the music position. The song position is defined as start beat ID and end beat ID, respectively). If the CG is related in this way, the progress position Ft of the frame can be calculated using the following equation (B), Ft = Hs + ((H (tc) -Hs) / (H e -H s))… (B)
H ( t c ) : 楽曲位置算定手段 1 04が算定した現在時刻に対応 した 楽曲位置 (拍 I D )  H (tc): music position (beat ID) corresponding to the current time calculated by music position calculation means 104
H s : 開始時刻に対応づけられた開始拍 I D  H s: Start beat ID associated with start time
H e : 終了時刻に対応づけられた終了拍 I D  H e: End beat ID associated with end time
以上のように算出されたフレームの進行位置に基づき、 フ レーム 補間技術を用いて樂曲演奏手段 1 0 1の演奏に同期したフレームデ —夕を、 常にフレームバッファ 1 0 5へ出力することができる。  The frame data synchronized with the performance of the musical performance means 101 can be always output to the frame buffer 105 by using the frame interpolation technique based on the progress position of the frame calculated as described above. .
映像表示手段 1 0 7は、 フ レームバッファ 1 0 5に記憶されたフ レームデータを、 順々に表示更新することにより動画像を表示する, 図 2 0はこのように構成された AV同期再生装置の具体的なフロ 一チヤートを示す。  The video display means 107 displays a moving image by sequentially updating the display of the frame data stored in the frame buffer 105, and FIG. 20 shows the AV synchronous reproduction thus configured. The following is a specific flowchart of the device.
A V同期再生装置は、 以下の動作を C Gデ一夕に対応づけられた 開始拍 I Dから終了拍 I Dまで繰り返す。 ここでは、 開始拍 I D (H s ) 、 終了拍 I D (H e ) に同期させて再生する処理について 説明する。  The AV synchronous playback device repeats the following operation from the start beat ID to the end beat ID associated with CG data. Here, a process of reproducing in synchronization with the start beat ID (Hs) and the end beat ID (He) will be described.
(ステップ S 1 0 1 ) では楽曲位置算定手段 1 04が、 式 ( A) を用いて現在時刻 ( t ) に対応する楽曲位置 (H ( t ) ) を算定す る ο  In (Step S101), the music position calculating means 104 calculates the music position (H (t)) corresponding to the current time (t) using the equation (A).
(ステップ S 1 0 2 ) では楽曲位置 ( H ( t ) ) が、 開始拍 I D (H s ) より小さい場合は何もせず終了し、 開始拍 I D (H s ) 以 上ならば (ステッ プ S 1 0 3 ) へ進む。 In step S102, if the music position (H (t)) is smaller than the start beat ID (Hs), nothing is done and the process ends, and no more than the start beat ID (Hs). If it is above, go to (Step S103).
(ステ ッ プ S 1 03 ) では楽曲位置 (H ( t ) ) が終了拍 I D (H e ) より大きい場合は何もせず終了し、 終了拍 I D (H e ) 以 下ならば (ステップ S I 04 ) へ進む。  At (step S103), if the music position (H (t)) is larger than the end beat ID (He), nothing is done, and if it is less than the end beat ID (He), (step SI04) Proceed to).
(ステップ S 1 04 ) ではフ レーム出力手段 1 0 6が、 式 (B) に基づき算出したフ レームの進行位置 F tに基づき、 フ レーム補間 技術を用いてフ レームデ一夕を算出し、 フ レームバッファ 1 0 5へ 出力する。 (実施の形態 7 )  In (Step S104), the frame output means 106 calculates a frame date using the frame interpolation technique based on the frame advance position Ft calculated based on the equation (B), and Output to frame buffer 105. (Embodiment 7)
図 2 1は (実施の形態 7 ) を示し、 この実施の形態では図 1 9に 示した (実施の形態 6 ) の同期情報更新手段 1 0 3に代わって同期 情報リアルタイム更新手段 2 0 1が設けられている点だけが異なつ ており、 その他の構成要素は (実施の形態 6 ) と同一である。  FIG. 21 shows (Embodiment 7). In this embodiment, the synchronization information real-time updating means 201 replaces the synchronization information updating means 103 of (Embodiment 6) shown in FIG. The only difference is that they are provided, and the other components are the same as in (Embodiment 6).
同期情報リアルタイム更新手段 2 0 1は、 楽曲演奏手段 1 0 1が データを更新した場合のみ、 同期情報テーブル 1 0 2の同期情報を 更新する。 例えば、 テンポ情報が変化したり、 楽曲位置が変更され たり した場合のみ更新する。 したがって、 テンポ情報, 楽曲位置が 更新されない場合は更新しない。  The synchronization information real-time updating means 201 updates the synchronization information in the synchronization information table 102 only when the music playing means 101 updates data. For example, it is updated only when the tempo information changes or the music position changes. Therefore, if the tempo information and music position are not updated, they are not updated.
(実施の形態 8 ) (Embodiment 8)
図 2 2は (実施の形態 8 ) を示し、 この実施の形態では図 1 9に 示した (実施の形態 6 ) の同期情報更新手段 1 0 3に代わって同期 情報定期更新手段 3 0 1が設けられている点だけが異なっており、 その他の構成要素は (実施の形態 6 ) と同一である。 同期情報定期更新手段 3 0 1は、 一定周期で同期情報テーブル 1 0 2を更新する。 その周期は、 1柏に 1回というような楽曲の単位 でも、 3 0秒に 1回というような一般的な単位でもよい。 (実施の形態 9 ) FIG. 22 shows (Embodiment 8). In this embodiment, the synchronization information periodic updating means 301 replaces the synchronization information updating means 103 of (Embodiment 6) shown in FIG. The only difference is that they are provided, and the other components are the same as in (Embodiment 6). The synchronization information periodic updating means 301 updates the synchronization information table 102 at regular intervals. The period may be a music unit such as once per kashiwa or a general unit such as once every 30 seconds. (Embodiment 9)
図 2 3は (実施の形態 9 ) を示し、 この実施の形態では図 1 9に 示した (実施の形態 6 ) に演算時間予想手段 40 1が追加されてい る。 その他の構成要素は (実施の形態 6 ) と同一である。  FIG. 23 shows (Embodiment 9). In this embodiment, a calculation time estimating means 401 is added to (Embodiment 6) shown in FIG. The other components are the same as in (Embodiment 6).
演算時間予想手段 4 0 1は、 C Gデ一夕のポリゴン数, 頂点数か ら演算にかかる時間を予想する。 一般的に、 演算時間は演算対象と なるポリゴン数, 頂点数に比例する。 常に次の演算対象となるポリ ゴン数, 頂点数から演算時間を予想する。 さらに演算時間予想手段 4 0 1は、 計算機の C P U処理能力などの処理能力も考慮して予想 する。 したがって、 フレームよ りポリゴン数の異なる場合でも、 そ れに応じた演算時間を予想することができる。  The calculation time estimating means 401 predicts the time required for the calculation from the number of polygons and the number of vertices in CG data. In general, the calculation time is proportional to the number of polygons and vertices to be calculated. The operation time is always estimated from the number of polygons and vertices to be processed next. Further, the calculation time estimating means 401 estimates in consideration of the processing capacity such as the CPU processing capacity of the computer. Therefore, even when the number of polygons is different from that of the frame, it is possible to predict the calculation time according to the number.
フ レーム出力手段 1 0 6は、 演算時間予想手段 40 1が予想した 演算時間を、 楽曲位置算定手段 1 04が算定した楽曲位置に加えた 楽曲位置に同期したフレームデータをフレームバッファ 1 0 5へ出 力する。 フ レームの進行位置は、 以下の式 (C) を用いて算出する F t = H s + ( ( H ( t c ) — H s ) / (H e— H s ) ) +  The frame output means 106 adds the calculation time predicted by the calculation time estimating means 401 to the music position calculated by the music position calculating means 104, and transfers frame data synchronized with the music position to the frame buffer 105. Output. The traveling position of the frame is calculated using the following equation (C): F t = H s + ((H (t c) — H s) / (H e — H s)) +
( E t /P t ) … (E t / P t)…
( C) (C)
H ( t c ) : 楽曲位置算定手段 1 0 4が算定した  H (t c): Calculated by music position calculation means 104
現在時刻に対応した楽曲位置 (拍 I D)  Song position corresponding to the current time (beat ID)
H s : 開始時刻に対応づけられた開始拍 I D H e : 終了時刻に対応づけられた終了拍 I DH s: Start beat ID associated with start time He: End beat ID associated with the end time
E t : 演算時間予想手段 4 0 1が予想した演算時間 E t: Calculation time prediction means calculated by calculation means 4 0 1
P t : 同期情報テーブル 1 0 2のテンポ時間  P t: Tempo time of synchronization information table 102
以上のように算出されたフレームの進行位置に基づき、 フレーム 補間技術を用いて演奏手段 1 0 1の演奏に同期したフレームデ一夕 を、 常にフレームバッファ 1 0 5へ出力することができる。  Based on the progress position of the frame calculated as described above, the frame data synchronized with the performance of the performance means 101 can be always output to the frame buffer 105 using the frame interpolation technique.
(実施の形態 1 0 ) (Embodiment 10)
図 2 4は (実施の形態 1 0 ) を示し、 この実施の形態では図 1 9 に示した (実施の形態 6 ) に演奏遅れ予想手段 5 0 1が追加されて いる。 その他の構成要素は (実施の形態 6 ) と同一である。  FIG. 24 shows (Embodiment 10). In this embodiment, performance delay estimating means 501 is added to (Embodiment 6) shown in FIG. The other components are the same as in (Embodiment 6).
演奏遅れ予想手段 5 0 1は、 楽曲データに基づきそのデータが実 際に音として、 スピーカなどの出力装置から出力されるまでの演奏 遅れ時間を予想する。 一般的に、 演奏遅れ時間は楽曲位置の同時発 生音数に比例する。 さらに、 計算機の C P U処理能力などの処理能 力も考慮して予想する。 したがって、 楽曲位置を特定すれば楽曲デ —夕から リアルタイムに、 その楽曲位置の演奏遅れ時間を予想する ことができる。  The performance delay estimating means 501 predicts a performance delay time until the data is actually output as a sound from an output device such as a speaker based on the music data. Generally, the performance delay time is proportional to the number of simultaneous sounds at the music position. In addition, the forecast is made in consideration of the processing capacity such as the CPU processing capacity of the computer. Therefore, if the music position is specified, the performance delay time of the music position can be predicted in real time from the music data evening.
同期情報更新手段 1 0 3は、 楽曲位置に演奏遅れ予想手段 5 0 1 が予想した演奏遅れ時間を加えた値を同期情報テーブル 1 0 2へ出 力する。  The synchronization information updating means 103 outputs to the synchronization information table 102 a value obtained by adding the performance delay time predicted by the performance delay estimating means 501 to the music position.
(実施の形態 1 1 ) (Embodiment 11)
図 2 5は (実施の形態 1 1 ) を示し、 この実施の形態では図 1 9 に示した (実施の形態 6 ) に表示遅れ予想手段 5 0 1が追加されて いる。 その他の構成要素は (実施の形態 6 ) と同一である。 FIG. 25 shows (Embodiment 11). In this embodiment, display delay estimating means 501 is added to (Embodiment 6) shown in FIG. I have. The other components are the same as in (Embodiment 6).
表示遅れ予想手段 5 0 1は、 映像表示手段 1 0 7がフ レームバッ フ ァ 1 0 5のデ一夕を実際に表示するまでの表示遅れ時間を予想す る。 これは、 映像表示手段 1 0 7のレンダリング能力などの性能か ら予想することができる。  The display delay estimating means 501 predicts a display delay time until the video display means 107 actually displays the frame buffer 105 data. This can be expected from the performance of the image display means 107 such as the rendering ability.
フ レーム出力手段 1 0 6は、 表示遅れ予想手段 5 0 1が予想した 表示遅れ時間を、 楽曲位置算定手段 1 04が算定した楽曲位置に加 えた値のフ レームデータを算出する。 フ レーム時間の値を、 以下の 式 (D ) を用いて算出する。  The frame output means 106 calculates frame data of a value obtained by adding the display delay time estimated by the display delay estimating means 501 to the music position calculated by the music position calculating means 104. The value of the frame time is calculated using the following equation (D).
F t = H s + ( (H ( t c ) - H s ) / (H e -H s ) ) +  F t = H s + ((H (t c)-H s) / (H e -H s)) +
( D t /P t ) … (D t / P t)…
(D) (D)
H ( t c ) : 楽曲位置算定手段 1 0 4が算定した  H (t c): Calculated by music position calculation means 104
現在時刻に対応した楽曲位置 (拍 I D)  Song position corresponding to the current time (beat ID)
H s : 閧始時刻に対応づけられた開始拍 I D  H s: Start beat corresponding to start time I D
H e : 終了時刻に対応づけられた終了拍 I D  H e: End beat ID associated with end time
D t : 表示遅れ予想手段 6 0 1が予想した表示遅れ時間 D t: Display delay estimating means 600 1 predicted display delay time
P t : 同期情報テ一ブル 1 0 2のテンポ時間 P t: Tempo time of synchronization information table 102
以上のように算出されたフ レームの進行位置に基づき、 フレーム 補間技術を用いて演奏手段 1 0 1の演奏に同期したフ レームデータ を常に、 フレ一ムバッファ 1 0 5へ出力することができる。  On the basis of the frame progress position calculated as described above, frame data synchronized with the performance of the playing means 101 can be always output to the frame buffer 105 by using the frame interpolation technique.
(実施の形態 1 2 ) (Embodiment 12)
図 2 6は (実施の形態 1 2 ) を示し、 この実施の形態では図 1 9 に示した (実施の形態 6 ) に特殊再生開始通知手段 7 0 1 と特殊再 生終了通知手段 7 0 2 と特殊再生同期情報更新手段 7 0 3が追加さ れている。 その他の構成要素は (実施の形態 6 ) と同一である。 特殊再生開始通知手段 7 0 1は、 ォベレー夕によ り特殊再生が閧 始された場合に特殊再生開始信号を発生させる。 特殊再生終了通知 手段 7 0 2は、 ォペレ一夕により特殊再生が終了された場合、 特殊 再生終了信号を発生させる。 FIG. 26 shows (Embodiment 12). In this embodiment, the trick play start notifying means 701 and the trick play are added to FIG. 19 (Embodiment 6). A live end notifying means 720 and a trick play synchronization information updating means 703 are added. The other components are the same as in (Embodiment 6). The special reproduction start notifying means 7001 generates a special reproduction start signal when the special reproduction is started by the observation. The special reproduction end notifying means 7002 generates a special reproduction end signal when the special reproduction is ended by the operation.
特殊再生同期情報更新手段 7 0 3は、 特殊再生開始通知手段 7 0 1が特殊再生開始信号を発生した時点から特殊再生終了通知手段 7 0 2が特殊再生終了信号を発生するまでの間の特殊再生中は、 同期 情報テーブル 1 0 2の楽曲位置とテンポ時間とを、 その特殊再生の 種類に応じて更新する。 例えば、 倍速再生の場合は、 通常のテンポ 時間を 1 / 2にして、 通常の 2倍の速さで拍 I Dを進めていく。  The special reproduction synchronizing information updating means 7 03 is a special reproduction start information notifying means 7 0 1 from the time when the special reproduction start signal is generated until the special reproduction end notifying means 7 0 2 generates the special reproduction end signal. During playback, the music position and tempo time in the synchronization information table 102 are updated according to the type of the special playback. For example, in the case of double-speed playback, the normal tempo time is reduced to 1/2, and the beat ID is advanced at twice the normal speed.
(実施の形態 1 3 ) (Embodiment 13)
図 2 7〜図 3 2は (実施の形態 1 3 ) を示す。  27 to 32 show (Embodiment 13).
尚、 以下の説明では、 コンピュータグラフィ ック (以下、 " C G グラフィ ック" という) によって描画する、 例えば 3次元の C Gグ ラフィ ック画像を C Gキャラクタという。  In the following description, for example, a three-dimensional CG graphic image drawn by computer graphics (hereinafter, referred to as “CG graphics”) is referred to as a CG character.
図 2 7に示す A V同期再生装置は、 ユーザーまたはオペレータか らの演奏開始命令を入力し、 楽曲データを保存する楽曲データ保存 部 D 1 と、 楽曲デ一夕保存部 D 1から出力された楽曲データに基づ いて演奏音の波形データを生成する出力波形生成部 D 2 と、 出力波 形生成部 D 2からの一定量の波形データを一時的に蓄える音データ 用バッファ D 3を備えている。 さらに、 A V同期再生装置は、 音デ 一夕用バッファ D 3からの波形デ一夕をアナログ信号の音信号に変 換する D / A変換器 D 4 と、 D Z A変換器 D 4からの音信号を増幅 するアンプ D 5 と、 アンプ D 5からの増幅された音信号を演奏とし て発音するスピーカ D 6 を備えている。 The AV synchronous playback device shown in Fig. 27 receives a performance start command from a user or an operator, and stores music data in the music data storage unit D1 and the music output from the music data storage unit D1. An output waveform generator D2 that generates waveform data of the performance sound based on the data, and a sound data buffer D3 that temporarily stores a certain amount of waveform data from the output waveform generator D2. . Further, the AV synchronous playback device converts the waveform data from the audio data buffer D3 into an analog audio signal. A D / A converter D4 for converting the sound signal, an amplifier D5 for amplifying the sound signal from the DZA converter D4, and a speaker D6 for sounding the amplified sound signal from the amplifier D5 as a performance. I have.
楽曲デ一夕保存部 D 1 は、 書き換え可能な記録媒体、 例えば R A Mによ り構成され、 演奏開始命令を入力する前に C D— R 0 M、 D V Dあるいは類似の記録媒体、 又は通信回線によって再生すべき楽 曲の楽曲デ一夕を予め取得している。 楽曲デ一夕は (実施の形態 6 ) と同一であるので、 説明を省略する。 また、 音データ用バッフ ァ D 3が一定量の波形データを記憶することによ り、 スピーカ D 6 にて再生する演奏が途切れるのを防止できる。  The music data storage unit D1 is composed of a rewritable recording medium, for example, a RAM, and is reproduced by a CD-R0M, DVD or similar recording medium or a communication line before a performance start command is input. The music data for the music to be played has been obtained in advance. Since the music composition is the same as that of the sixth embodiment, the description is omitted. Further, since the sound data buffer D3 stores a fixed amount of waveform data, it is possible to prevent the performance reproduced by the speaker D6 from being interrupted.
また、 楽曲デ一夕保存部 D 1 には、 同期メ ッセージを出力するた めの拍発生部 D 7が接続されている。 拍発生部 D 7は、 楽曲データ 保存部 D 1からの楽曲データに含まれたテンポ情報に基づいて、 特 定音符、 例えば四分音符 1拍分の楽曲演奏が進行する毎に、 その時 点での楽曲の演奏位置 (拍 ID ) 及びテンポ時間 Temp( i ) (図 2 9参 照) からなる同期メ ッセージを発生する。 拍 ID及びテンポ時間は、 (実施の形態 6 ) と同一であるので、 その説明を省略する。  In addition, a beat generation unit D7 for outputting a synchronization message is connected to the music data storage unit D1. Based on the tempo information included in the music data from the music data storage D1, the beat generation unit D7 generates a specific note, for example, a quarter note, every time the music performance progresses, at that time. A synchronous message consisting of the performance position (beat ID) of the current song and the tempo time Temp (i) (see Fig. 29) is generated. Since the beat ID and the tempo time are the same as in (Embodiment 6), description thereof will be omitted.
拍発生部 D 7には音デ一夕用バッ フ ァ D 3が接続され、 音デ一夕 用バッ フ ァ D 3から D / A変換器 D 4に演奏音の波形データを出力 する毎に、 その出力のタイ ミ ングが音データ用バッファ D 3から拍 発生部 D 7に伝えられる。 例えば 4 4 . 1 K H zの周期で波形デ一夕 を出力したことを拍発生部 D 7 に伝えている。  The sound generator D7 is connected to a sound buffer D3, and each time the performance sound waveform data is output from the sound buffer D3 to the D / A converter D4. The output timing is transmitted from the sound data buffer D3 to the beat generation unit D7. For example, it informs the beat generation unit D7 that the waveform data has been output at a period of 44.1 kHz.
このように構成することによ り、 音デ一夕用バッファ D 3からの 出力のタイ ミ ングは、 拍発生部 D 7において 4 4 . 1 K H zの内部ク ロ ック として機能する。 さらに、 この A V同期再生装置には、 C Gキャラクタの再生処理 を行う機器として、 シナリオデ一夕を保存するシナリオデ一夕保存 部 D 8と、 シナリオデータ保存部 D 8に接続されシナリオデ一夕に 基づいて A V同期指示デ一夕を生成する A V同期指示デ一夕生成部 D 9と、 拍発生部 D 7と、 A V同期指示データ生成部 D 9に接続さ れた表示フレーム決定部 D 1 0と、 C Gレンダリ ング部 D 1 1 と、 フレームバッファ D 1 2と、 モニタ D 1 3が設けられている。 With such a configuration, the timing of the output from the sound buffer D3 functions as an internal clock of 44.1 kHz in the beat generator D7. In addition, the AV synchronous playback device is connected to a scenario data storage unit D8 for storing the scenario data and a scenario data storage unit D8 as a device for playing back the CG character based on the scenario data. An AV synchronization instruction data generation unit D9, a beat generation unit D7, and a display frame determination unit D10 connected to the AV synchronization instruction data generation unit D9, which generate the AV synchronization instruction data; A CG rendering unit D11, a frame buffer D12, and a monitor D13 are provided.
表示フレーム決定部 D 1 0には、 C Gキャラクタの動き (動作) を指示する動きデータを記憶している動きデータ保存部 D 1 4と、 C Gキャラクタの形状を示す C Gキャラクタ形状データを記憶して いる C Gキャラクタ形状デ一夕保存部 D 1 5が接続されている。  The display frame determination unit D10 stores a motion data storage unit D14 that stores motion data for instructing the motion (movement) of the CG character, and CG character shape data that indicates the shape of the CG character. Yes CG character shape data storage unit D15 is connected.
C Gレンダリ ング部 D l 1には、 表示する C Gキャラクタのレン ダリ ングを行うためのカメラ視点情報, 光源情報をそれぞれ記憶す るカメラ視点情報保存部 D 1 6と光源情報保存部 D 1 7が接続され ている。  The CG rendering unit Dl1 includes a camera viewpoint information storage unit D16 and a light source information storage unit D17, which store camera viewpoint information and light source information for rendering the CG character to be displayed. It is connected.
シナリオデータ保存部 D 8と動きデータ保存部 D 1 4と C Gキヤ ラクタ形状デ一夕保存部 D 1 5とカメラ視点情報保存部 D 1 6及び 光源情報保存部 D 1 7は、 書き換え可能な記録媒体、 例えば RAM によ り構成されている。 シナ リオデータ保存部 D 8と動きデータ保 存部 D 1 4及び C Gキャラクタ形状データ保存部 D 1 5は、 演奏開 始命令を入力する前に CD— R OM、 D VDあるいは類似の記録媒 体、 又は通信回線によ り、 シナリオデータ、 動きデータ、 及び C G キャラクタ形状デ一夕をそれぞれ入力して保持している。  Scenario data storage D8, motion data storage D14, CG character shape data storage D15, camera viewpoint information storage D16, and light source information storage D17 are rewritable records. It consists of a medium, for example, RAM. The scenario data storage unit D8, the motion data storage unit D14, and the CG character shape data storage unit D15 store the CD-ROM, DVD, or similar recording medium before the performance start command is input. The scenario data, the motion data, and the CG character shape data are input and stored by the or the communication line.
シナリオデータ保存部 D 8に入力されるシナリオデータは、 複数 の動きデータを楽曲デ一夕に対応させ時系列的に結合することによ り、 C Gキャラクタの一連の動きを生成させるための指示デ一夕で ある。 The scenario data input to the scenario data storage unit D8 is obtained by combining a plurality of motion data in a time series This is an instruction for generating a series of movements of the CG character.
また、 シナリオデータは、 カメラ視点情報と光源情報を含み、 表 示するフレーム毎に動きデ一夕、 C Gキャラクタ形状データ、 カメ ラ視点情報、 及び光源情報を指定する。 また、 シナリオデータは、 カメラ視点情報、 及び光源情報を含んでいる。  The scenario data includes camera viewpoint information and light source information, and specifies the motion data, CG character shape data, camera viewpoint information, and light source information for each frame to be displayed. The scenario data includes camera viewpoint information and light source information.
カメラ視点情報及び光源情報は、 シナリオデ一夕がシナリオデ一 夕保存部 D 8に保存されると同時に、 カメラ視点情報保存部 D 1 6 と光源情報保存部 D 1 7にそれぞれ出力されて保持される。  The camera viewpoint information and the light source information are output and stored in the camera viewpoint information storage unit D 16 and the light source information storage unit D 17 at the same time that the scenario data is stored in the scenario data storage unit D 8. .
尚、 カメラ視点情報及び光源情報は、 仮想のカメラの撮影条件、 及び仮想の光源の照射条件をそれぞれ示す情報であり、 カメラ視点 情報はカメラの位置、 撮影方向、 及びズームを指定するデ一夕によ り構成され、 光源情報は光源の位置、 照射方向、 及び効果を指定す るデ一夕によ り構成されている。  Note that the camera viewpoint information and the light source information are information indicating the shooting conditions of the virtual camera and the irradiation conditions of the virtual light source, respectively. The camera viewpoint information is a data designating the camera position, the shooting direction, and the zoom. The light source information is composed of data specifying the position of the light source, the irradiation direction, and the effect.
A V同期指示デ一夕生成部 D 9は、 シナリオデ一夕によ り分割さ れた各動きデ一夕において、 上述の四分音符 (特定音符) の 1拍分 を基準として、 楽曲データの進行と C Gキャラクタの動きデ一夕の 進行とを対応づけた A V同期指示データを生成する。 つま り、 A V 同期指示データ生成部 D 9は、 四分音符 (特定音符) が 1拍分進行 する毎に、 表示すべきフ レームを指定する A V同期指示データを生 成する。  The AV synchronization instruction data generation unit D9 progresses the music data with respect to one quarter note (specific note) in each motion data divided by the scenario data. The AV synchronization instruction data is generated by associating the CG character with the progress of the CG character. In other words, the AV synchronization instruction data generation unit D9 generates AV synchronization instruction data for specifying a frame to be displayed each time a quarter note (specific note) advances by one beat.
(シナリオデ一夕)  (Scenario de overnight)
ここで、 図 2 8の ( a ) ( b ) を参照して、 シナリオデ一夕及び A V同期指示デ一夕について具体的に説明する。  Here, with reference to (a) and (b) of FIG. 28, the scenario data and the AV synchronization instruction data will be specifically described.
図 2 8の ( a ) は図 2 7に示した A V同期再生装置における楽曲 の拍数、 動きデ一夕とシナリオデータ との関係を示し、 図 2 8の ( b ) は図 2 7に示した AV同期再生装置における楽曲の拍数、 動 きデ一夕、 シナリオデ一夕、 及び A V同期指示デ一夕の関係を示し ている。 (A) in Fig. 28 shows the music in the AV synchronized playback device shown in Fig. 27. Fig. 28 (b) shows the relationship between the number of beats, motion data, and scenario data in the AV synchronized playback device shown in Fig. 27. ,, And the relationship between the AV synchronization instruction data.
図 2 8 ( a ) ( b ) において、 横軸は拍 I Dを示している。 特定 音符と しては任意の音符を採用することができるが、 ここでは上述 したように、 四分音符を拍数の基準となるべき特定音符と して採用 している。 また、 図 2 8 ( b ) は、 図 2 8 ( a) での 1拍目から H 1拍目の部分を拡大して表している。  In FIGS. 28 (a) and (b), the horizontal axis indicates beat ID. Although any note can be used as the specific note, as described above, a quarter note is used as the specific note to be a reference for the number of beats. Further, FIG. 28 (b) shows an enlarged portion from the first beat to the first beat in FIG. 28 (a).
シナリオデ一夕は、 この ( a) に示すように楽曲データ保存部 D 1に保存されている楽曲データでの楽曲の拍数と動きデ一夕保存部 D 1 4に保存されている動きデータのオリ ジナルのフ レームとを対 応づけている。 例えば、 楽曲の拍 I D 1から H 1までが、 シナリオ データによって動きデ一夕 M 1に対応づけられている。 このことに よ り、 1拍目には N 1 1番目のオリ ジナルのフレーム、 また H 1拍 目には N 2 1番目のオリ ジナルのフレームがそれぞれ指定される。 同様に、 楽曲の拍 I D (H 1 + 1 ) から H 2までが、 シナリォデ一 夕によって動きデ一夕 M 2に対応づけられている。 このことによ り . ( H 1 + 1 ) 拍目には N 1 2番目のオリ ジナルのフ レーム、 また H 2拍目には N 2 2番目のオリ ジナルのフ レームがそれぞれ指定され る。 同様に、 楽曲の ( H 2 + 1 ) 拍目から H 3拍目までが、 シナリ ォデ一夕によって動きデータ M 3に対応づけられている。 このこと によ り、 (H 2 + 1 ) 拍目には N 1 3番目のオリ ジナルのフレーム また H 3拍目には N 2 3番目のオリ ジナルのフ レームがそれぞれ指 定される。 尚、 オリ ジナルのフ レームと称しているのは、 実際にモニタ D 1 3に表示されるフレームは、 このオリ ジナルフレームを元に表示フ レーム決定部 D 1 0によ り決定されるフ レームだからである。 As shown in (a), the scenario data overnight shows the number of beats of the music in the music data stored in the music data storage unit D1 and the motion data stored in the motion data storage unit D14. Corresponds to the original frame. For example, the beat IDs 1 to H1 of the song are associated with the motion data M1 by the scenario data. Thus, the first beat specifies the N1 first original frame, and the H1 beat specifies the N2 first original frame. Similarly, the beat IDs (H 1 + 1) to H 2 of the song are associated with the motion M 1 by the Sinariode. Thus, the (H 1 + 1) beat specifies the N 1 2nd original frame, and the H 2 beat specifies the N 2 2nd original frame. Similarly, from the (H2 + 1) th beat to the H3th beat of the musical composition, the motion data M3 is associated with the scenario. As a result, the (H2 + 1) beat specifies the N1 third original frame, and the H3 beat specifies the N2 third original frame. Note that the original frame is referred to as a frame actually displayed on the monitor D13, which is determined by the display frame determination unit D10 based on the original frame. That's why.
上記のような動きデ一夕 と楽曲との対応づけを行う ことによ り、 例えば、 1 0 0フレーム分の動きデ一夕を、 楽曲によっては、 6拍 分で 1 0 0フレーム分の動きを進行させた り、 8拍分で 1 00フレ —ム分の動きを進行させた り と、 ひとつの動きデ一夕を用いていろ いろな動きの進行速度に対応することが可能となり、 動きデータ保 存部 D 1 4の記憶容量を低減できるので、 経済的なものとなる。  By associating the above-mentioned motion data with the music, for example, the motion data for 100 frames can be changed to the motion for 100 frames in six beats depending on the music. It is possible to cope with various speeds of movement using a single movement, such as moving forward or moving 100 frames in eight beats. Since the storage capacity of the data storage unit D 14 can be reduced, it is economical.
(AV同期指示データ)  (AV synchronization instruction data)
AV同期指示デ一夕は、 上述のように、 楽曲デ一夕の進行と C G キャラクタの動きデ一夕の進行とを対応づけるデータであり、 各動 きデ一夕に割り当てたオリ ジナルのフ レームを四分音符 (特定音 符) の 1拍分ずつ等分に分割することによ り生成される。 このよう に A V同期指示データを生成することによ り、 動きデータ M lに割 り当てられた拍 I Dの N l 1〜N 2 1までのオリ ジナルのフ レーム は、 図 2 8 ( b ) に示すように、 楽曲デ一夕の 2 , 3 , 4 ···拍目に それぞれ対応して、 モニタ D 1 3に表示されるフレームの進行位置 を示すためのフ レーム n 2 1, n 3 1 , n 4 1 , ···に分けられる。 尚、 A V同期指示デ一夕によって指定されるフレームの数が必ず しも整数になるとは限らないので、 上記フ レーム n 2 1 , n 3 1 , n 4 1には動きデ一夕保存部 D 1 4に記憶されていないものもある。 しかしながら、 記憶されていないフレームは後段の表示フ レーム決 定部 D 1 0での C Gキャラク夕の再生処理において、 スプライ ン補 間等の公知のデータ補間方法によ り動きデ一夕保存部 D 1 4に記憶 されたフ レームから求められるので問題はない。 As described above, the AV synchronization instruction data is data for associating the progress of the music data with the progress of the motion of the CG character, and the original file assigned to each of the motion data. It is generated by dividing the frame into quarter notes (specific notes), one beat at a time. By generating the AV synchronization instruction data in this way, the original frames from Nl 1 to N 21 of the beat ID allocated to the motion data Ml are as shown in FIG. 28 (b). As shown in the figure, the frames n 2 1 and n 3 for indicating the progress position of the frame displayed on the monitor D 13 correspond to the second, third, fourth,. 1, n 4 1, ... Since the number of frames specified by the AV synchronization instruction is not always an integer, the frames n 21, n 31, and n 41 have the motion data storage unit D. Some are not stored in 14. However, the frames that are not stored are stored in the motion data storage unit D by the well-known data interpolation method such as spline interpolation in the reproduction processing of the CG character in the subsequent display frame determination unit D10. Remember in 14 There is no problem because it is obtained from the frame that was obtained.
同様に、 動きデ一夕 M 2においても、 楽曲データの 1拍分ずつに 対応したフレームの進行位置を示すためのフレーム n 2 2, n 3 2 : n 4 2 , · · · に分けられている。 Similarly, the motion de Isseki M 2, frame n 2 2 to indicate the progress position of the frame corresponding to one beat of the music data, n 3 2: n 4 2 , divided into - - - I have.
図 2 7に示す表示フ レーム決定部 D 1 0は、 表示する CGキャラ クタの各フレームにおいて、 AV同期指示デ一夕、 及び同期メ ッセ ージに基づいて、 次に表示するフレームでの C Gキャラクタの姿勢 を計算して決定する。 詳細には、 フ レームバッ フ ァ D 1 2が画像表 示装置であるモニタ D 1 3に画像を出力する時間間隔を ΔΤとする とき、 表示フ レーム決定部 D 1 0は、 上記拍発生部 D 7からの同期 メ ッセージに含まれたテンポ時間 Temp( i )、 この同期メ ッセージを 入力した時点でフ レームバッ フ ァ D 1 2に書き込まれている C Gキ ャラク夕の動きデータのフレームの進行位置、 次の同期メ ッセージ を入力するときに上記 AV同期指示データによ り指定される C Gキ ャラク夕の動きデ一夕のフレームの進行位置、 及び上記時間間隔△ Tとによって、 フ レームバッ フ ァ D 1 2に書き込む C Gキャラクタ の姿勢を決定する。  The display frame determination unit D 10 shown in FIG. 27 determines the next frame to be displayed based on the AV synchronization instruction data and the synchronization message in each frame of the CG character to be displayed. The posture of the CG character is calculated and determined. More specifically, when the time interval at which the frame buffer D12 outputs an image to the monitor D13, which is an image display device, is ΔΤ, the display frame determination unit D10 includes the above-mentioned beat generation unit D10. The tempo time Temp (i) included in the synchronization message from 7 and the progress position of the frame of the CG character motion data written to the frame buffer D12 when this synchronization message was input When the next synchronization message is input, the frame buffer is determined by the CG character movement specified by the above AV synchronization instruction data, the progress position of the frame of the night, and the time interval ΔT. Determine the posture of the CG character to be written to D12.
尚、 時間間隔 ΔΤの具体的な値は、 例えばモニタ D 1 3が C Gキ ャラク夕を 1秒間に 3 0回表示している場合、 △ Tは 1 / 3 0秒で ある。  The specific value of the time interval ΔΤ is, for example, when the monitor D 13 displays the CG character 30 times per second, ΔT is 1/30 second.
( C Gキャラクタの姿勢の計算)  (Calculation of CG character posture)
表示フ レーム決定部 D 1 0における C Gキャラ クタの姿勢の具体 的な計算方法について、 説明する。  A specific calculation method of the posture of the CG character in the display frame determination unit D10 will be described.
まず、 表示フ レーム決定部 D 1 0は、 拍発生部 D 7から入力した 同期メ ッセージの楽曲の演奏位置 ( i拍目) を AV同期指示デ一夕 と照ら し合わせて、 この同期メ ッセージを入力した時点でフ レーム ノ ツ フ ァ D 1 2に書き込まれている C Gキャラクタの動きデ一夕の フ レームの進行位置 fiと、 次の同期メ ッセージが送られて く るタイ ミ ング ( i + 1拍目) に AV同期指示データによって指定されてい るフ レームの進行位置 F i + 1を求める。 さらに、 表示フ レーム決定 部 D 1 0は、 今回入力した同期メ ッセージの楽曲のテンポ時間 Temp ( i ) によ り示される i拍目から ( i + 1 ) 拍目までの時間長の間に おいて、 上述の時間間隔 ΔΤ秒毎に表示、 進行させる C Gキャラク 夕のフ レームの進行位置 flame(j)を下記の ( 1 ) 式を用いて算出す る。 First, the display frame determination unit D10 sets the performance position (i-th beat) of the music of the synchronization message input from the beat generation unit D7 to the AV synchronization instruction data. When the synchronization message is input, the movement of the CG character written in the frame notes D12 at the time of inputting this synchronization message At the timing (i + 1th beat) when is sent, the progress position F i + 1 of the frame specified by the AV synchronization instruction data is obtained. Further, the display frame determination unit D10 sets the time interval from the i-th beat to the (i + 1) -th beat indicated by the tempo time Temp (i) of the song of the synchronous message input this time. Then, the CG character to be displayed and made to progress at the above-mentioned time interval ΔΤ seconds is calculated using the following equation (1).
flame(j) = fi + (Fi + l— fi) * ( j *△ T /Temp( i ) ) ··· ( 1 )  flame (j) = fi + (Fi + l— fi) * (j * △ T / Temp (i)) ··· (1)
尚、 ( 1 ) 式において、 j は表示フ レーム決定部 D 1 0がーつの 同期メ ッセージを入力してから次の同期メ ッセージを入力するまで に、 フ レームバッファ D 1 2に書き込まれるフ レーム数をカウン ト したカウン ト値である。 つま り、 j の値は、 同期メ ッセージを入力 した時点で 0にセッ トされ、 その後、 C Gキャラクタのフレームが 進行する毎に、 1つずつ (Temp( i )/AT) まで変化する。 また、 ( 1 ) 式において、 i及び Temp( i )の値は、 次の ( i + 1 ) 拍目の 同期メ ッセージを入力するでは同じ値に保たれ、 ( i + 1 ) 拍目の 同期メ ッセージを入力すると、 その同期メ ッセージの値に更新され る o  In equation (1), j is the frame written to the frame buffer D12 between the time when the display frame determination unit D10 inputs one synchronous message and the time when the next synchronous message is input. This is a count value that counts the number of frames. In other words, the value of j is set to 0 when a synchronization message is input, and then changes one by one (Temp (i) / AT) as the CG character frame progresses. In equation (1), the values of i and Temp (i) are maintained at the same value when the next synchronization message at the (i + 1) th beat is input, and the synchronization value at the (i + 1) th beat is input. When a message is entered, it is updated to the value of the synchronization message o
次に、 表示フ レーム決定部 D 1 0は、 動きデータのオリ ジナルの フ レームにスプライ ン補間を適用 して得られた、 フ レームの進行位 置 flaine(j)を変数とする C Gキャラクタの動きデータの関数 P (フ レームの進行位置) を用いて、 表示する各フ レームでの C Gキャラ クタの姿勢を算出、 決定する。 Next, the display frame determination unit D10 calculates a CG character having the progress position flaine (j) of the frame, which is obtained by applying spline interpolation to the original frame of the motion data, as a variable. Motion data function P (F The position of the CG character in each frame to be displayed is calculated and determined using the (frame progress position).
表示フ レーム決定部 D 1 0は、 C Gキャラクタの姿勢を決定した 後、 決定した C Gキャラクタの姿勢からこの C Gキャラクタでの各 ポリゴンの頂点座標デ一夕を算出する。 さらに、 表示フ レーム決定 部 D 1 0は、 C Gキャラクタ形状デ一夕保存部 D 1 5からシナリオ デ一夕によって指定された C Gキャラク夕形状デ一夕を読み出し、 この C Gキャラクタ形状デ一夕と算出した頂点座標データとを用い て C Gキャラクタの画像デ一夕を作成する。 その後、 表示フ レーム 決定部 D 1 0は、 作成した画像データをシナリオデ一夕とともに C Gレンダリ ング部 D l 1 に出力する。 尚、 表示フ レーム決定部 D 1 0は、 シナリオデータが終了したかどうかの判断を行うために、 C Gレンダリ ング部 D 1 1 に送ったフ レームの進行位置 Πを記録して いる o  After determining the attitude of the CG character, the display frame determining unit D10 calculates the vertex coordinate data of each polygon of the CG character from the determined attitude of the CG character. Further, the display frame determination unit D10 reads out the CG character shape data designated by the scenario data from the CG character shape data storage unit D15, and stores the CG character shape data The image data of the CG character is created using the calculated vertex coordinate data. Thereafter, the display frame determining unit D10 outputs the created image data to the CG rendering unit D11 together with the scenario data. The display frame determination unit D10 records the progress position 進行 of the frame sent to the CG rendering unit D11 in order to determine whether the scenario data has been completed.o
C Gレンダリ ング部 D 1 1 は、 シナリオデータに含まれたカメラ 視点情報及び光源情報に基づいて、 各フ レーム毎に C Gキャラクタ のレンダリ ングを行う。 すなわち、 C Gレンダリ ング部 D 1 1 は、 表示フ レーム決定部 D 1 0からの画像データに基づいて、 指定され たカメラの撮影条件、 及びスポッ トライ トゃ太陽光など指定された 光源の照射条件で照らされた C Gキャラクタの画像データを作成す る。 C Gレンダリ ング部 D 1 1 は、 レンダリ ングした後の C Gキヤ ラク夕の画像データをフ レームバッファ D 1 2 に出力して書き込む。 そして、 フ レームバッ ファ D 1 2は C Gキャラクタの画像データを モニタ D 1 3に出力して、 モニタ D 1 3は C Gキャラクタを表示す 。 ここで、 図 2 9に示すタイ ミ ングチャー トを参照して、 楽曲演奏 の進行と、 フ レーム毎に行われる表示フ レーム決定部 D 1 0での姿 勢計算、 及び C Gレンダリ ング部 D 1 1でのレンダリ ング処理との 関係について説明する。 The CG rendering unit D11 renders a CG character for each frame based on camera viewpoint information and light source information included in the scenario data. That is, based on the image data from the display frame determination unit D10, the CG rendering unit D11 performs the shooting conditions of the specified camera and the irradiation conditions of the specified light source such as spotlight and sunlight. Creates image data of the CG character illuminated with. The CG rendering unit D11 outputs the rendered CG color image data to the frame buffer D12 for writing. Then, the frame buffer D12 outputs the image data of the CG character to the monitor D13, and the monitor D13 displays the CG character. Here, referring to the timing chart shown in FIG. 29, the progress of the music performance, the posture calculation by the display frame determination unit D10 performed for each frame, and the CG rendering unit D1 The relationship with the rendering processing in 1 will be described.
図 2 9は、 図 2 7に示した A V同期再生装置における楽曲デ一夕、 CGキャラクタの姿勢計算、 及びレンダリ ング処理の時間的な関係 を示すタイ ミングチャー トである。 尚、 図 2 9において、 矢印" T" は時間の経過を示し、 縦線" A" " B" 及び" C" は、 楽曲デ 一夕による楽曲演奏の進行、 表示フレーム決定部 D 1 0での C Gキ ャラク夕の姿勢計算の進行、 及び C Gレンダリ ング部 D 1 1でのレ ンダリ ング処理の進行をそれぞれ示している。  FIG. 29 is a timing chart showing a temporal relationship between the music data reproduction, the CG character posture calculation, and the rendering processing in the AV synchronous reproduction device shown in FIG. 27. In FIG. 29, the arrow "T" indicates the passage of time, and the vertical lines "A", "B", and "C" indicate the progress of the music performance in the music data and the display frame determination unit D10. 3 shows the progress of the posture calculation of the CG character and the progress of the rendering process in the CG rendering unit D11.
図 2 9に示すように、 楽曲デ一夕による楽曲演奏が楽曲の先頭か ら ( i ) 拍目に達したとき、 拍発生部 D 7から表示フ レーム決定部 D 1 0に対して同期メ ッセージが出力される。 この同期メ ヅセージ は、 上述のように、 現時点での楽曲の演奏位置である ( i ) 拍目と、 楽曲のテンポ時間 Temp( i )とが含まれている。  As shown in FIG. 29, when the music performance of the music data reaches the (i) beat from the beginning of the music, the beat generation unit D7 sends a synchronization message to the display frame determination unit D10. A message is output. As described above, this synchronous message includes the (i) beat, which is the current playing position of the music, and the tempo time Temp (i) of the music.
表示フ レーム決定部 D 1 0は、 同期メ ッセージを利用しつつ ΔΤ 秒毎に進行させる C Gキャラクタのフ レームの進行位置 flame(j)を 上述の ( 1 ) 式を用いて計算する。 そして、 表示フ レーム決定部 D 1 0は、 C Gキャラクタの姿勢を動きデ一夕の関数 P (フ レームの 進行位置) を用いて決定し、 C Gキャラクタを構成する各ポリゴン の頂点座標デ一夕を算出する。 図において、 この姿勢計算に要する 時間 (頂点座標データの算出時間も含む) を、 ( i ) 拍目の姿勢計 算、 ( i ) + (AT/Temp( i )) 拍目の姿勢計算、 · · ' と示して いる。 その後、 表示フ レーム決定部 D 1 0は、 算出した頂点座標デ —夕 とシナリオデ一夕に指定された C Gキャラクタ形状デ一夕 とに 基づいて、 画像データを瞬時に作成する。 The display frame determining unit D10 calculates the frame advance position flame (j) of the CG character to be advanced every ΔΤ seconds using the synchronous message by using the above equation (1). Then, the display frame determination unit D10 determines the posture of the CG character by using a function P (the progress position of the frame) of the movement data, and obtains the vertex coordinate data of each polygon constituting the CG character. Is calculated. In the figure, the time required for this posture calculation (including the calculation time of the vertex coordinate data) is represented by (i) the posture calculation on the beat, (i) + (AT / Temp (i)) the posture calculation on the beat, · '. After that, the display frame determining unit D 10 calculates the calculated vertex coordinate data. —Create image data instantly based on the evening and the CG character shape designated for the scenario.
作成された画像データは、 その都度、 表示フレーム決定部 D 1 0 から C Gレンダリ ング部 D l 1に出力され、 C Gキャラクタのレン ダリ ング処理が開始される。  The created image data is output from the display frame determination unit D10 to the CG rendering unit D11 each time, and the rendering process of the CG character is started.
(楽曲演奏の再生処理)  (Reproduction process of music performance)
まず、 楽曲演奏の再生処理について図 3 0を参照して説明する。 図 3 0は楽曲演奏の再生処理のフローチャー トを示し、 楽曲演奏 の開始する前に、 楽曲データ保存部 D 1及びシナリオデ一夕保存部 D 8は、 記録媒体または通信回線によ り楽曲デ一夕、 及びシナリオ デ一夕をそれぞれ取得する (ステップ S 1 ) 。  First, the reproduction process of the music performance will be described with reference to FIG. Fig. 30 shows a flowchart of the music performance playback process. Before the music performance starts, the music data storage unit D1 and the scenario data storage unit D8 store the music data via a recording medium or a communication line. One night and scenario de night are acquired (step S 1).
続いて、 A V同期指示デ一夕生成部 D 9は、 シナリオデ一夕保存 部 D 8からのシナリオデ一夕に基づいて、 A V同期指示デ一夕を生 成する (ステップ S 2 ) 。  Subsequently, the AV synchronization instruction data generation unit D9 generates an AV synchronization instruction data based on the scenario data from the scenario data storage unit D8 (step S2).
図 3 1は A V同期指示デ一夕生成部 D 9での A V同期指示データ の作成手順を示している。 図 3 1に示すように、 A V同期指示デー 夕生成部 D 9が、 シナリオデ一夕保存部 D 8からシナリオデ一夕を 入力すると (ステップ S 1 3 ) 、 AV同期指示データ生成部 D 9は シナリオデータによ り指定された動きデータ M iのオリ ジナルのフ レームを四分音符 (特定音符) の 1拍分ずつ等分に分割することに よ り、 AV同期指示デ一夕を生成する (ステップ S 1 4) 。  Fig. 31 shows the procedure for creating the AV synchronization instruction data in the AV synchronization instruction data generation unit D9. As shown in FIG. 31, when the AV synchronization instruction data generation unit D 9 inputs the scenario data from the scenario data storage unit D 8 (step S 13), the AV synchronization instruction data generation unit D 9 outputs the scenario data. By dividing the original frame of the motion data Mi specified by the data into equal quarter beats (specific notes) by one beat, the AV synchronization instruction data is generated ( Step S14).
図 3 0に戻って (ステップ S 3 ) では、 楽曲データ保存部 D 1が 演奏開始の命令を入力すると、 楽曲データ保存部 D 1は記憶してい る楽曲データを出力波形生成部 D 2に順に出力する。  Returning to FIG. 30 (step S3), when the music data storage unit D1 inputs a performance start command, the music data storage unit D1 sequentially stores the stored music data to the output waveform generation unit D2. Output.
出力波形生成部 D 2は、 楽曲データに基づいてデジタル形式の演 奏音の波形デ一夕を生成して (ステップ S 4 ) 、 音デ一夕用バヅ フ ァ D 3に逐次出力する。 音デ一夕用バッファ D 3は、 一定量の波形 データを一時的に蓄える (ステップ S 5 ) 。 その後、 波形データを 音データ用バッ フ ァ D 3から D/A変換器 D 4に出力する。 The output waveform generator D2 performs digital performance based on the music data. A waveform of the played sound is generated (step S4), and is sequentially output to a buffer for sound data D3. The sound buffer D3 temporarily stores a certain amount of waveform data (step S5). After that, the waveform data is output from the sound data buffer D3 to the D / A converter D4.
D/A変換器 D 4は、 入力した波形データをアナログ形式の音信 号に変換する (ステップ S 6 ) 。 そして、 D/A変換器 D 4は、 音 信号をアンプ D 5に出力して、 アンプ D 5にて音信号を増幅する (ステップ S 7 ) 。 続いて、 スピーカ D 6によ り、 アンプ D 5から の音信号を演奏として発音する (ステップ S 8 ) 。  The D / A converter D4 converts the input waveform data into an analog sound signal (step S6). Then, the D / A converter D4 outputs the sound signal to the amplifier D5, and the amplifier D5 amplifies the sound signal (step S7). Subsequently, the sound signal from the amplifier D5 is generated as a performance by the speaker D6 (step S8).
音デ一夕用バッ フ ァ D 3は、 D/A変換器 D 4に波形データを出 力する毎に、 そのタイ ミ ングを拍発生部 D 7に伝える (ステップ S 9 ) o  The sound buffer D3 transmits the timing to the beat generator D7 every time the waveform data is output to the D / A converter D4 (step S9).
続いて、 拍発生部 D 7は、 楽曲デ一夕に含まれているテンポ時間 に基づいて、 四分音符 1拍分の楽曲が進行する毎に、 その時点での 楽曲の演奏位置 ( i拍目) 及びテンポ時間 Temp( i )からなる同期メ ッセージを発生し、 表示フ レーム決定部 D 1 0に出力する (ステツ プ S 1 0 ) 。  Subsequently, based on the tempo time included in the song data, the beat generation unit D7, every time a song of one quarter note progresses, plays the music position (i beat The synchronization message consisting of the eye and the tempo time Temp (i) is generated and output to the display frame determination unit D10 (step S10).
次に、 拍発生部 D 7は、 楽曲の終わりであるかどうかについて判 定する (ステップ S 1 1 ) 。 楽曲の終わりでなければ、 再度、 (ス テツプ S 4 ) に示す処理に戻る。 楽曲の終わりであれば、 演奏を終 了する (ステップ S 1 2 ) 。  Next, the beat generating section D7 determines whether or not the music is at the end (step S11). If it is not the end of the music, the process returns to the process shown in (Step S4) again. If it is the end of the music, the performance ends (step S12).
( C Gキャラク夕の再生処理)  (CG character playing process)
次に、 C Gキャラクタの再生処理について図 3 2を用いて説明す る o  Next, the reproduction process of the CG character will be described with reference to FIG.
図 3 2は C Gキャラクタの再生処理を示しており、 表示フ レーム 決定部 D 1 0が拍発生部 D 7から同期メ ッセージを入力すると (ス テツプ S 1 5 ) 、 表示フ レーム決定部 D 1 0は jの値を 0とする (ステップ S 1 6 ) 。 尚、 jは、 上述のように、 表示フ レーム決定 部 D 1 0がーつの同期メ ッセージを入力してから次の同期メ ッセ一 ジを入力するまでに、 フレームバッファ D 1 2に書き込まれるフレ —ム数をカウン ト したカウン ト値である。 Figure 32 shows the playback process of the CG character. When the deciding unit D10 inputs a synchronization message from the beat generating unit D7 (step S15), the display frame deciding unit D10 sets the value of j to 0 (step S16). Note that j is written to the frame buffer D12 between the time when the display frame determination unit D10 inputs one synchronization message and the time when the next synchronization message is input, as described above. The number of frames to be counted.
続いて、 表示フ レーム決定部 D 1 0は、 拍発生部 D 7から入力し た同期メ ッセージの楽曲の演奏位置と A V同期指示デ一夕 とを照ら し合わせることによ り、 現時点 ( i拍目) 及び次に同期メ ッセ一ジ を入力する時点 ( i + 1拍目) での C Gキャラクタの動きデータの フ レームの進行位置 fi及び F i + 1を求める。 その後、 表示 フ レー ム決定部 D 1 0は、 今回入力した同期メ ッセージの楽曲のテンポ時 間 Temp( i ) によ り示される i拍目から ( i + 1 ) 拍目までの時間長 の間において、 上述の時間間隔△ T秒毎に表示、 進行させる C Gキ ャラク夕のフ レームの進行位置 flame( j)を上述の ( 1 ) 式を用いて 算出する (ステップ S 1 7 ) 。  Subsequently, the display frame determination unit D10 compares the music playing position of the synchronization message input from the beat generation unit D7 with the AV synchronization instruction data to determine the current time (i. The position of the CG character's motion data, fi and F i +1, at the time of inputting the synchronization message (the beat) and the next synchronous message (i + 1) are obtained. After that, the display frame determination unit D10 calculates the time length from the i-th beat to the (i + 1) -th beat indicated by the tempo time Temp (i) of the song of the synchronous message input this time. During the interval, the progress position flame (j) of the frame of the CG character to be displayed and progressed at the above-mentioned time interval ΔT seconds is calculated by using the above-mentioned formula (1) (step S17).
次に、 表示フ レーム決定部 D 1 0は、 フ レームの進行位置 flame (j)を変数とする C Gキャラクタの動きデータの関数 P (フ レームの 進行位置) を用いて、 表示する各フ レームでの C Gキャラ ク タの姿 勢を算出する (ステップ S 1 8 ) 。  Next, the display frame determining unit D 10 uses the function P (frame progress position) of the motion data of the CG character with the frame progress position flame (j) as a variable to display each frame to be displayed. The posture of the CG character is calculated at step (step S18).
続いて、 表示フ レーム決定部 D 1 0は、 算出した C Gキャラクタ の姿勢とシナリオデ一夕によって指定された C Gキャラクタ形状デ —夕 とに基づいて、 フ レームの進行位置 flame(j)における画像デ一 夕を生成して、 C Gレンダリ ング部 D 1 1に出力する (ステップ S 1 9 ) 。 C Gレンダリ ング部 D 1 1は、 シナリオデ一夕に含まれたカメラ 視点情報及び光源情報に基づいて、 入力した画像データにレンダリ ングを施す (ステップ S 2 0 ) 。 Subsequently, based on the calculated CG character's posture and the CG character shape data designated by the scenario data, the display frame determination unit D10 determines the image data at the frame progress position flame (j). An image is generated and output to the CG rendering unit D11 (step S19). The CG rendering unit D11 renders the input image data based on the camera viewpoint information and the light source information included in the scenario data (step S20).
続いて、 C Gレンダリ ング部 D 1 1は、 レンダリ ングした後の画 像デ一夕をフレームバッファ D 1 2に書き込む (ステップ S 2 1 ) o そして、 モニタ D 1 3 (図 2 7 ) は、 フ レームバッファ D 1 2から の画像デ一夕を表示する (ステップ S 2 2 ) 。  Subsequently, the CG rendering unit D 11 writes the rendered image data into the frame buffer D 12 (step S 21). Then, the monitor D 13 (FIG. 27) The image data from the frame buffer D12 is displayed (step S22).
また、 表示フレーム決定部 D 1 0は、 (ステップ S 1 9 ) に示す 処理を行う とき、 C Gレンダリ ング部 D 1 1に出力したフレームの 進行位置 fiを記録する (ステップ S 2 3 ) 。 表示フ レーム決定部 D 1 0は、 記録した進行位置 fiに基づいて、 シナリオデータの最後ま で表示が終わっているかどうかの判断を行う (ステップ S 24 ) 。  When performing the process shown in (Step S19), the display frame determining unit D10 records the progress position fi of the frame output to the CG rendering unit D11 (Step S23). The display frame determination unit D10 determines whether the display of the scenario data has been completed up to the end based on the recorded traveling position fi (step S24).
表示フ レーム決定部 D 1 0は、 最後まで表示していない場合、 j の値を一つ増やし (ステップ S 2 5 ) 、 ステップ S 1 7に示す処理 に戻る。  When the display is not completed, the display frame determination unit D10 increases the value of j by one (step S25), and returns to the processing shown in step S17.
一方、 最後まで表示している場合、 C Gキャラクタの描画を終了 する (ステップ S 2 6 ) 。  On the other hand, if the display is completed, the drawing of the CG character is ended (step S26).
(実施の形態 1 4 ) (Embodiment 14)
図 3 3と図 3 4は (実施の形態 1 4 ) を示す。  FIGS. 33 and 34 show (Embodiment 14).
この実施の形態は (実施の形態 1 3 ) を示す図 2 7に、 楽曲のテ ンポ変更指示を入力して、 拍発生部から出力される同期メ ッセージ のテンポ時間を変更するテンポ変更情報入力部 D 1 8が追加されて いる。 その他の構成要素は (実施の形態 1 3 ) と同一である。  In this embodiment, the tempo change information for changing the tempo time of the synchronous message output from the beat generation unit by inputting a tempo change instruction of the music in FIG. 27 showing (Embodiment 13) is shown. An input section D 18 has been added. The other components are the same as those in (Embodiment 13).
図 3 3に示すように、 テンポ変更情報入力部 D 1 8が拍発生部 D 7に接続されている。 このテンポ変更情報入力部 D 1 8は、 楽曲の 再生中 ( i拍目) にユーザ一や外部機器から楽曲のテンポ変更指示 を入力した場合、 下記の ( 2 ) 式に示すように、 楽曲デ一夕保存部 D 1 に保存されている楽曲データに含まれたオリ ジナルのテンポ時 間 Temp( i )に比例定数 Csを乗算して、 新たなテンポ時間 Temp( i ) を永める。 As shown in Figure 33, the tempo change information input section D 18 is a beat generation section D Connected to 7. The tempo change information input section D18, when a tempo change instruction of the music is input from the user or an external device during the reproduction of the music (i-th beat), as shown in the following equation (2), The new tempo time Temp (i) is extended by multiplying the original tempo time Temp (i) included in the music data stored in the overnight storage section D1 by the proportionality constant Cs.
新たなテンホ。時間 Temp( i ) = ォリシ、、ナルのテンホ。時間 Temp( i ) * Cs ( 2 )  A new Tenho. Time Temp (i) = Orishi, Naru's Tenho. Time Temp (i) * Cs (2)
新たなテンポ時間 Temp( i )は、 テンポ変更情報入力部 D 1 8から 拍発生部 D 7に出力され、 拍発生部 D 7から出力される同期メ ッセ —ジのテンポ時間と して用いられる。 尚、 テンポ変更情報入力部 D 1 8は、 楽曲データ保存部 D 1 が再生する楽曲デ一夕を取得したと き、 記録媒体または通信回線によ り、 同時にオリ ジナルのテンポ時 間 Temp( i )を取得する。  The new tempo time Temp (i) is output from the tempo change information input section D18 to the beat generation section D7, and is used as the tempo time of the synchronous message output from the beat generation section D7. Can be The tempo change information input section D18 simultaneously obtains the music data to be played back by the music data storage section D1, and simultaneously obtains the original tempo time Temp (i) via a recording medium or a communication line. ) To get.
次に、 この A V同期再生装置における楽曲演奏の再生処理につい て説明する。 尚、 A V同期指示データの作成手順、 及び C Gキャラ クタの再生処理については、 図 3 1及び図 3 2にそれぞれ示した (実施の形態 1 3 ) のものと同様であるのでそれらの重複した説明 は省略する。  Next, a description will be given of a reproduction process of a music performance in the AV synchronous reproduction device. The procedure for creating the AV synchronization instruction data and the reproduction process of the CG character are the same as those of the (Embodiment 13) shown in FIGS. 31 and 32, respectively. Is omitted.
図 3 4は図 3 3に示した A V同期再生装置における楽曲演奏の再 生処理を示している。  FIG. 34 shows a process of playing back a music performance in the AV synchronous playback device shown in FIG.
まず (ステップ S 3 1 ) では、 楽曲演奏の開始する前に楽曲デ一 夕保存部 D l、 及びシナリオデータ保存部 D 8は、 記録媒体または 通信回線によ り、 楽曲デ一夕及びシナリオデータをそれぞれ取得す る o First, in (step S31), before starting the music performance, the music data storage unit Dl and the scenario data storage unit D8 store the music data and the scenario data using a recording medium or a communication line. Get each O
続いて (ステップ S 3 2 ) では、 AV同期指示デ一夕生成部 D 9 は、 シナリオデータ保存部 D 8からのシナリオデ一夕に基づいて、 A V同期指示データを生成する。  Subsequently, in (Step S32), the AV synchronization instruction data generation unit D9 generates AV synchronization instruction data based on the scenario data from the scenario data storage unit D8.
楽曲データ保存部 D 1が、 演奏開始の命令を入力すると (ステツ プ S 3 3 ) 、 テンポ変更情報入力部 D 1 8はテンポ変更指示が入力 されたかどうかについて調べる。 テンポ変更指示が入力された場合、 テンポ変更情報入力部 D 1 8は、 入力したテンポ変更指示に基づい て、 拍発生部 D 7から出力される同期メ ッセージのテンポ時間を変 更する (ステップ S 3 4 ) 。  When the music data storage section D1 inputs a performance start command (step S33), the tempo change information input section D18 checks whether a tempo change instruction has been input. When a tempo change instruction is input, the tempo change information input section D18 changes the tempo time of the synchronization message output from the beat generation section D7 based on the input tempo change instruction (step S8). 3 4).
楽曲デ一夕保存部 D 1は、 記憶している楽曲デ一夕を出力波形生 成部 D 2に順次出力する。 出力波形生成部 D 2は、 楽曲デ一夕に基 づいてデジタル形式の演奏音の波形デ一夕を生成して (ステップ S 3 5 ) 、 音データ用バッ フ ァ D 3に逐次出力する。 音デ一夕用バッ ファ D 3は、 一定量の波形デ一夕を一時的に蓄える (ステップ S 3 6 ) 。 その後、 波形デ一夕を音データ用バッ フ ァ D 3から D/A変 換器 D 4に出力する。  The music data storage unit D1 sequentially outputs the stored music data to the output waveform generation unit D2. The output waveform generator D2 generates a digital waveform of the performance sound in digital form based on the music data (step S35), and sequentially outputs it to the sound data buffer D3. The sound buffer D3 temporarily stores a fixed amount of waveform data overnight (step S36). After that, the waveform data is output from the sound data buffer D3 to the D / A converter D4.
D/ A変換器 D 4は、 入力した波形デ一夕をアナログ形式の音信 号に変換する (ステップ S 3 7 ) 。 そ して、 D/A変換器 D 4は音 信号をアンプ D 5に出力して、 アンプ D 5にて音信号を増幅する (ステップ S 3 8 ) 。 続いて、 スピーカ D 6によ り、 アンプ D 5か らの音信号を演奏と して発音する (ステップ S 3 9 ) 。  The D / A converter D4 converts the input waveform data into an analog sound signal (step S37). Then, the D / A converter D4 outputs the sound signal to the amplifier D5, and the amplifier D5 amplifies the sound signal (step S38). Subsequently, the sound signal from the amplifier D5 is generated as a performance by the speaker D6 (step S39).
音デ一夕用バッ フ ァ D 3は、 D/A変換器 D 4に波形デ一夕を出 力する毎に、 そのタイ ミ ングを拍発生部 D 7に伝える (ステップ S 4 0 ) 。 続いて、 拍発生部 D 7は、 楽曲データに含まれているテンポ時間 に基づいて、 四分音符 1拍分の楽曲が進行する毎に、 その時点での 楽曲の演奏位置 ( i拍目) 及びテンポ時間 Temp( i )からなる同期メ ヅセージを発生し、 表示フレーム決定部 D 1 0に出力する (ステツ プ S 4 1 ) 。 Each time the sound buffer D3 outputs the waveform data to the D / A converter D4, it transmits the timing to the beat generator D7 (step S40). Then, based on the tempo time included in the music data, the beat generation unit D7 performs the music for one quarter note, and the music performance position (i-th beat) at that time Then, a synchronous message including the tempo time Temp (i) is generated and output to the display frame determining unit D10 (step S41).
次に、 拍発生部 D 7は、 楽曲の終わりであるかどうかについて判 定する (ステップ S 4 2 ) 。 楽曲の終わりでなければ、 再度、 (ス テツプ S 3 4 ) に示す処理に戻る。 楽曲の終わりであれば、 演奏を 終了する (ステップ S 4 3 ) 。  Next, the beat generating section D7 determines whether or not the music is at the end (step S42). If it is not the end of the music, the process returns to the process shown in (Step S34) again. If it is the end of the music, the performance ends (step S43).
このようにして (実施の形態 1 4) の AV同期再生装置では、 表 示フレーム決定部は、 フ レーム補間方法を用いることによ り、 楽曲 デ一夕に同期した動画の画像データを生成することができ、 楽曲演 奏の再生処理に動画の再生処理を自動的に合わせて、 それらの再生 処理を常に同期させることができる。  In this way, in the AV synchronous reproducing apparatus according to the (embodiment 14), the display frame determining unit generates the image data of the moving image synchronized with the music data by using the frame interpolation method. This makes it possible to automatically match the playback process of the moving image with the playback process of the music performance, and always synchronize the playback processes.
(実施の形態 1 5 ) (Embodiment 15)
図 3 5〜図 3 7は (実施の形態 1 5 ) の AV同期再生装置を示す。 この実施の形態では、 (実施の形態 1 3 ) を示す図 2 7の C Gキ ャラク夕の再生の代わりに、 フレームのデ一夕長が一定でない一連 の動画データを楽曲演奏に同期して再生する構成とした。 それ以外 の各部は、 (実施の形態 1 3 ) と同様であるのでそれらの重複した 説明は省略する。  FIGS. 35 to 37 show the AV synchronous reproducing apparatus according to the (Embodiment 15). In this embodiment, instead of the reproduction of the CG character shown in FIG. 27 showing (Embodiment 13), a series of moving image data whose frame length is not constant is reproduced in synchronization with the music performance. Configuration. The other parts are the same as those in (Embodiment 13), and the duplicate description thereof will be omitted.
尚、 上述の動画デ一夕の具体例としては、 MP E G (Moving Pict ure Experts Group) 規格などにおけるフ レーム独立でない圧縮方式 の動画データや、 フレームが固定長でない動画データである。 図 3 5に示すように、 動画の再生処理を行う機器として、 動画シ ナリオデータを保存する動画シナリオデータ保存部 D 8 ' 、 動画シ ナリオデータ保存部 D 8, に接続され動画シナリオデ一夕に基づい て AV同期指示デ一夕を生成する AV同期指示デ一夕生成部 D 9 ' 、 及び拍発生部 D 7と A V同期指示デ一夕生成部 D 9 ' とに接続され た表示フ レーム決定部 D 1 0 ' が設けられている。 表示フ レーム決 定部 D 1 0 ' には、 動画データを保存する動画データ保存部 D 1 4 ' が接続されている。 Specific examples of the above-mentioned moving image data include moving image data of a non-frame-independent compression method in the Moving Picture Experts Group (MPEG) standard and the like, and moving image data of which frame is not fixed length. As shown in Fig. 35, as a device for performing video playback processing, it is connected to the video scenario data storage unit D8 'for storing video scenario data and the video scenario data storage unit D8, The AV synchronization instruction data generating section D 9 ′, which generates the AV synchronization instruction data based on the data, and the display frame connected to the beat generating section D 7 and the AV synchronization instruction data generating section D 9 ′ are determined. A section D 10 ′ is provided. A moving image data storage unit D 14 ′ for storing moving image data is connected to the display frame determining unit D 10 ′.
また、 表示フ レーム決定部 D 1 0 ' は、 動画デ一夕に基づいて表 示する各フ レーム毎に楽曲デ一夕に同期した画像デ一夕を決定し、 フ レームノ ッ フ ァ D 1 2に出力する。  The display frame determining unit D 10 ′ determines an image data synchronized with the music data overnight for each frame to be displayed based on the video data overnight, and generates a frame knowledge D 1. Output to 2.
動画シナリオデータ保存部 D 8 ' 、 及び動画デ一夕保存部 D 1 4 ' は、 書き換え可能な記録媒体、 例えば RAMにより構成され、 演奏開始命令を入力する前に C D— R 0 M、 D V Dあるいは類似の 記録媒体、 又は通信回線によ り、 動画シナリオデータ、 及び動画デ —夕をそれぞれ入力して保持している。  The moving image scenario data storage unit D 8 ′ and the moving image data storage unit D 14 ′ are configured by a rewritable recording medium, for example, a RAM, and are configured to receive a CD-R0M, DVD, The moving image scenario data and the moving image data are input and stored on a similar recording medium or communication line.
ここで、 図 3 6 ( a) ( b ) を参照して、 動画シナリオデ一夕、 及び A V同期指示デ一夕を具体的に説明する。  Here, with reference to FIGS. 36 (a) and (b), a detailed description will be given of the video scenario data and the AV synchronization instruction data.
図 3 6 ( a) は図 3 5に示した AV同期再生装置における楽曲の 拍数、 動画データと動画シナリオデータとの関係を示す説明図であ り、 図 3 6 ( b ) は図 3 5に示した AV同期再生装置における楽曲 の拍数、 動画デ一夕、 動画シナリオデ一夕、 及び A V同期指示デー 夕の関係を示している。  FIG. 36 (a) is an explanatory diagram showing the number of beats of music and the relationship between video data and video scenario data in the AV synchronous playback device shown in FIG. 35, and FIG. 36 (b) is a diagram showing FIG. 2 shows the relationship between the number of beats of music in the AV synchronized playback device, the moving image data, the moving image scenario data, and the AV synchronization instruction data.
図 3 6 ( a) ( b ) において、 横軸は楽曲の演奏開始からの特定 音符による拍数を示している。 図 3 6 ( b ) は、 図 3 6 ( a) での 1拍目から H 1拍目の部分を拡大して表している。 In Fig. 36 (a) and (b), the horizontal axis indicates the number of beats of a specific note from the start of music performance. Figure 36 (b) is the same as Figure 36 (a). The part from the first beat to the first beat is enlarged.
動画シナリオデ一夕は、 図 3 6 ( a ) に示すように、 楽曲デ一夕 保存部 D 1に保存されている楽曲デ一夕での楽曲の拍数と動画デ一 夕保存部 D 1 45 に保存されている動画デ一夕のオリジナルのフレ —ムとを対応づけている。 例えば、 楽曲の 1拍目から H 1拍目まで が、 動画シナリオデ一夕によって動画データ B 1に対応づけられて いる。 このことによ り、 1拍目には N l 1番目のオリ ジナルのフレ —ム、 また H I拍目には N 2 1番目のオリ ジナルのフレームがそれ それ指定される。 同様に、 楽曲の (H 1 + 1 ) 拍目から H 2拍目ま でが、 動画シナリオデータによって動画データ B 2に対応づけられ ている。 As shown in Fig. 36 (a), the video scenario data is stored in the music data storage unit D1 at the number of beats of the music data stored in the music data storage unit D1 and the video data storage unit D1 4 The original frame of the video data stored in 5 is associated with it. For example, the first beat to the first beat of the song are associated with the moving image data B1 by the moving image scenario. Thus, the first beat specifies the Nl 1st original frame, and the HI beat specifies the N2 1st original frame. Similarly, from the (H 1 + 1) beat to the H 2 beat of the song, the movie scenario data is associated with the movie data B 2.
このことによ り、 ( H 1 + 1 ) 拍目には N 1 2番目のオリ ジナル のフ レーム、 また H 2拍目には N 2 2番目のオリ ジナルのフレーム がそれぞれ指定される。 同様に、 楽曲の (H 2 + 1 ) 拍目から H 3 拍目までが、 動画シナリオデ一夕によって動画データ B 3に対応づ けられている。 (H 2 + 1 ) 拍目には N 1 3番目のオリ ジナルのフ レーム、 また H 3拍目には N 2 3番目のオリ ジナルのフ レームがそ れぞれ指定される。  Thus, the (H1 + 1) beat specifies the N1 2nd original frame, and the H2 beat specifies the N2 2nd original frame. Similarly, from the (H2 + 1) th beat to the H3th beat of the music piece, the moving picture data B3 is associated with the moving picture scenario data. The (H 2 + 1) beat specifies the N 1 3rd original frame, and the H 3 beat specifies the N 2 3rd original frame.
尚、 オリ ジナルのフレームと称しているのは、 実際にモニタ D 1 3に表示されるフ レームは、 該オリ ジナルフレームを元に表示フ レ ーム決定部 D 1 0, によ り決定されたフ レームだからである。  Note that the original frame is referred to as a frame actually displayed on the monitor D13, which is determined by the display frame determination unit D10, based on the original frame. Because it was a frame.
上記のような動画デ一夕と楽曲との対応づけを行う ことによ り、 例えば、 1 0 0フ レーム分の動画デ一夕を、 楽曲によっては、 6拍 分で 1 0 0フ レーム分の動きを進行させた り、 8拍分で 1 0 0フ レ ーム分の動きを進行させた り と、 ひとつの動画データを用いていろ いろな動きの進行速度に対応することが可能とな り、 動画データ保 存部 D 1 4 ' の記憶容量を低減できるので、 経済的なものとなる。 By associating the moving image data with the music as described above, for example, the moving image data for 100 frames can be converted to the 100 frames for 6 beats for some music. You can use a single video data, for example, to advance the motion of 100 frames or to advance the motion of 100 frames in 8 beats. It becomes possible to cope with various moving speeds and to reduce the storage capacity of the moving image data storage unit D 14 ′, which is economical.
A V同期指示デ一夕は、 動画シナリオデ一夕によ り分割された各 動画デ一夕において、 上述の四分音符 (特定音符) の 1拍分を基準 として、 楽曲デ一夕 と動画デ一夕の進行とを対応づけるデータであ り、 各動画データに割り当てられたオリ ジナルのフ レームを四分音 符 (特定音符) の 1拍分ずつ等分に分割することによ り生成される。  The AV synchronization instruction data is composed of the music data and the video data based on one quarter note (specific note) in each video data divided by the video scenario data. It is data that correlates with the progress of the evening, and is generated by dividing the original frame assigned to each video data into equal quarter beats (specific notes). .
このように A V同期指示データを生成することによ り動画データ B 1 に割り当てられた N 1 1番目から N 2 1番目までのオリジナル のフレームは、 図 3 6 ( b ) に示すように、 楽曲デ一夕の 2, 3 , 4 , · · ' 拍目にそれぞれ対応して、 モニタ D 1 3表示されるフ レ —ムの進行位置を示すためのフレーム n 2 1, n 3 1 , n 4  As shown in Fig. 36 (b), the original frames from N1 to N2 assigned to the video data B1 by generating the AV synchronization instruction data as shown in Fig. 36 (b) On the second, third, fourth,... 'Beats, the monitor D 13 shows frames n 2 1, n 3 1, n 4 to indicate the progress position of the frame displayed on the monitor.
1 , · · · に分けられる。  1, · · · ·
尚、 A V同期指示 データによって指定されるフ レームの数が必ず しも整数になるとは限らないので、 上記フ レーム n 2 1, n 3 1, n 4 1 には動画デ一夕保存部 D 1 4, に記憶されていないものもあ る。 しかしながら、 記憶されていないフ レームは、 後段の表示フ レ ーム決定部 D 1 0 , での動画の再生処理において、 スプライ ン補間 等の公知のデ一夕補間方法によ り、 動画データ保存部 D 1 4 ' に記 憶されたフ レームから求められるので問題はない。 同様に、 動画デ —夕 B 2においても、 楽曲データの 1拍分ずつに対応したフ レーム の進行位置を示すためのフ レーム n 2 2, n 3 2 , n 4 2 , · · · に分けられている。  Since the number of frames specified by the AV synchronization instruction data is not always an integer, the frames n 2 1, n 3 1, and n 4 1 have the moving image data storage unit D 1. 4, Some are not memorized in. However, the frames that are not stored are stored in the moving image data by a well-known de-interpolation method such as spline interpolation in the reproduction processing of the moving image in the display frame determining unit D 10, at the subsequent stage. There is no problem because it is obtained from the frame stored in Part D 14 '. Similarly, the video data—evening B2 is also divided into frames n22, n32, n42, ... to indicate the progress position of the frame corresponding to each beat of the music data. Have been.
表示フ レーム決定部 D 1 0 , において、 各フレームで表示する画 像データを動画データから計算する具体的な計算方法について説明 する。 A specific calculation method for calculating the image data to be displayed in each frame from the moving image data in the display frame determination unit D 10, is described. I do.
まず、 表示フ レーム決定部 D 1 0, は、 拍発生部 D 7から入力し た同期メ ッセージの楽曲の演奏位置 ( i拍目) を AV同期指示デー 夕と照らし合わせて、 この同期メ ヅセージを入力した時点でフ レー ムバッファ D 1 2に書き込まれている動画デ一夕のフレームの進行 位置 f iと、 次の同期メ ッセージが送られてく るタイ ミ ング ( i + 1拍目) に AV同期指示データによって指定されているフ レームの 進行位置 F i +1を求める。  First, the display frame determination unit D10, compares the performance position (the i-th beat) of the music of the synchronization message input from the beat generation unit D7 with the AV synchronization instruction data, and generates the synchronization message. Is input to the frame buffer D12 at the point in time when the video is sent. The AV is sent to the frame advance position fi and the timing (i + 1st beat) at which the next synchronization message is sent. Obtain the traveling position F i +1 of the frame specified by the synchronization instruction data.
さらに、 表示フ レーム決定部 D 1 0 ' は、 今回入力した同期メ ッ セージの楽曲のテンポ時間 Temp( i ) により示される i拍目から ( i + 1 ) 拍目までの時間長の間において、 上述の時間間隔 ΔΤ秒毎に 表示、 進行させる動画データのフ レームの進行位置 flame(j,)を下記 の ( 3 ) 式を用いて算出する。  Further, the display frame determination unit D 10 ′ determines whether the time interval from the i-th beat to the (i + 1) -th beat indicated by the tempo time Temp (i) of the music of the synchronous message input this time is satisfied. The moving position flame (j,) of the frame of the moving image data to be displayed and made to progress at the above-mentioned time interval ΔΤ seconds is calculated by using the following equation (3).
flameU,) = f i + (F i+l— f i ) * ( j, *△ T /Temp( i ))  flameU,) = f i + (F i + l— f i) * (j, * △ T / Temp (i))
· · · · · ·
( 3 ) (3)
尚、 ( 3 ) 式において、 j'は、 表示フレーム決定部 D 1 0, がー つの同期メ ッセ一ジを入力してから次の同期メ ッセージを入力する までに、 フ レームバッ フ ァ D 1 2に書き込まれるフ レーム数をカウ ン 卜 したカウン ト値である。 つまり、 j'の値は、 同期メ ッセージを 入力した時点で 0にセッ トされ、 その後、 動画デ一夕のフレームが 進行する毎に、 1つずつ (Temp( i )/AT) まで変化する。 また、 ( 1 ) 式において、 i及び Temp( i )の値は、 次の ( i + 1 ) 拍目の 同期メ ッセ一ジを入力するでは同じ値に保たれ、 ( i + 1 ) 拍目の 同期メ ッセ一ジを入力すると、 その同期メ ッセージの値に更新され る o In equation (3), j ′ is a frame buffer D from the time when the display frame determining section D 10 inputs one synchronous message to the time when the next synchronous message is input. This is a count value obtained by counting the number of frames written to 12. In other words, the value of j 'is set to 0 when a synchronous message is input, and then changes to 1 (Temp (i) / AT) one by one as the frame of video data progresses . In equation (1), the values of i and Temp (i) are kept the same in the next synchronous message input at the (i + 1) th beat, and the values of (i + 1) th beat When you enter a synchronization message, it is updated to the value of that synchronization message. O
次に、 表示フレーム決定部 D 1 0, は、 動画データのオリジナル のフレームにスプライ ン補間を適用して得られた、 フレームの進行 位置 flame(j' )を変数とする動画データの関数 D (フレームの進行位 置) を用いて、 表示する各フレームの画像デ一夕を算出、 決定する。 その後、 表示フレーム決定部 D 1 0, は、 作成した画像デ一夕をフ レームバッファ D 1 2に出力して書き込む。 そして、 フレームバヅ ファ D 1 2は画像デ一夕をモニタ D 1 3に出力して、 モニタ D 1 3 は動画を表示する。  Next, the display frame determining unit D 10, uses a function D () of the moving image data obtained by applying spline interpolation to the original frame of the moving image data and using the moving position flame (j ′) of the frame as a variable. Calculate and determine the image data of each frame to be displayed using (frame progress position). After that, the display frame determination unit D10, outputs the created image data to the frame buffer D12 and writes it. Then, the frame buffer D12 outputs the image data to the monitor D13, and the monitor D13 displays a moving image.
尚、 表示フレーム決定部 D 1 0 ' は、 動画シナリオデ一夕が終了 したかどうかの判断を行うために、 フレームバッファ D 1 2に送つ たフ レームの進行位置 fiを記録している。  Note that the display frame determination unit D 10 ′ records the progress position fi of the frame sent to the frame buffer D 12 in order to determine whether or not the moving image scenario has been completed.
次に、 図 3 7を参照して動画の再生処理について説明する。 尚、 演奏開始の命令を入力した後の楽曲演奏の再生処理、 及び拍発生部 D 7における同期メ ッセージの生成処理は、 図 3 1に示した (実施 の形態 1 3 ) と同じであるので説明を省略する。  Next, the reproduction process of the moving image will be described with reference to FIG. Note that the process of reproducing the music performance after inputting the command to start the performance and the process of generating the synchronization message in the beat generation unit D7 are the same as those shown in FIG. 31 (Embodiment 13). Description is omitted.
図 3 7は図 3 5に示した AV同期再生装置における動画の再生処 理を示している。  FIG. 37 shows a moving image playback process in the AV synchronous playback device shown in FIG.
図 3 7において、 表示フレーム決定部 D 1 0 ' が拍発生部 D 7か ら同期メ ッセージを入力すると (ステップ S 4 5 ) 、 表示フレーム 決定部 D 1 0, は j,の値を 0とする (ステップ S 4 6 ) 。 尚、 j,は、 上述のように、 表示フレーム決定部 D 1 0, がーつの同期メ ッセ一 ジを入力してから次の同期メ ッセ一ジを入力するまでに、 フレーム ノヽ"ッファ D 1 2に書き込まれるフレーム数をカウン 卜 したカウン 卜 値である。 続いて、 表示フ レーム決定部 D 1 0 ' は、 拍発生部 D 7から入力 した同期メ ッセージの楽曲の演奏位置と AV同期指示デ一夕とを照 らし合わせることにより、 現時点 ( i拍目) 及び次に同期メッセ一 ジを入力する時点 ( i + 1拍目) での動画デ一夕のフ レームの進行 位置 f i及び F i +1を求める。 その後、 表示フ レーム決定部 D 1 0, は、 今回入力した同期メ ッセージの楽曲のテンポ時間 Temp( i ) により 示される i拍目から ( i + 1 ) 拍目までの時間長の間におい て、 上述の時間間隔 ΔΤ秒毎に表示、 進行させる動画データのフ レ —ムの進行位置 flameU' )を上述の ( 3 ) 式を用いて算出する (ステ ヅプ S 4 7 ) 。 In FIG. 37, when the display frame determination unit D 10 ′ inputs a synchronization message from the beat generation unit D 7 (step S 45), the display frame determination unit D 10, sets the value of j to 0. Yes (step S46). Note that j, as described above, is the frame number from when the display frame determining unit D 10 inputs one synchronous message to when the next synchronous message is input. This is a count value obtained by counting the number of frames written to the buffer D12. Subsequently, the display frame determination unit D 10 ′ compares the music playing position of the synchronization message input from the beat generation unit D 7 with the AV synchronization instruction data to determine the current (i. ) And the next time the synchronous message is input (i + 1 beat), find the progress positions fi and F i +1 of the frame in the video movie. After that, the display frame determination unit D10, between the beat i and the (i + 1) beat indicated by the tempo time Temp (i) of the song of the synchronous message input this time, Then, the moving position of the frame of the moving image data to be displayed and progressed at the above-mentioned time interval Δ flame seconds is calculated using the above formula (3) (step S47).
次に、 表示フ レーム決定部 D 1 0, は、 フ レームの進行位置 flame (j' )を変数と する動画データの関数 D (フ レームの進行位置) を用 いて、 表示する各フ レームでの画像デ一夕を算出する (ステッ プ S 4 8 ) 。  Next, the display frame determination unit D 10, for each frame to be displayed, uses a function D (moving position of the frame) of the moving image data with the moving position of the frame flame (j ′) as a variable. The image data of the image is calculated (step S48).
続いて、 表示フ レーム決定部 D 1 0 ' は、 算出した画像デ一夕を フ レームノ ッ フ ァ D 1 2に出力し (ステ ッ プ S 4 9 ) 、 フ レームバ ッ フ ァ D 1 2は、 表示する画像デ一夕を書き込む (ステ ッ プ S 5 0 ) 。 そして、 モニタ D 1 3は、 フ レームバッ フ ァ D 1 2からの画 像デ一夕を表示する (ステ ッ プ S 5 1 ) 。  Subsequently, the display frame determination unit D 10 ′ outputs the calculated image data to the frame buffer D 12 (step S 49), and the frame buffer D 12 Then, write the image data to be displayed (step S50). Then, the monitor D13 displays the image data from the frame buffer D12 (step S51).
また、 表示フ レーム決定部 D 1 0, は、 (ステ ッ プ S 4 9 ) に示 す処理を行う とき、 フ レームバッ フ ァ D 1 2に出力したフ レームの 進行位置 f iを記録する (ステ ッ プ S 5 2 ) 。 表示フ レーム決定部 D 1 0 ' は、 記録した進行位置 f iに基づいて、 動画シナリオデ一 夕の最後まで表示が終わつているかどうかの判断を行う (ステップ S 5 3 ) 。 表示フレーム決定部 D 1 0 ' は、 最後まで表示していない場合、 j , の値を一つ増やし (ステップ S 54 ) 、 ステップ S 4 7に示す処 理に戻る。 一方、 最後まで表示している場合、 動画の再生を終了す る (ステップ S 5 5 ) 。 When performing the processing shown in (Step S49), the display frame determining unit D10, records the progress position fi of the frame output to the frame buffer D12 (Step S49). Step S52). The display frame determination unit D10 'determines whether or not the display has been completed until the end of the moving image scenario based on the recorded progress position fi (step S53). When the display is not completed, the display frame determination unit D 10 'increases the value of j by 1 (step S54), and returns to the process shown in step S47. On the other hand, if the display is completed, the reproduction of the moving image is ended (step S55).
このようにして (実施の形態 1 5 ) の AV同期再生装置では、 楽 曲のテンポ変更指示を入力して、 拍発生部から出力される同期メ ッ セージのテンポ情報を変更するテンポ変更情報入力部が設けられて いる。 このことにより、 ユーザ一が楽曲演奏の途中で楽曲のテンポ を変更したとしても、 楽曲演奏と画像再生とを同期することができ る。  In this way, in the AV synchronous reproducing apparatus of the (embodiment 15), the tempo change instruction of the music is input, and the tempo change information input for changing the tempo information of the synchronous message output from the beat generating section is input. Section is provided. Thus, even if the user changes the tempo of the music piece during the music piece performance, the music piece performance and the image reproduction can be synchronized.
(実施の形態 1 6 ) (Embodiment 16)
図 3 8と図 3 9は本発明の (実施の形態 1 6 ) を示す。  FIGS. 38 and 39 show (Embodiment 16) of the present invention.
この実施の形態では、 楽曲のテンポ変更指示を入力して拍発生部 D 7から出力される同期メ ッセージのテンポ時間を変更するテンポ 変更情報入力部 D 1 8を設けた。 それ以外の各部は (実施の形態 1 5 ) を示す図 3 5と同様であるのでそれらの重複した説明は省略す る o  In this embodiment, there is provided a tempo change information input section D18 for inputting a tempo change instruction for a music piece and changing the tempo time of a synchronous message output from the beat generation section D7. The other parts are the same as those shown in FIG. 35 showing (Embodiment 15), and thus redundant description thereof will be omitted.
図 3 8に示すように、 テンポ変更情報入力部 D 1 8が、 拍発生部 D 7に接続されている。 このテンポ変更情報入力部 D 1 8は、 楽曲 の再生中 ( i拍目) にユーザ一や外部機器から楽曲のテンポ変更指 示を入力した場合、 下記の ( 4 ) 式に示すように、 楽曲デ一夕保存 部 D 1に保存されている楽曲デ一夕に含まれたオリジナルのテンポ 時間 Temp( i )に比例常数 Cs'を乗算して、 新たなテンポ時間 Temp ( i )を求める。 新たなテンポ時間 Temp( i ) = As shown in FIG. 38, a tempo change information input section D 18 is connected to a beat generation section D 7. The tempo change information input section D18, when a tempo change instruction of the music is input from the user or an external device during the reproduction of the music (i-th beat), as shown in the following equation (4), The new tempo time Temp (i) is obtained by multiplying the original tempo time Temp (i) included in the music data stored in the data storage section D1 by the proportional constant Cs'. New tempo time Temp (i) =
オリジナルのテンポ時間 Temp( i ) * Cs, · · · Original tempo time Temp (i) * Cs, · · ·
( 4 ) ( Four )
新たなテンポ時間 Temp( i )は、 テンポ変更情報入力部 D 1 8から 拍発生部 D 7に出力され、 拍発生部 D 7から出力される同期メ ッセ —ジのテンポ時間として用いられる。 尚、 テンポ変更情報入力部 D 1 8は、 楽曲デ一夕保存部 D 1が再生する楽曲データを取得したと き、 記録媒体、 または通信回線により、 同時にオリジナルのテンポ 時間 Temp( i )を取得する。  The new tempo time Temp (i) is output from the tempo change information input section D18 to the beat generating section D7, and is used as the tempo time of the synchronous message output from the beat generating section D7. The tempo change information input section D 18 obtains the original tempo time Temp (i) at the same time via the recording medium or the communication line when the music data played back by the music data storage section D 1 is obtained. I do.
次に、 本実施の形態の A V同期再生装置における楽曲演奏の再生 処理について、 図 3 9を参照して説明する。 尚、 A V同期指示デ一 夕の作成手順、 動画の再生処理については、 図 3 1に示した (実施 の形態 1 3 ) 及び図 3 7に示した (実施の形態 1 5 ) と同一である のでそれらの重複した説明は省略する。  Next, reproduction processing of a music performance in the AV synchronous reproduction apparatus of the present embodiment will be described with reference to FIG. The procedure for creating the AV synchronization instruction data and the process for playing back the moving image are the same as those shown in FIG. 31 (Embodiment 13) and FIG. 37 (Embodiment 15). Therefore, a duplicate description thereof will be omitted.
図 3 9は図 3 8に示した A V同期再生装置における楽曲演奏の再 生処理を示している。  FIG. 39 shows the process of playing back a music performance in the AV synchronous playback device shown in FIG.
図 3 9に示すように、 楽曲演奏の開始する前に (ステップ S 6 1 ) では、 楽曲デ一夕保存部 D 1及び動画シナリオデータ保存部 D 8 5 は、 記録媒体または通信回線により、 楽曲デ一夕、 及び動画シ ナリォデ一夕をそれぞれ取得する。 As shown in FIG. 3 9, (Step S 6 1) before the start of the music performance, song de Isseki storage unit D 1 and moving scenario data storage section D 8 5 is the recording medium or a communication line, music Acquisition of a video and a video of the video.
続いて (ステップ S 6 2 ) では、 A V同期指示デ一夕生成部 D 9, は、 動画シナリオデ一夕保存部 D 8, からの動画シナリオデ一 夕に基づいて、 A V同期指示データを生成する。  Subsequently, in (Step S62), the AV synchronization instruction data generating unit D9 generates AV synchronization instruction data based on the moving image scenario data from the moving image scenario data storing unit D8.
楽曲データ保存部 D 1が、 演奏開始の命令を入力すると (ステツ プ S 6 3 ) 、 テンポ変更情報入力部 D 1 8は、 テンポ変更指示が入 力されたかどうかについて調べる。 When the music data storage section D1 inputs a performance start command (step S63), the tempo change information input section D18 receives a tempo change instruction. Find out if you have been forced.
テンポ変更指示が入力された場合、 テンポ変更情報入力部 D 1 8 は、 入力したテンポ変更指示に基づいて拍発生部 7から出力される 同期メ ヅセージのテンポ時間を変更する (ステップ S 6 4 ) 。  When a tempo change instruction is input, the tempo change information input section D 18 changes the tempo time of the synchronous message output from the beat generating section 7 based on the input tempo change instruction (step S64). .
楽曲デ一夕保存部 D 1は、 記憶している楽曲データを出力波形生 成部 D 2に順次出力する。 出力波形生成部 D 2は、 楽曲データに基 づいてデジタル形式の演奏音の波形デ一夕を生成して (ステップ S The music data storage unit D1 sequentially outputs the stored music data to the output waveform generation unit D2. The output waveform generation unit D2 generates a digital waveform of the performance sound in digital form based on the music data (step S2).
6 5 ) 、 音デ一夕用バッ フ ァ D 3に逐次出力する。 6 5), Output to the sound buffer D3 sequentially.
音デ一夕用バッ フ ァ D 3は、 一定量の波形デ一夕を一時的に蓄え る (ステップ S 6' 6 ) 。 その後、 波形データを音データ用バッ フ ァ D 3から D/A変換器 4に出力する。  The sound buffer D3 temporarily stores a fixed amount of waveform data (step S6'6). Thereafter, the waveform data is output from the sound data buffer D 3 to the D / A converter 4.
0/八変換器04は、 入力した波形デ一夕をアナ口グ形式の音信 号に変換する (ステップ S 6 7 ) 。 そして、 D/A変換器 D 4は、 音信号をアンプ D 5に出力して、 アンプ D 5にて音信号を増幅する (ステップ S 6 8 ) o 続いて、 スピーカ D 6により、 アンプ D 5か らの音信号を演奏として発音する (ステップ S 6 9 ) 。  The 0/8 converter 04 converts the input waveform data into an analog sound signal (step S67). Then, the D / A converter D 4 outputs the sound signal to the amplifier D 5, and amplifies the sound signal with the amplifier D 5 (step S 6 8). Subsequently, the amplifier D 5 is output from the speaker D 6. The sound signal from this is pronounced as a performance (step S69).
音デ一夕用バッ フ ァ D 3は、 D/A変換器 D 4に波形データを出 力する毎に、 そのタイ ミ ングを拍発生部 D 7に伝える (ステップ S Each time the sound buffer D3 outputs waveform data to the D / A converter D4, the buffer D3 informs the beat generator D7 of the timing (step S7).
70 ) o 70) o
続いて、 拍発生部 D 7は楽曲データに含まれているテンポ時間に 基づいて、 四分音符 1拍分の楽曲が進行する毎に、 その時点での楽 曲の演奏位置 ( i拍目) 及びテンポ時間 Temp( i )からなる同期メ ッ セージを発生し、 表示フレーム決定部 D 1 0, に出力する (ステツ プ S 7 1 ) 。  Next, based on the tempo time included in the music data, the beat generation unit D7 executes the music for one quarter note, and the musical position at that time (the i-th beat) Then, a synchronous message including the tempo time Temp (i) is generated and output to the display frame determining section D10, (Step S71).
次に、 AV同期再生装置は、 楽曲の終わりであるかどうかについ て判定する (ステップ S 7 2 ) 。 楽曲の終わりでなければ、 再度、 (ステップ S 6 4 ) に示す処理に戻る。 楽曲の終わりであれば演奏 を終了する (ステップ S 7 3 ) 。 Next, the AV synchronized playback device checks whether the end of the music (Step S72). If it is not the end of the music, the process returns to the process shown in (Step S64) again. If the music ends, the performance ends (step S73).
この実施の形態の A V同期再生装置では、 楽曲のテンポ変更指示 を入力して、 拍発生部 D 7から出力される同期メ ッセージのテンポ 時間を変更するテンポ変更情報入力部 D 1 8が設けられている。 こ のことにより、 例えばカラオケにおいて、 ユーザ一が楽曲演奏の途 中で楽曲のテンポを好みのテンポに変更したとしても、 楽曲演奏の 再生処理と動画の再生処理との同期を保つことができる。  The AV synchronized playback apparatus of this embodiment is provided with a tempo change information input section D18 for inputting a music tempo change instruction and changing the tempo time of a synchronous message output from the beat generation section D7. ing. Thus, for example, in karaoke, even if the user changes the tempo of the music to a desired tempo during the music performance, the reproduction of the music performance and the reproduction of the moving image can be kept in synchronization.
尚、 上記の各実施の形態の A V同期再生装置の再生処理は、 いず れもコンピュータ ' プログラム化することができるので、 コンビュ —夕により実行可能な記録媒体にて本願の A V同期方法を提供する ことも可能である。 ここでいう ところの記録媒体とは、 フロ ッピ一 ディスク、 C D— R 0 M、 D V D (デジタルビデオディスク) 、 光 磁気ディスク、 及びリム一バブル · ハ一 ドディスク等である。  It should be noted that since the reproduction processing of the AV synchronous reproducing apparatus of each of the above embodiments can be programmed by a computer, the AV synchronous method of the present invention is provided on a recording medium executable by a computer. It is also possible to do so. The recording medium mentioned here is a floppy disk, a CD-ROM, a DVD (digital video disk), a magneto-optical disk, a removable hard disk, or the like.

Claims

請 求 の 範 囲 The scope of the claims
1 . サーバーには、 端末へモーショ ンの組合わせ順序を記載し たシナリオデ一夕をネッ トワークを通して送信するデータ送信手段 を備え、 1. The server is equipped with data transmission means for transmitting scenario data describing the combination of motions to the terminal over the network.
端末には、 前記データ送信手段によ り送信されたシナリオデ一夕 を受信するデータ受信手段と、 立体キャラクタを表示するために必 要な形状データベースと、 立体キャラクタを動かすために必要なモ —シヨ ンデータベースと、 前記データ受信手段によ り受信したシナ リォデ一夕に記載された順序通りにモーショ ンを切替えて前記立体 キャラクタを表示するモーショ ン切替え描画手段と、 前記切替え描 画手段がモーションを切替える際にモーションが滑らかに表示でき るように、 前後のモーションを補正するモーション自動補正手段と を備えた  The terminal includes a data receiving means for receiving the scenario data transmitted by the data transmitting means, a shape database required for displaying the three-dimensional character, and a mode required for moving the three-dimensional character. Motion switching drawing means for displaying the three-dimensional character by switching the motions in the order described in the scenario received by the data receiving means, and the switching drawing means Automatic motion compensation means for compensating the previous and next motion so that the motion can be displayed smoothly when switching
グラフイ ツク表示装置。 Graphic display device.
2 . サーバ一には、 デ一夕送信手段が送信するシナリオデ一夕 に記載された各モ一シヨ ン間のつなぎ部分を補正するモーショ ン補 正データをネッ トワークを通じて送信する補正デ一夕送信手段を備 え、  2. The server sends to the server, via the network, the correction data for transmitting the motion correction data for correcting the connection between the motions described in the scenario data transmission transmitted by the data transmission means via the network. Have the means,
端末のモーショ ン自動補正手段の代わりに、 前記補正デ一夕送信 手段によ り送信された補正データを受信する補正デ一夕受信手段と- 切替え描画手段がモーショ ンを切替える際にモーションが滑らかに 表示できるように前記補正デ一夕受信手段によ り受信したモーショ ン補正デ一夕に基づき前後のモーショ ンを補正するモーショ ン補正 手段を備えた Instead of the motion automatic correction means of the terminal, the motion is smooth when the correction data reception means for receiving the correction data transmitted by the correction data overnight transmission means and the switching drawing means switch the motion. Motion correction that corrects the preceding and following motions based on the motion correction data received by the correction data receiver so that the motion data can be displayed on the display. With means
請求項 1 に記載のグラフィ ック表示装置。 The graphic display device according to claim 1.
3 . サーバ一には、 モーショ ンデ一夕べ一スと、 前記モーショ ンデ一夕ベースからデータ送信手段が送信するシナリオデータに記 載された各モーショ ン間のつなぎ部分を補正するモーショ ン補正デ —夕を算出し、 補正データ送信手段を用いてネッ トワークを通じて 送信する補正シナリオ算定手段を備えた  3. The server includes a motion database and a motion correction for correcting a joint between the motions described in the scenario data transmitted by the data transmitting means from the motion database. Equipped with a correction scenario calculation unit that calculates the data and transmits it over the network using the correction data transmission unit.
請求項 1 に記載のグラフィ ック表示装置。 The graphic display device according to claim 1.
4 . サーバ一から端末へ指示して立体キャラクタをグラフィ ッ ク表示するに際し、  4. When the three-dimensional character is displayed graphically from the server to the terminal,
端末には立体キャラクタの動きのパターンを記述した複数の動き パターンを用意し、  The terminal prepares multiple movement patterns that describe the movement pattern of the three-dimensional character,
サーバーが端末へ前記動きパターンの時系列組み合わせ順序を記 載したシナリオデ一夕を送信し、  The server sends a scenario data describing the time-series combination order of the motion pattern to the terminal,
サーバーからのシナリオデ一夕を検出してこのシナリオデータに 基づいて動作してグラフィ ック表示する端末が、 実行中と次に実行 する動きパターンとに共通するホームポジショ ンのタイ ミ ング、 ま たは実行中と次に実行する前記パターンとにほぼ共通するポジショ ンのタイ ミ ングで実行する動きパターンを切り換えてシーンの切り 換えを実行する  The terminal that detects the scenario data from the server and operates based on this scenario data to display a graphic displays the home position timing common to the running pattern and the next running pattern. Switches scenes by switching the motion pattern to be executed at the timing of the position that is almost the same as the pattern being executed and the next pattern to be executed next
グラフィ ック表示方法。 Graphic display method.
5 . 複数パターンの動きを記述したモ一シヨ ン群と、  5. A group of motions describing the movements of multiple patterns,
モーショ ン群の何れのパターンに基づいて立体キャラクタを動作 させるかをシーンに対応させて記述したシナリオデータベースと、 シナリオデ一夕べ一スとモーショ ン群に基づいて表示出力する立 体キャラクタの動きを制御するキャラク夕姿勢制御手段と A scenario database that describes, based on the scene, which pattern of the motion group the three-dimensional character is to be operated with, and a display that outputs and displays based on the scenario database and the motion group. Character evening attitude control means for controlling the movement of the body character; and
を設け、 かつ , And
キャラクタ姿勢制御手段を、 実行中と次に実行する動きパターン とに共通するホームポジショ ンのタイ ミ ング、 または実行中と次に 実行する前記パターンとにほぼ共通するポジションのタイ ミ ングで 実行する動きパターンを切り換えてシーンの切り換えを実行するよ うに構成した  The character posture control means is executed at a home position timing common to the movement pattern to be executed and the next execution pattern, or at a position timing substantially common to the movement pattern to be executed and the next execution pattern. It is configured to switch scenes by switching motion patterns
グラフイ ツク表示装置。 Graphic display device.
6 . ネッ トワーク上にサーバ一と端末を設け、 端末でグラフィ ヅク表示するグラフィ ック表示装置であって、  6. A graphic display device in which a server and a terminal are provided on a network, and a graphic is displayed on the terminal.
前記サーバ一には、  In the server,
3次元キャラクタの形状を定義したキャラクタデータのデータべ ースと、  A database of character data that defines the shape of the 3D character,
前記キャラクタの動きを定義したモーショ ンのデ一夕べ一スと、 前記キャラクタデータおよび一つ以上の前記モーショ ンの時系列 組み合わせを指定したシナリオデータを設け、  A motion database defining the movement of the character, and scenario data specifying a time-series combination of the character data and one or more of the motions;
前記端末には、  In the terminal,
前記キヤラク夕デ一夕を保管するキャラクタデータベースと、 前記モ一ショ ンを保管するモ一ショ ンデ一夕ベースと、  A character database for storing the character set; a motion database for storing the motion;
前記シナリオデ一夕が指定したキャラクタデータが前記キャラク 夕データベースに存在するかどうかを検索するデ—夕検索手段と、 前記キャラクタデータベースに存在しないキャラクタデータの入 手を前記サーバーに要求するデ一夕要求手段を設けた  Data retrieval means for retrieving whether or not the character data designated by the scenario data exists in the character database; and a data request requesting the server to input character data which does not exist in the character database. Provided means
グラフ イ ツク表示装置。 Graphic display.
7 . ネッ トワーク上にサーバーと端末を設け、 端末でグラフィ ヅク表示するグラフィ ック表示装置であって、 7. Set up a server and a terminal on the network, and A graphic display device for displaying a mark,
前記サーバーには、  The server has:
3次元キャラクタの形状を定義したキャラクタデータのデータべ —スと、  A database of character data that defines the shape of the three-dimensional character,
前記キャラクタの動きを定義したモーショ ンのデータベースと、 前記キャラクタデ一夕および一つ以上の前記モーショ ンの時系列 組み合わせを指定したシナリオデ一夕を設け、  A motion database defining the movement of the character; and a scenario database designating the character database and one or more time-series combinations of the motions.
前記の端末には、  In the terminal,
前記キャラクタデ一夕を保管するキャラクタデータベースと、 前記モーショ ンを保管するモーショ ンデ一夕ベースと、  A character database for storing the character data, a motion data base for storing the motion,
前記シナリオデ一夕が指定したモーショ ンが前記モーショ ンデ一 夕ベースに存在するかどうかを検索するデ一夕検索手段と、  Data search means for searching whether or not the motion specified by the scenario data exists on the motion data base;
前記モーションデ一夕ベースに存在しないモーショ ンの入手を前 記サーバーに要求するデータ要求手段を設けた  Data request means for requesting the server to obtain a motion that does not exist on the motion data base is provided.
グラフ ィ ヅク表示装置。 Graphic display device.
8 . 楽曲データに基づき演奏を行う楽曲演奏手段と、  8. Music performance means for performing based on music data,
楽曲上の位置を特定した楽曲位置と演奏テンポの基本となるテン ポ情報とそれらを更新した時刻とを対応づけて一時的に記憶する同 期情報テーブルと、  A synchronization information table for temporarily storing the music position specifying the position on the music, the basic tempo information of the performance tempo, and the time at which they were updated;
前記楽曲演奏手段の演奏に基づき前記同期情報テーブルを更新す る同期情報更新手段と、  Synchronization information updating means for updating the synchronization information table based on performance of the music performance means;
現在時刻と前記同期情報テーブルの内容とから前記楽曲演奏手段 が現在演奏している楽曲位置を算定する楽曲位置算定手段と、  Music position calculation means for calculating the music position currently played by the music performance means from the current time and the contents of the synchronization information table;
フレームデ一夕を一時的に記憶するフ レームバッファと、 楽曲データと関連づけられた C Gデータから前記楽曲位置算定手 段が算定した楽曲位置に基づき前記楽曲演奏手段の演奏と同期した フ レームデ一夕を算出し前記フ レームバッ フ ァに出力するフ レーム 出力手段と、 A frame buffer for temporarily storing the frame data, and the music position calculator based on the CG data associated with the music data. Frame output means for calculating a frame date synchronized with the performance of the music performance means based on the music position calculated by the step and outputting the frame data to the frame buffer;
前記フ レームバッ フ ァに記憶されたフ レームデータを動画像とし て表示す映像表示手段と  Video display means for displaying the frame data stored in the frame buffer as a moving image;
を備えた A V同期再生装置。 AV synchronized playback device equipped with.
9 . 同期情報更新手段を、 楽曲演奏手段が楽曲位置またはテン ポ情報のいづれかが変化する毎に同期情報テーブルを更新するよう 構成した請求項 8記載の A V同期再生装置。  9. The AV synchronous reproducing apparatus according to claim 8, wherein the synchronization information updating means is configured to update the synchronization information table each time the music performance means changes either the music position or the tempo information.
1 0 . 同期情報更新手段を、 特定の周期で同期情報テーブルを 更新するよう構成した請求項 8記載の A V同期再生装置。  10. The AV synchronous reproducing apparatus according to claim 8, wherein the synchronous information updating means is configured to update the synchronous information table at a specific cycle.
1 1 . C Gデ一夕量からフ レームデータ出力手段が要する演算 時間を予想する演算時間予想手段を追加し、 フ レーム出力手段が、 楽曲位置算定手段が算定した楽曲位置よ り前記演算時間予想手段が 予想した時間だけ遅らせた楽曲位置と同期したフ レームデ一夕をフ レ一ムバッファに出力するよう構成した請求項 8記載の A V同期再 生 ¾. o  1 1. A calculation time estimating means for estimating the calculation time required by the frame data output means from the amount of CG data is added, and the frame output means estimates the calculation time from the music position calculated by the music position calculation means. 9. The AV synchronization playback according to claim 8, wherein the means is configured to output, to the frame buffer, the frame data synchronized with the music position delayed by the expected time.
1 2 . 楽曲デ一夕から現在の楽曲位置の音が実際に音となって 出力されるまでの時間を予想する演奏遅れ予想手段を追加し、 同期 情報更新手段が前記演奏遅れ予想時間が予想した時間分だけ遅らせ た楽曲位置とテンポ情報と更新時間とを同期情報テーブルに出力す るよう構成した請求項 8記載の A V同期再生装置。  1 2. A performance delay estimating means for estimating the time from the instant of music departure to the time when the sound at the current music position is actually output as sound is added, and the synchronization information updating means estimates the expected performance delay time. 9. The AV synchronous playback device according to claim 8, wherein the music position, the tempo information, and the update time delayed by the set time are output to a synchronization information table.
1 3 . C Gデ一夕量から映像表示手段がフ レームバッ フ ァのデ —夕を実際に表示できるまでの表示遅れ時間を予想する映像表示遅 れ予想手段を追加し、 フ レーム出力手段が楽曲位置算定手段が算定 した楽曲位置よ り前記映像表示遅れ予想手段が予想した時間だけ遅 らせた楽曲位置と同期したフ レームデ一夕をフ レームバッファへ出 力するよう構成した請求項 8記載の A V同期再生装置。 1 3. CG Data from the amount of image data is added to the image display means to estimate the display delay time until the actual display of the frame buffer. Calculated by location calculation means 9. The AV synchronous reproducing apparatus according to claim 8, wherein a frame data synchronized with a music position delayed by a time predicted by the video display delay predicting means from the music position is output to a frame buffer.
1 4 . 楽曲演奏手段が特殊再生を始める時に特殊再生開始信号 を発生する特殊再生開始通知手段と、  14. Special play start notifying means for generating a special play start signal when the music playing means starts special play,
楽曲演奏手段が特殊再生を終了する時に特殊再生終了信号を発生 する特殊再生終了通知手段と、  A special reproduction end notifying means for generating a special reproduction end signal when the music playing means ends the special reproduction;
特殊再生中に楽曲位置をリアルタイムに同期情報テーブルに出力 する特殊再生同期情報更新手段と  A special playback synchronization information updating means for outputting the music position to the synchronization information table in real time during the special playback;
を設け、 Is established,
フ レーム出力手段を、 特殊再生中は前記特殊再生同期情報更新手 段が更新する前記同期情報テーブルに基づきフレームデ一夕をフレ During trick play, the trick play synchronization information updating means updates the frame output means based on the synchronization information table.
—ムバッファに出力するよう構成した請求項 8記載の A V同期再生 置。 9. The AV synchronous playback device according to claim 8, wherein the AV synchronization playback device is configured to output to an audio buffer.
1 5 . 楽曲デ一夕と動画データとを同期して再生する A V同期 再生装置であって、  1 5. An AV synchronized playback device that plays back music data and video data in synchronization.
楽曲データを再生するときに特定音符分の楽曲が進行する毎にそ の時点での楽曲上の位置を特定した楽曲位置及び演奏テンポの基本 となるテンポ情報を同期メ ッセージとして出力する拍発生回路と、 前記特定音符分を基準として楽曲データと動画データの進行とを 対応づけた A V同期指示データを生成する A V同期指示データ生成 回路と、  A beat generation circuit that outputs, as a synchronous message, the music position at which the specified position on the music is specified and the tempo information that is the basis of the performance tempo each time the music for a specific note progresses when the music data is reproduced. An AV synchronization instruction data generation circuit that generates AV synchronization instruction data in which the music data and the progress of the moving image data are associated with each other based on the specific note
フ レームバッファが画像表示回路に画像を出力する時間間隔を△ Tとするとき、 前記拍発生回路から同期メ ッセ一ジを入力し、 この 同期メ ッセージに含まれたテンポ情報、 この同期メ ッセ一ジを入力 した時点でフ レームバッファに書き込まれている動画デ一夕のフ レ —ムの進行位置、 次の同期メ ッセ一ジを入力するときに前記 A V同 期指示デ一夕によ り指定される動画デ一夕のフレームの進行位置、 及び上記時間間隔 Δ Τとによって、 フレームバッファに書き込む動 画データを決定する表示フ レーム決定回路とを設けた A V同期再生 Assuming that the time interval at which the frame buffer outputs an image to the image display circuit is △ T, a synchronization message is input from the beat generation circuit, and the tempo information included in the synchronization message and the synchronization message are input. Enter message At which point the moving image frame written to the frame buffer at the time of the transfer is specified by the AV synchronization instruction data when the next synchronization message is input. AV synchronous playback provided with a display frame determination circuit that determines the video data to be written to the frame buffer according to the progress position of the frame of the video data and the time interval ΔΤ
1 6 . 楽曲デ一夕 と C Gキャラクタの動きデ一夕とを同期して 再生する A V同期再生装置であって、 1 6. An AV synchronized playback device that synchronizes playback of music data and movement of CG characters with synchronization.
楽曲データを再生するとき、 特定音符分の楽曲が進行する毎に、 その時点での楽曲上の位置を特定した楽曲位置及び演奏テンポの基 本となるテンポ情報を同期メ ッセージとして出力する拍発生回路と、 前記特定音符を基準と して楽曲データの進行と C Gキャラクタの 動きデータの進行とを対応づけた A V同期指示データを生成する A V同期指示デ一夕生成回路と、  When playing back music data, each time a music piece for a specific note progresses, a beat is generated that outputs the music position that specifies the current position on the music and the tempo information that is the basis of the performance tempo as a synchronization message. A circuit for generating AV synchronization instruction data that associates the progress of the music data with the progress of the motion data of the CG character on the basis of the specific note;
フレームバッファが画像表示回路に画像を出力する時間間隔を△ T とするとき、 前記拍発生回路から同期メ ッセ一ジを入力し、 この 同期メ ッセージに含まれたテンポ情報、 この同期メ ッセージを入力 した時点でフ レームバッファに書き込まれている C Gキャラクタの 動きデ一夕のフレームの進行位置、 次の同期メ ッセージを入力する ときに前記 A V同期指示デ一夕によ り指定される C Gキャラクタの 動きデ一夕のフレームの進行位置、 及び上記時間間隔厶 Tとによつ て、 フ レームバッファに書き込む C Gキャラクタの姿勢を決定する キャラクタ姿勢計算回路とを設けた A V同期再生装置。  Assuming that the time interval at which the frame buffer outputs an image to the image display circuit is △ T, a synchronization message is input from the beat generation circuit, and the tempo information included in the synchronization message, the synchronization message, Of the CG character written in the frame buffer at the time of input of the CG character, the progress position of the frame in the next synchronization message, and the CG specified by the AV synchronization instruction data when the next synchronization message is input An AV synchronous reproducing apparatus comprising: a character posture calculation circuit for determining a posture of a CG character to be written into a frame buffer based on a progress position of a frame of a character motion and a time interval T.
1 7 . テンポ情報の変更を入力するテンポ変更入力回路を設け た請求項 1 5 または請求項 1 6 に記載の A V同期再生装置。 17. The AV synchronous reproducing apparatus according to claim 15, further comprising a tempo change input circuit for inputting a change in tempo information.
1 8 . 楽曲と画像を同期させるため、 特定音符を基準と した前 記楽曲上の位置を特定した楽曲位置及び前記楽曲のテンポ情報を、 前記特定音符分だけ前記楽曲が進行する毎に、 前記楽曲の音生成部 から前記画像の生成部に対して伝えることを特徴とする A V同期再 生方法。 18. In order to synchronize the music with the image, the music position and the tempo information of the music specified with respect to the music with reference to the specific note are changed every time the music progresses by the specific note. A method for reproducing an AV synchronization, comprising: transmitting a sound from a music generation unit to the image generation unit.
1 9 . 楽曲データを再生するとき、 特定音符分の楽曲が進行す る毎に、 その時点での楽曲上の位置を特定した楽曲位置及び演奏テ ンポの基本となるテンポ情報を同期メ ッセージとして出力する工程 と、  1 9. When playing back music data, every time a music piece for a specific note progresses, a synchronization message is sent to the music position that specifies the current position on the music piece and the tempo information that is the basis of the performance tempo. And outputting as
前記特定音符を基準と して楽曲データと動画データの進行とを対 応づけた A V同期指示デ一夕を生成する工程と、  Generating an AV synchronization instruction data that associates the music data with the progress of the moving image data based on the specific note;
フ レームバッファが画像表示回路に画像を出力する時間間隔を△ T とするとき、 前記同期メ ッセージを入力し、 この同期メ ッセージ に含まれたテンポ情報、 この同期メ ッセージを入力した時点でフレ —ムバッファに書き込まれている動画デ一夕のフ レームの進行位置- 次の同期メ ッセージを入力するときに前記 A V同期指示データによ り指定される動画データのフ レームの進行位置、 及び上記時間間隔 △ T とによって、 フレームバッファに書き込む動画データを決定す る A V同期再生方法。  Assuming that the time interval at which the frame buffer outputs an image to the image display circuit is △ T, the synchronization message is input, and the tempo information included in the synchronization message and the frame at the time of inputting the synchronization message are input. -The moving position of the moving image frame written in the video buffer-The moving position of the moving image data frame specified by the AV synchronization instruction data when the next synchronization message is input; An AV synchronous playback method that determines the video data to be written to the frame buffer according to the time interval ΔT.
2 0 . 楽曲データを再生するとき、 特定音符分の楽曲が進行す る毎に、 その時点での楽曲上の位置を特定した楽曲位置及び演奏テ ンポの基本となるテンポ情報を同期メ ッセージとして出力する工程 と、  20. When playing back music data, every time a music piece for a specific note progresses, a synchronization message is sent to the music position specifying the current position on the music piece and the tempo information that is the basis of the performance tempo. And outputting as
前記特定音符を基準と して楽曲デ一夕の進行と C Gキャラクタの 動きデータの進行とを対応づけた A V同期指示データを生成するェ 程と、 Generating AV synchronization instruction data in which the progress of the music data and the progress of the motion data of the CG character are associated with each other based on the specific note; About
フレームバッファが画像表示回路に画像を出力する時間間隔を△ Tとするとき、 前記同期メ ッセージを入力し、 この同期メ ッセージ に含まれたテンポ情報、 この同期メ ッセージを入力した時点でフレ —ムバッファに書き込まれている C Gキャラクタの動きデータのフ レームの進行位置、 次の同期メ ッセ一ジを入力するときに前記 AV 同期指示データによ り指定される CGキャラクタの動きデータのフ レームの進行位置、 及び上記時間間隔 ΔΤとによって、 フ レームバ ッファに書き込む C Gキャラクタの姿勢を決定する AV同期再生方  When the time interval at which the frame buffer outputs an image to the image display circuit is △ T, the synchronization message is input, the tempo information included in the synchronization message, and the frame at the time when the synchronization message is input. Position of the frame of the motion data of the CG character written in the system buffer, and the frame of the motion data of the CG character specified by the AV synchronization instruction data when the next synchronization message is input. AV synchronous playback method that determines the attitude of the CG character to be written in the frame buffer based on the progress position of the CG character and the above time interval Δ 間隔
2 1. テンポ情報の変更を入力する工程と、 前記同期メ ッセ一 ジのテンポ情報を入力したテンポ情報に変更する工程とを備えた請 求項 1 9または請求項 2 0に記載の AV同期再生方法。 21. The AV according to claim 19 or claim 20, comprising: a step of inputting a change in tempo information; and a step of changing the tempo information of the synchronous message to the input tempo information. Synchronous playback method.
2 2. 請求項 1 9〜請求項 2 1の何れかに記載の AV同期再生 方法を実現するコンピュー夕プログラムが記録された記録媒体。  22. A recording medium on which a computer program for realizing the AV synchronous reproduction method according to any one of claims 19 to 21 is recorded.
PCT/JP1998/002175 1997-05-19 1998-05-15 Graphic display, synchronous reproduction method, and synchronous av reproducing device WO1998053443A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CA002250021A CA2250021C (en) 1997-05-19 1998-05-15 Graphic display apparatus, synchronous reproduction method, and av synchronous reproduction apparatus
US09/142,813 US6331851B1 (en) 1997-05-19 1998-05-15 Graphic display apparatus, synchronous reproduction method, and AV synchronous reproduction apparatus

Applications Claiming Priority (12)

Application Number Priority Date Filing Date Title
JP9/127717 1997-05-19
JP12771797A JP3481077B2 (en) 1997-05-19 1997-05-19 Graphic display method and device
JP9131521A JPH10320589A (en) 1997-05-22 1997-05-22 Three-dimensional graphics display device
JP9/131521 1997-05-22
JP9/141927 1997-05-30
JP9141927A JPH10333673A (en) 1997-05-30 1997-05-30 Synchronous reproducing method
JP9/167802 1997-06-25
JP9167802A JPH1116001A (en) 1997-06-25 1997-06-25 Three-dimensional graphic display device
JP9290026A JPH11126066A (en) 1997-10-22 1997-10-22 Av synchronizing device, and av synchronizing method, and recording medium recorded with av synchronizing program
JP9/290026 1997-10-22
JP563298A JP3475765B2 (en) 1998-01-14 1998-01-14 Graphic display device
JP10/5632 1998-01-14

Publications (1)

Publication Number Publication Date
WO1998053443A1 true WO1998053443A1 (en) 1998-11-26

Family

ID=27547923

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP1998/002175 WO1998053443A1 (en) 1997-05-19 1998-05-15 Graphic display, synchronous reproduction method, and synchronous av reproducing device

Country Status (2)

Country Link
CN (1) CN1152364C (en)
WO (1) WO1998053443A1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1311382C (en) * 1999-03-09 2007-04-18 索尼公司 Information distribution system
US7339589B2 (en) 2002-10-24 2008-03-04 Sony Computer Entertainment America Inc. System and method for video choreography
US10786736B2 (en) 2010-05-11 2020-09-29 Sony Interactive Entertainment LLC Placement of user information in a game space

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100981405B1 (en) * 2001-05-14 2010-09-10 가부시키가이샤 네트디멘션 Information distribution system and information distribution method
CN1331359C (en) * 2005-06-28 2007-08-08 清华大学 Transmission method for video flow in interactive multi-viewpoint video system
WO2008018506A1 (en) * 2006-08-11 2008-02-14 Sharp Kabushiki Kaisha Image display device, image data providing device, image display system, image display system control method, control program, and recording medium
CN113491083A (en) * 2019-02-26 2021-10-08 松下知识产权经营株式会社 Video camera image transmission/reproduction system, video camera constituting the system, and viewer

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6426274A (en) * 1987-07-22 1989-01-27 Nec Corp System and device for controlling object operation
JPH05298422A (en) * 1992-04-16 1993-11-12 Hitachi Ltd Motion generating method for articulated structure
JPH06274596A (en) * 1993-03-19 1994-09-30 Internatl Business Mach Corp <Ibm> Terminal for virtual conference system and virtual conference system
JPH07325568A (en) * 1994-06-01 1995-12-12 Casio Comput Co Ltd Electronic instrument with output function
JPH0830807A (en) * 1994-07-18 1996-02-02 Fuji Television:Kk Performance/voice interlocking type animation generation device and karaoke sing-along machine using these animation generation devices
JPH08180208A (en) * 1994-01-07 1996-07-12 Fujitsu Ltd Image generating device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6426274A (en) * 1987-07-22 1989-01-27 Nec Corp System and device for controlling object operation
JPH05298422A (en) * 1992-04-16 1993-11-12 Hitachi Ltd Motion generating method for articulated structure
JPH06274596A (en) * 1993-03-19 1994-09-30 Internatl Business Mach Corp <Ibm> Terminal for virtual conference system and virtual conference system
JPH08180208A (en) * 1994-01-07 1996-07-12 Fujitsu Ltd Image generating device
JPH07325568A (en) * 1994-06-01 1995-12-12 Casio Comput Co Ltd Electronic instrument with output function
JPH0830807A (en) * 1994-07-18 1996-02-02 Fuji Television:Kk Performance/voice interlocking type animation generation device and karaoke sing-along machine using these animation generation devices

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
NIKKEI CG, No. 134, November 1997, (Tokyo), TOSHIYA NAKA, "Moving CG Character on the INTERNET Just as You Want (in Japanese)", p. 188-192. *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1311382C (en) * 1999-03-09 2007-04-18 索尼公司 Information distribution system
US7339589B2 (en) 2002-10-24 2008-03-04 Sony Computer Entertainment America Inc. System and method for video choreography
US7777746B2 (en) 2002-10-24 2010-08-17 Sony Computer Entertainment America Llc System and method for video choreography
US8184122B2 (en) 2002-10-24 2012-05-22 Sony Computer Entertainment America Llc System and method for video choreography
US9114320B2 (en) 2002-10-24 2015-08-25 Sony Computer Entertainment America Llc System and method for video choreography
US10786736B2 (en) 2010-05-11 2020-09-29 Sony Interactive Entertainment LLC Placement of user information in a game space
US11478706B2 (en) 2010-05-11 2022-10-25 Sony Interactive Entertainment LLC Placement of user information in a game space

Also Published As

Publication number Publication date
CN1152364C (en) 2004-06-02
CN1225734A (en) 1999-08-11

Similar Documents

Publication Publication Date Title
CA2250021C (en) Graphic display apparatus, synchronous reproduction method, and av synchronous reproduction apparatus
US6958751B2 (en) Image processing device, image processing method and recording medium
JP3601350B2 (en) Performance image information creation device and playback device
CN107430781B (en) Data structure of computer graphics, information processing apparatus, information processing method, and information processing system
JP4746640B2 (en) Dynamic image motion transition processing method and system, and computer-readable recording medium recording the program
JP2010267069A (en) Apparatus for generation of video content, and computer program
JP2010044484A (en) Video content generation apparatus, and computer program
WO1998053443A1 (en) Graphic display, synchronous reproduction method, and synchronous av reproducing device
JP3895014B2 (en) Video playback device and karaoke device
JP2012198380A (en) Display control device
JP6248943B2 (en) Information processing apparatus, information processing method, program, and information processing system
JP2006196017A (en) Animation creation apparatus and method, storage medium
JPH07306687A (en) Sound reproducing processor and its system
US6056555A (en) Karaoke apparatus using background video with variable reproduction address
WO2021085105A1 (en) Information processing device, proposal device, information processing method, and proposal method
JP6110731B2 (en) Command input recognition system by gesture
JPH11126066A (en) Av synchronizing device, and av synchronizing method, and recording medium recorded with av synchronizing program
JP5939217B2 (en) Information processing apparatus, information processing system, and program
JP5949688B2 (en) Information processing apparatus and program
JP5954288B2 (en) Information processing apparatus and program
JP5372823B2 (en) Video content generation system, metadata construction device, video content generation device, portable terminal, video content distribution device, and computer program
JP2013045367A (en) Video content generation device, video content generation method, and computer program
JP5935775B2 (en) Information processing apparatus and program
JP5928361B2 (en) Information processing apparatus, information processing method, and program
JP2003271162A (en) Karaoke device and program for realizing karaoke device

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 98800587.5

Country of ref document: CN

ENP Entry into the national phase

Ref document number: 2250021

Country of ref document: CA

WWE Wipo information: entry into national phase

Ref document number: 09142813

Country of ref document: US

AK Designated states

Kind code of ref document: A1

Designated state(s): CA CN US

CFP Corrected version of a pamphlet front page
CR1 Correction of entry in section i

Free format text: PAT. BUL. 47/98 UNDER (51) REPLACE "G10H 1/00" BY "G06T 15/70, G10H 1/00"