WO2004066216A1 - コンテンツ合成装置、コンテンツ合成方法、コンテンツ合成プログラム、コンテンツ合成プログラムを記録したコンピュータ読取可能な記録媒体、コンテンツデータのデータ構造、および、コンテンツデータを記録したコンピュータ読取可能な記録媒体 - Google Patents

コンテンツ合成装置、コンテンツ合成方法、コンテンツ合成プログラム、コンテンツ合成プログラムを記録したコンピュータ読取可能な記録媒体、コンテンツデータのデータ構造、および、コンテンツデータを記録したコンピュータ読取可能な記録媒体 Download PDF

Info

Publication number
WO2004066216A1
WO2004066216A1 PCT/JP2004/000561 JP2004000561W WO2004066216A1 WO 2004066216 A1 WO2004066216 A1 WO 2004066216A1 JP 2004000561 W JP2004000561 W JP 2004000561W WO 2004066216 A1 WO2004066216 A1 WO 2004066216A1
Authority
WO
WIPO (PCT)
Prior art keywords
content data
data
content
script
synthesizing
Prior art date
Application number
PCT/JP2004/000561
Other languages
English (en)
French (fr)
Inventor
Tetsuya Matsuyama
Junko Mikata
Hideki Nishimura
Original Assignee
Sharp Kabushiki Kaisha
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Kabushiki Kaisha filed Critical Sharp Kabushiki Kaisha
Priority to US10/542,902 priority Critical patent/US20060136515A1/en
Publication of WO2004066216A1 publication Critical patent/WO2004066216A1/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects

Definitions

  • the present invention relates to a content synthesizing apparatus, a content synthesizing method, a content synthesizing program, a computer-readable recording medium recording a content synthesizing program, a data structure of content, and a computer-readable recording medium recording content data.
  • the present invention relates to a content synthesizing apparatus, a content synthesizing method, a content synthesizing program, a computer-readable recording medium recording a content synthesizing program, a data structure of content data, and a computer readable recording of the content data.
  • a content synthesizing apparatus suitable for synthesizing content data, a content synthesizing method, a content synthesizing program, a computer-readable recording medium storing the content synthesizing program, a data structure of the content
  • the present invention relates to a computer-readable recording medium on which content data is recorded.
  • One object of the present invention is to provide a content synthesizing apparatus capable of controlling a synthesizing process from the content data side, a content synthesizing method, a content synthesizing program, a computer-readable recording medium storing the content synthesizing program, a content It is an object of the present invention to provide a computer-readable recording medium on which data structure of content data and content data are recorded.
  • Another object of the present invention is to provide a content synthesizing apparatus, a content synthesizing method, a content synthesizing program, and a computer-readable recording medium storing the content synthesizing program, which do not require a new synthesizing script required for synthesizing content data.
  • Another object of the present invention is to provide a data structure of content data, and a computer-readable recording medium on which the content data is recorded.
  • a content synthesizing device is configured to input first content data including a synthesizing script describing synthesis of content data and second content data.
  • the first content data including the synthesis script describing the synthesis of the content data and the input of the second content data are received by the content synthesis device, and the input first content is received. Included in data The input first content is synthesized with the input second content data based on the synthesized script to be input. Therefore, the synthesizing process is controlled by the synthesizing script included in the first content data.
  • the first content data includes the composite stabilize, there is no need to prepare a new composite script when the first content data is composited with the second content data. As a result, it is possible to provide a content synthesizing device that can control the synthesizing process from the content data side and does not need to newly prepare a synthesizing script required for synthesizing the content data.
  • the system further comprises an attribute determining unit for determining an attribute of the second content data, wherein the synthesizing script includes a script corresponding to each of the plurality of attributes of the content data, and the synthesizing processing unit determines the attribute.
  • the input first content data is combined with the input second content data based on the stabilization corresponding to the attribute.
  • the attribute of the second content data is determined by the content synthesizing device, and based on the script corresponding to the determined attribute included in the composite script included in the first content data, The one content data is combined with the second content data. For this reason, the combining process is controlled by a script corresponding to the attribute of the second content data. As a result, the synthesizing process can be controlled from the content data side, and the synthesizing process according to the attribute of the content data can be performed.
  • the system further includes a time acquisition unit for acquiring the current time, wherein the synthesis script includes a script corresponding to the time synthesized by the synthesis processing unit, and the synthesis processing unit converts the script according to the obtained current time into a script. Based on this, the input first content is combined with the input second content data.
  • the current time is acquired by the content synthesizing device, and the first content data is converted to the first content data based on the script corresponding to the acquired current time included in the synthesizing script included in the first content data.
  • the combining process is controlled by a script corresponding to the combining time.
  • the composition processing can be controlled from the content data side.
  • the synthesizing process according to the time when the content data is synthesized can be performed.
  • the apparatus further includes a position acquisition unit that acquires the current position of the content synthesizing device, wherein the synthesis script includes a script corresponding to the position, and the synthesis processing unit performs processing based on the acquired script corresponding to the current position.
  • the input first content data is combined with the input second content data.
  • the current position of the content synthesizing device is obtained by the content synthesizing device, and the first position is obtained based on the script corresponding to the obtained current position included in the synthesizing script included in the first content data. Is synthesized with the second content data. For this reason, the combining process is controlled by a script corresponding to the place to be combined. As a result, the synthesizing process can be controlled from the content data side, and the synthesizing process according to the place where the content data is synthesized can be performed.
  • the synthesis script includes another synthesis script, and further includes an adding unit that causes the synthesized content data to include the other synthesis script.
  • the composite script includes location information indicating the location of another composite stub, an acquisition unit that acquires another composite script indicated by the location information, and another composite script acquired in the composited content data. And an additional portion to be included.
  • the content synthesizing device obtains another synthetic script indicated by the location information included in the synthetic script indicating the location of another synthetic script, and adds the obtained other synthetic script to the synthesized content data. Is added. Therefore, it is possible to control the combining process from the newly combined content data side.
  • the first content data and the second content data include a key frame defining a frame of the imaging data
  • the synthesizing script includes And a script describing insertion of data included in a key frame included in the second content data into a predetermined key frame of the first content data.
  • the content synthesizing device includes a script describing that data included in a key frame included in the second content data is inserted into a predetermined key frame of the first content data. Based on the synthesizing script, data included in the key frame included in the input second content data is inserted into a predetermined key frame of the input first content data.
  • the synthesizing script included in the content data controls the synthesizing process of importing the data included in the second content data into the first content data, and as a result, importing other content data from the content data side The synthesis process can be controlled.
  • the first content data and the second content data include a key frame defining a frame of the animation data
  • the synthesizing script converts the key frame included in the second content data into the first content data. Includes a script that states that it is to be added to the specified location in the data.
  • the content synthesizing device is configured to input a key frame included in the second content data based on a synthesis script including a script describing that the key frame is added to a predetermined portion of the first content data.
  • the key frame included in the second content data is added to a predetermined portion of the first content data including the key frame.
  • the combining process of adding the second content data to the first content data is controlled by the combining script included in the first content data. As a result, it is possible to control the combining process for adding other content data from the content data side.
  • the first content data includes a key frame that defines a frame of the image data
  • the second content data is data that can be included in the key frame
  • the synthesizing script includes: And a script describing that predetermined data included in the key frame of the content data is changed to the second content data.
  • the key of the first content data is obtained by the content synthesizing device.
  • the predetermined data included in the key frame of the input first content data is input based on a composite stabilization including a script describing that the predetermined data included in the frame is changed to the second content data. Is changed to the second content data.
  • the synthesizing process for changing predetermined data included in the first content data to second content data is controlled by the synthesizing script included in the first content data. As a result, it is possible to control the synthesizing process for changing the content data to another content data.
  • the synthesizing script includes a script describing that a predetermined portion of the first content data is deleted.
  • the content synthesizing device deletes the predetermined portion of the input first content data based on the synthetic stabilization including the stabilization describing that the predetermined portion of the first content data is deleted. Is done. For this reason, the synthesizing process for deleting a predetermined portion included in the first content data is controlled by the synthesizing script included in the first content data. As a result, it is possible to control the synthesizing process of deleting a predetermined portion of the content data from the content data side.
  • a content synthesizing device accepts input of first content data including location information indicating the location of a composite script describing composition of content data, and second content data
  • An input receiving unit an obtaining unit that obtains a synthetic stablist indicated by the location information included in the input first content data, and an input of the first content data based on the obtained synthesis script.
  • a synthesizing unit for synthesizing the second content data.
  • the content synthesizing apparatus receives the input of the first content data including the location information indicating the location of the synthesized script describing the synthesis of the content data, and the input of the second content data.
  • a synthesis script indicated by the location information included in the input first content data is obtained, and the input first content data is synthesized with the input second content data based on the obtained synthesis stabilization. You. Therefore, it is included in the first content data.
  • the synthesis processing is controlled by the synthesis script indicated by the location information to be displayed. Also, since the first content data includes the location information of the composition script, there is no need to prepare a new composition script when combining the first content data with the second content data. As a result, it is possible to provide a content synthesizing device that can control the synthesizing process from the content data side and that does not need to newly prepare a synthesizing script required for synthesizing the content data.
  • the composite stabilit includes location information indicating the location of another composite stabilt, and the acquiring unit further acquires another composite script indicated by the location information, and obtains another composite script acquired by the composited content data.
  • an additional unit that includes
  • the content synthesizing device further obtains another synthesized stabilite indicated by the location information included in the synthesized stabilit indicating the location of another synthesized script, and adds the obtained synthesized data to the synthesized content data.
  • the script is attached. Therefore, the combining process can be controlled from the newly combined content data.
  • a content synthesizing method is a method of synthesizing content data by a computer, comprising a step of receiving input of first content data including a synthesizing script, and second content data. And synthesizing the input first content with the input second content data based on the synthesis script included in the input first content.
  • the present invention it is possible to provide a content synthesizing method that can control the synthesizing process from the content data side and does not need to newly prepare a synthesizing script required for synthesizing the content data.
  • a content synthesizing method is a method of synthesizing content data by a computer, comprising: first content data including location information indicating the location of a synthesis script; Receiving the input of the content data; obtaining the composite stabilite indicated by the location information included in the input first content data; and Combining the input first content data with the input second content data.
  • the present invention it is possible to provide a content synthesizing method that can control the synthesizing process from the content data side and does not need to newly prepare a synthesizing stabilizer necessary for synthesizing the content data.
  • a content synthesizing program is a program for synthesizing content data, the step of receiving input of first content data including a synthesizing script, and second content data And causing the computer to execute a step of combining the input first content data with the input second content data based on the composite script included in the input first content data.
  • a synthesizing process can be controlled from the content data side, and a content synthesizing program which does not require a new synthesizing script required for synthesizing content data, and a content synthesizing program are recorded.
  • Computer readable recording medium can be provided.
  • a content synthesizing program is a program for synthesizing content data, the first content data including location information indicating the location of a synthesis script, and the second content data.
  • Receiving the input obtaining the composite script indicated by the location information included in the input first content data, and inputting the input first content data based on the obtained composite script And synthesizing with the second content data thus obtained.
  • a synthesizing process can be controlled from the content data side, and a content synthesizing program which does not require a new synthesizing script required for synthesizing content data, and a content synthesizing program are recorded.
  • Computer readable recording medium can be provided.
  • the data structure of the content data includes: a content script; and a synthesis script used when a synthesis process for synthesizing the content data with the other content data is executed by a computer.
  • the combining process for combining other content data with the content data is executed on the computer by the combining script included in the content data.
  • the content data and other content data include a key frame that defines a frame of the animation data, and the synthesizing script adds a key frame included in the other content data to a predetermined portion of the content data.
  • the synthesizing script adds a key frame included in the other content data to a predetermined portion of the content data.
  • a computer adds a key frame included in another content data to a predetermined portion of the content data based on a synthesis script including a script describing addition of the key frame.
  • the included key frame is added to a predetermined portion of the input content data.
  • the synthesizing process for adding other content data to the content data is controlled by the synthesizing script included in the content data.
  • the synthesizing process of adding other content data from the content data side can be controlled.
  • the content data includes a key frame that defines a frame of the animation data
  • the other content data is data that can be included in a key frame
  • the synthesis script is included in a key frame of the content data. Includes a script that describes changing certain data to other content data.
  • a key frame of the input content data is used by a computer. Is changed to other input content data. For this reason, the synthesizing process for changing predetermined data included in the content data to other content data is controlled by the synthesizing script included in the content data. As a result, synthesis that changes from content data to other content data Processing can be controlled.
  • the synthesizing script includes a script that describes deleting a predetermined portion of the content data.
  • the computer deletes a predetermined portion of the input content data based on a synthesis script including a script describing that a predetermined portion of the content data is deleted. For this reason, the synthesizing process for deleting a predetermined portion included in the content data is controlled by the synthesizing script included in the content data. As a result, it is possible to control the synthesizing process of deleting a predetermined portion of the content data from the content data side.
  • FIG. 1 is a block diagram schematically showing the configuration of the content synthesizing apparatus according to the first embodiment.
  • FIG. 2 is a diagram schematically illustrating the function of the content synthesizing apparatus according to the first embodiment.
  • FIG. 3 is a flowchart illustrating a flow of a content synthesizing process executed by the content synthesizing apparatus according to the first embodiment.
  • FIGS. 4A and 4B are diagrams illustrating the data structure of content data before being combined in the first combination example in the first embodiment.
  • FIG. 5 is a diagram showing a data structure of the content data after being synthesized in the first synthesis example in the first embodiment.
  • FIGS. 6A, 6B, 6C, and 6D show an image displayed when the content synthesized in the first synthesis example of the first embodiment is reproduced.
  • FIG. 6A, 6B, 6C, and 6D show an image displayed when the content synthesized in the first synthesis example of the first embodiment is reproduced.
  • FIGS. 7A and 7B are diagrams illustrating the data structure of content data before being combined in the second combination example in the first embodiment.
  • FIG. 8 shows the content after being synthesized in the second synthesis example in the first embodiment.
  • FIG. 3 is a diagram showing a data structure of data.
  • FIGS. 9A, 9B, 9C, and 9D are diagrams for explaining an animation displayed when reproducing the synthesized content data in the second synthesis example in the first embodiment.
  • FIG. 9A, 9B, 9C, and 9D are diagrams for explaining an animation displayed when reproducing the synthesized content data in the second synthesis example in the first embodiment.
  • FIGS. 10A and 10B are diagrams showing the data structure of content data before being combined in the third combination example in the first embodiment.
  • FIG. 11 is a diagram illustrating a data structure of the content data after being synthesized in the third synthesis example in the first embodiment.
  • FIGS. 12A and 12B are diagrams showing the data structure of content data before being combined in the fourth combining example in the first embodiment.
  • FIG. 13 is a diagram illustrating a data structure of the content data after being synthesized in the fourth synthesis example in the first embodiment.
  • FIG. 14 is a diagram schematically illustrating the function of the content synthesizing apparatus according to the second embodiment.
  • FIG. 15 is a flowchart showing the flow of a data synthesizing process executed by the content synthesizing device in the second embodiment.
  • FIG. 16 is a flowchart showing the flow of an attribute discriminating process executed by the content synthesizing device according to the second embodiment.
  • FIGS. 17A, 17B, and 17C are diagrams showing the data structure of content data before being combined in the first combination example in the second embodiment.
  • 18A, 18B, 18C, 18D, 18E, and 18F illustrate animations displayed when the content data synthesized in the first synthesis example in the second embodiment is played.
  • FIG. 18A, 18B, 18C, 18D, 18E, and 18F illustrate animations displayed when the content data synthesized in the first synthesis example in the second embodiment is played.
  • FIG. 19 is a diagram illustrating an outline of functions of a content synthesizing apparatus according to the third embodiment.
  • FIG. 20 is a flowchart illustrating a flow of a data synthesizing process performed by the content synthesizing apparatus according to the third embodiment.
  • FIGS. 21A and 21B are diagrams illustrating a data structure of content data before being combined in the first combination example in the third embodiment.
  • FIGS. 22A, 22B, 22C, 22D, 22E, and 22F show the content synthesized in the first synthesis example of the third embodiment.
  • FIG. 9 is a diagram for explaining an erection displayed when data is reproduced.
  • FIG. 23 is a diagram illustrating an outline of functions of the content synthesizing apparatus according to the fourth embodiment.
  • FIG. 24 is a flowchart showing the flow of a data synthesizing process executed by the content synthesizing device in the fourth embodiment.
  • FIGS. 25A and 25B are diagrams showing the data structure of content data before being combined in the first combination example in the fourth embodiment.
  • FIG. 26 is a flowchart illustrating the flow of a data combining process performed by the content combining device according to the fifth embodiment.
  • FIGS. 27A and 27B are diagrams illustrating the data structure of content data before being combined in the first combination example in the fifth embodiment.
  • FIG. 28 is a diagram illustrating a data structure of content data after being synthesized in the first synthesis example in the fifth embodiment.
  • FIGS. 29A and 29B are diagrams illustrating the data structure of content data before being combined in the second combination example in the fifth embodiment.
  • FIG. 30 is a diagram showing a data structure of the content data after being synthesized in the second synthesis example in the fifth embodiment.
  • FIGS. 31A and 31B are diagrams illustrating the data structure of content data before being combined in the third combination example in the fifth embodiment.
  • FIG. 32 is a diagram showing a data structure of the content data after being synthesized in the third synthesis example in the fifth embodiment.
  • FIG. 33 is a diagram schematically illustrating functions of a content synthesizing apparatus according to the sixth embodiment.
  • FIG. 34 is a flowchart showing the flow of a data synthesizing process executed by the content synthesizing device in the sixth embodiment.
  • FIG. 1 is a block diagram schematically illustrating a configuration of the content synthesizing device 100 according to the first embodiment.
  • content synthesizing apparatus 100 can be configured with a general-purpose computer such as a personal computer (hereinafter, referred to as “PC (Personal Computer)”).
  • the content synthesizing device 100 includes a control unit 110 for controlling the entire content synthesizing device 100, a storage unit 130 for storing predetermined information, and a content synthesizing device 100.
  • the control unit 110, the storage unit 130, the input unit 140, the output unit 150, the communication unit 160, and the external storage device 170 are connected via a bus. Are connected to each other.
  • the control unit 110 consists of a CPU (Central Processing Unit) and a CPU auxiliary circuit, and controls the storage unit 130, the input unit 140, the output unit 150, and the external storage device 170. Then, a predetermined process is executed in accordance with the program stored in the storage unit 130, and data input from the input unit 140, the communication unit 160, and the external storage device 170 are processed. The processed data is output to the output unit 150, the communication unit 160, or the external storage device 170.
  • a CPU Central Processing Unit
  • CPU auxiliary circuit controls the storage unit 130, the input unit 140, the output unit 150, and the external storage device 170.
  • the storage unit 130 stores a RAM (Random Access Memory) used as a work area necessary for executing the program in the control unit 110, and a program to be executed in the control unit 110.
  • ROM Read Only Memory
  • a magnetic disk storage device such as a hard disk drive (hereinafter, referred to as “HDD (Hard Disk Drive) J”) is used as an aid to the RAM.
  • HDD Hard Disk Drive
  • the input unit 140 is an interface for inputting a signal from a keyboard, a mouse, or the like, and can input necessary information to the content synthesizing device 100. You.
  • the output unit 150 is an interface for outputting a signal to a display such as a liquid crystal display device or a cathode ray tube (hereinafter referred to as “CRT (Cathode Ray Tube)” ′), and is required from the content synthesizing device 100. Information can be output.
  • a display such as a liquid crystal display device or a cathode ray tube (hereinafter referred to as “CRT (Cathode Ray Tube)” ′
  • CRT Cathode Ray Tube
  • the communication section 160 is a communication interface for connecting the content synthesizing apparatus 100 to the network 500.
  • the content synthesizing device 100 transmits and receives necessary information to and from other PCs and the like via the communication unit 160.
  • the external storage device 170 reads a program or data recorded on the recording medium 171, and transmits the program or data to the control unit 110. Further, the external storage device 170 writes necessary information to the recording medium 1711 in accordance with an instruction from the control unit 110.
  • Computer-readable recording media include magnetic tapes, cassette tapes, magnetic disks such as floppy (R) disks and hard disks, CD-ROMs (Compact Disk Read Only Memory), DVDs (Digital Versatile Disks), etc.
  • Optical disks magneto-optical disks such as MO (Magneto Optical disk) and MD (MiniDisc), memory cards such as IC cards and optical cards, or masks ROM, EPR OM (Erasable Programmable Read Only Memory), EEPR OM (Electrionically
  • This is a recording medium that fixedly carries a program including semiconductor memory such as Erasable and Programmable Read Only Memory (ROM) and flash ROM.
  • the recording medium can be a medium that dynamically carries a program so that the program can be downloaded from the network 500.
  • FIG. 2 is a diagram illustrating an outline of functions of the content synthesizing device 100 according to the first embodiment.
  • control unit 110 of content synthesizing device 100 includes an input receiving unit 111 and a synthesizing processing unit 112.
  • the storage unit 130 of the content synthesizing device 100 stores a plurality of pieces of content data.
  • the content data includes content data including animation data and a synthesizing script, and content data including animation data.
  • the content data may include data that can be output by a content reproducing device such as a computer, such as moving image data such as animation data, still image data, music data, and graphic data.
  • animation data is added to the content data.
  • the animation data includes a key frame which is data defining each frame of the animation data.
  • the synthesizing script is information that defines a procedure in a synthesizing process for synthesizing certain content data with other content data, and is used when the synthesizing process is executed by the content synthesizing device 100.
  • the synthesis script consists of control contents and parameters.
  • the control content indicates the content of the synthesis processing.
  • the parameter indicates the target of the compositing process.
  • the synthesizing script is information that defines a procedure in a synthesizing process for synthesizing the animation data with other animation data. is there.
  • the content data stored in the storage unit 130 may be received in advance from another PC or the like via the network 500 by the communication unit 160 and stored in the storage unit 130.
  • the data may be read from the recording medium 17 1 by the external storage device 170 and stored in the storage unit 130.
  • the input receiving unit 111 receives the input of the content data 10 including the synthesizing script stored in the storage unit 130 and the content data 20.
  • the received content data 10 and content data 20 are output to the combination processing unit 112.
  • the input receiving unit 111 directly receives the input of the content data 10 including the synthesizing script and the content data 20 from another PC or the like via the network 500 by the communication unit 160.
  • the input of the content data 10 including the synthesizing script and the input of the content data 20 from the recording medium 171 by the external storage device 170 may be accepted.
  • the combination processing unit 112 combines the animation data included in the content data 10 with the animation data included in the content data 20 based on the combination script included in the content data 10. Then, the synthesizing unit 112 stores the synthesized content data 30 in the storage unit 130. Note that the synthesis processing unit 112 may transmit the synthesized content data 30 directly to another PC or the like via the network 500 by the communication unit 160, or may be an external storage. Equipment 1 70 may be used for recording on the recording medium 17 1.
  • FIG. 3 is a flowchart illustrating a flow of the content synthesizing process performed by the content synthesizing device 100 according to the first embodiment.
  • step S 11 content data 10 including the composite script stored in storage unit 130 and content data 20 are input by input receiving unit 111. Is accepted.
  • step S12 the combining processing unit 112 determines whether or not the content data 10 or the content data 20 input in step S11 includes a combining script. . If any of the content data includes a synthesizing script (Yes in step S11), the process proceeds to step S13. On the other hand, if no synthesizing script is included in any of the content data (step S 1
  • step S13 the content data 10 input in step S11 includes the synthesizing script.
  • step S12 if any of the content data includes a synthesis script, the content synthesis processing may be terminated, or the synthesis script included in either of the content data may be changed to a subsequent step. ⁇ You may use it.
  • step S13 the data processing is executed by the data processing unit 112.
  • the data synthesizing process is based on the synthesizing script included in the content data 10 input in step S11, and converts the animation data included in the content data 10 into the content data 2 input in step S11. This is a process for combining with the operation data included in 0.
  • step S14 the content data 30 synthesized in step S13 is stored in the storage unit 130 by the synthesis processing unit 1 1 ⁇ , and the content synthesis processing ends.
  • FIGS. 4A and 4B are diagrams illustrating the data structure of content data before being combined in the first combination example in the first embodiment.
  • FIG. 4A is a diagram showing the data structure of content data 1.A including a composite script.
  • content data 1A includes a header, key frame 1 to key frame 4, and a synthesis script.
  • the header includes data indicating the attributes of the animation data, such as the display size of the animation data, the number of key frames, and the playback time interval of each key frame.
  • a key frame is data that defines a frame of animation data. Then, the time at which each key frame is reproduced is determined from the reproduction time interval of each key frame. Next, the frames between key frames are complemented according to the frame rate that indicates the number of frames that can be played back per second by the playback device that plays back the animation data. Then, the key frame and the complemented frame are sequentially played back, thereby realizing the auction.
  • Key frame 1 includes object data and image data.
  • the object data is data indicating a shape, and includes shape data indicating the shape of the shape and position data indicating the position of the shape.
  • the object data has a circular shape and a shape. Indicates that the object data is slightly to the left of the upper center of the screen.
  • the object data is shown in the form of an image displayed on the screen for easy understanding.
  • the image data is data of an image displayed on the background of the animation, for example, data obtained by encoding an image of a pattern, a painting, a photograph, or the like in a predetermined encoding format. It is displayed until a key frame containing another image data is played.
  • the key frame 2 includes object data and music data. Since the object data is object data indicating the same figure as the object data included in the key frame 1, it is associated with each other. Here, the object data indicates that the figure is slightly to the left of the upper center of the screen, and the music data is data for generating sound as the animation progresses. This is data in which music and sound effects are encoded in an encoding format that can generate sound on a computer. Generate the same music until the keyframe is played.
  • Keyframe 3 and keyframe 4 each contain object data. These object data are associated with each other because they are object data indicating the same figure as the object data included in the key frame 1 and the key frame 2. That is, the object data included in the key frames 1 to 4 are associated with each other between the key frames. For this reason, by reproducing the animation data, the graphic represented by the object data is displayed as a graphic representation of the graphic as the key frame elapses.
  • Such an animation system is called a vector animation system.
  • the object data included in the key frame 3 indicates that the figure is slightly below the center of the screen and slightly to the left of the center.
  • the object data included in the key frame 4 indicates that the figure is slightly to the left of the center of the screen. Specifically, as keyframes 1 to 4 are played, the circular figure is initially slightly to the left of the center at the top of the screen, stays at the same position for a while, then starts moving downwards, After moving slightly below, it will move upward and move to near the center.
  • the synthesis script included in the content data 1A includes “input of an object of another file” as a control content, and “key frame 2 to” as a parameter.
  • Control contents is an object data included in ⁇ E mail Chillon data included in another contents data 2 A, indicating that ⁇ the target position designated by the parameter.
  • the parameter “key frame 2 to” indicates that the target position of the combination process indicated by the control content is key frame 2 to the application data included in the content data 1A including the combination script.
  • FIG. 4B is a diagram showing the data structure of the content data 2A.
  • content data 2A includes a header and key frame 1 data to key frame 2.
  • Key frame 1 and key frame 2 include object data.
  • the object data indicates that the shape of the figure is square and that the figure is slightly below the center of the screen.
  • the object data included in the key frame indicates the same shape as the shape indicated by the object data included in the key frame 1, and indicates that the shape is slightly above the center of the screen.
  • the content synthesizing device 100 accepts the input of the content data 1A and the content data 2A, and determines whether or not the content data 1A or the content data 2A contains a synthetic script. You. Since the composite data is included in the content data 1A, the animation data included in the content data 1A is synthesized with the animation data included in the content data 2A based on the composite script, and the content data 3A described later is used. Is stored.
  • the composition script describes that the object data included in each key frame of the content data 2A is inserted into each key frame from the key frame 2 of the content data 1A including the composition script.
  • the content synthesizing device 100 sets the key frame 1 of the content data 1A as a new key frame 1.
  • the object data included in the key frame 1 of the content data 2A is inserted into the key frame 2 of the content data 1A, and is set as a new key frame 2.
  • the object data included in the key frame 2 of the content data 2A is inserted into the key frame 3 of the content data 1A, and is set as a new key frame 3.
  • the key frame 4 of the content data 1A is set as a new key frame 4.
  • a header is generated based on the new key frames 1 to 4, and the header and the content data 3A including the new key frames 1 to 4 are synthesized and stored.
  • FIG. 5 is a diagram showing a data structure of the content data 3A after being synthesized in the first synthesis example in the first embodiment.
  • the content data 3A in which the content data 1A and the content data 2A are combined by the unit 100, comprises a header and key frames 1 to 4.
  • the header is generated based on the key frames 1 to 4 of the synthesized content data 3A and included in the content data 3A.
  • Key frame 1 is the same as key frame 1 of content data 1A described in FIG. 4A.
  • the key frame 2 is obtained by inserting the object data included in the key frame 1 of the content data 2A described in FIG. 4B into the key frame 2 of the content data 1A.
  • the key frame 3 is obtained by inserting the object data included in the key frame 2 of the content data 2A into the key frame 3 of the content data 1A.
  • Key frame 4 is the same as key frame 4 of content data 1A.
  • FIGS. 6A, 6B, 6C, and 6D show an image displayed when the content data 3A synthesized in the first synthesis example in the first embodiment is reproduced.
  • FIG. FIGS. 6A to 6D are display screen diagrams corresponding to each key frame reproduced sequentially. Referring to FIG. 6A, first, in key frame 1, a circular figure is displayed slightly to the left of the upper center of the screen, and an image A represented by image data is displayed on the background. Between key frame 1 and key frame 2, the display screen displayed at the first key frame is continuously displayed.
  • a square figure is displayed slightly below the center of the screen, and music A indicated by music data flows. Between keyframe 2 and keyframe 3, the circular figure moves down and the square figure moves up.
  • FIG. 6C at key frame 3, a circular figure is displayed slightly below the center of the screen, slightly to the left of the center, and a square figure is displayed slightly above the center of the screen. Between keyframes 3 and 4, the circular shape moves upward and the square shape gradually disappears. Referring to FIG. 6D, in key frame 4, the circular shape stops slightly to the left of the center of the screen, and the square shape disappears completely.
  • a display screen corresponding to the complemented frame is displayed between display screens corresponding to each key frame. Is displayed.
  • the synthesizing process of inserting the object data included in the content data 2A into the content data 1A is controlled by the synthesizing script included in the content data 1A. As a result, it is possible to control the synthesizing process for inputting another content data 2A from the content data 1A side.
  • FIGS. 7A and 7B are diagrams illustrating the data structure of content data before being combined in the second combination example in the first embodiment.
  • FIG. 7A is a diagram showing a data structure of content data 1B including a composite script.
  • content data 1B includes a header, key frame 1 to key frame 4, and a synthesis script.
  • Keyframes 1 to 4 each contain object data. Since these object data are the same as the object data included in key frame 1 to key frame 4 of content data 1A described in FIG. 4A, description thereof will not be repeated.
  • the synthesizing script included in the content data 1B includes “input of an object in another file” as the first control content, and “keyframe 2 to” as the first parameter.
  • the second control content includes “insert control data”, and the second parameter includes “(jump 4) key frame 2”. “Importing objects from other files” was explained in Figure 4A, so the explanation will not be repeated.
  • Control contents “Insert control data” indicates that the target data specified by the parameter in parentheses is inserted into the target position specified by the parameter outside the parentheses.
  • the parameter “(jump 4) key frame 2” is the The control data is “jump 4 j”, and the target position of the combining process indicated by the control content is the key frame 2 of the animation data included in the content data 1 B including the combining script.
  • the control data is data for controlling the playback device when a key frame of the animation data is played back.
  • the reproducing device reproduces the key frame based on the control data when reproducing the key frame.
  • FIG. 7B is a diagram showing a data structure of the content data 2B.
  • Content data 2B shown in FIG. 7B is the same as content data 2A described in FIG. 4B, and therefore description thereof will not be repeated.
  • the content synthesizing device 100 receives the input of the content data 1B and the content data 2B, and determines whether or not the content data 1B or the content data 2B includes a synthesizing script. You. Since the content data 1A includes the synthesizing script, the animation data included in the content data 2B is synthesized with the animation data included in the content data 2B based on the synthesizing script. B is stored.
  • the composite script includes a script describing that the object data included in each key frame of the other animation data 2B described later is inserted into each key frame from the key frame 2 of the animation data 1B including the composite script.
  • This document describes that control data "jump 4" indicating that a jump to key frame 4 is to be inserted into key frame 2 of the animation data 1B.
  • the content synthesizing device 100 sets the key frame 1 of the content data 1B as a new key frame 1.
  • the object data included in the key frame 1 of the content data 2 B and the control data “jump 4” are inserted into the key frame 2 of the content data 1 B to obtain a new key frame 2.
  • the object data included in key frame 2 of content data 2 B Is inserted into the key frame 3 of the content data 1 B to obtain the key frame 3 of the content data 3 B.
  • the key frame 4 of the content data 1B is set as a new key frame 4.
  • a header is generated based on the new key frames 1 to 4, and the header and the content data 3B including the new key frames 1 to 4 are synthesized and taken into account.
  • FIG. 8 is a diagram showing a data structure of the content data 3B after being synthesized in the second synthesis example in the first embodiment.
  • content data 3B obtained by synthesizing content data 1B and content data 2B by content synthesizing device 100 includes a header and key frames 1 to 4.
  • the header has already been described with reference to FIG. 5, and the description will not be repeated.
  • Key frame 1 is the same as key frame 1 of content data 1B described in FIG. 7A.
  • key frame 2 the object data included in key frame 1 of content data 2B described in FIG. 7B was inserted into key frame 2 of content data 1B, and control data “jump 4” was inserted. Things.
  • the key frame 3 is obtained by inserting the object data included in the key frame 2 of the content data 2B into the key frame 3 of the content data 1B.
  • FIGS. 9A, 9B, 9C, and 9D show the images displayed when the content data 3B synthesized in the second synthesis example of the first embodiment is reproduced.
  • FIG. 9A to 9D are display screen diagrams corresponding to each key frame reproduced sequentially. Referring to FIG. 9A, first, in key frame 1, a circular figure is displayed slightly to the left of the upper center of the screen. Between key frames 1 and 2, the display screen displayed at the first key frame is continuously displayed.
  • a square shape is also displayed at the center of the screen. Appears slightly below.
  • key frame 3 is excluded from being played back. Between keyframe 2 and keyframe 4, the circular shape moves downward and the square shape gradually disappears.
  • the combining process including the object data included in the content data 2B and the content data 1B is controlled by the combining script including the plurality of scripts included in the content data 1B.
  • the synthesizing process for synthesizing other content data 2B from the content data 1B side can be controlled.
  • FIG. 10A and FIG. 10B are diagrams showing the data structure of content data before being combined in the third combination example in the first embodiment.
  • FIG. 10A is a diagram showing a data structure of content data 1C including a synthesis script.
  • content data 1C includes a header, key frames 1 to 2, and a synthesizing script.
  • Key frame 1 to key frame 2 are the same as the object data included in key frame 2 to key frame 3 of content data 1 B described in FIG. 7A, respectively, and thus description thereof will not be repeated.
  • the composite script included in the content data 2C includes "add keyframe” as the control content and "@before keyframe 1" as a parameter.
  • the control content "add keyframe” indicates that each keyframe of the animation data included in the other content data 2C is inserted at the target position specified by the parameter.
  • the parameter “before key frame 1” indicates that the target position of the composition processing indicated by the control content is before key frame 1 of the animation data included in the content data 1C including the composition script.
  • FIG. 10B is a diagram showing the data structure of the content data 2C. Referring to FIG. 10B, content data 2C is the same as content data 2B described in FIG. 7B, and therefore description thereof will not be repeated.
  • the content synthesizing device 100 receives the input of the content data 1C and the content data 2C, and determines whether or not the content data 1C or the content data 2C includes the synthesizing script. You. Since the content data 1C includes the synthesis script, the animation data included in the content data 1C is synthesized with the animation data included in the content data 2C based on the synthesis script, and the content data 3C described later is stored. You.
  • the synthesizing script describes that the key frame included in the content data 2C is added before the key frame 1 of the content data 1C including the synthesizing script.
  • content synthesizing device 100 adds key frame 1 and key frame 2 of content data 2C before key frame 1 of content data 1C, and creates new key frame 1 and key frame 2. .
  • the key frames 1 and 2 of the content data 1C are defined as the key frames 3 and 4 of the content data 3C.
  • a header is generated based on the new key frames 1 to 4, and the header and the content data 3C including the new key frames 1 to 4 are synthesized and recorded.
  • FIG. 11 is a diagram showing a data structure of the content data 3C after being synthesized in the third synthesis example in the first embodiment.
  • content data 3C obtained by synthesizing content data 1C and content data 2C by content synthesizing device 100 includes a header and key frames 1 to 4.
  • the key frames 1 and 2 are the same as the key frames 1 and 2 of the content data 2C described with reference to FIG. 10B, respectively.
  • Keyframe 3 and keyframe 4 are each described in Figure 1 OA This is the same as key frame 1 and key frame 2 of content data 1C.
  • the synthesizing process of adding the key frame included in the content data 2C to a predetermined portion of the content data 1C is controlled by the synthesizing script included in the content data 1C.
  • FIGS. 12A and 12B are diagrams illustrating a data structure of content data before being combined in the fourth combining example in the first embodiment.
  • FIG. 12A is a diagram showing a data structure of content data 1E including a synthesis script.
  • content data 1E includes a header, key frame 1 to key frame 2, and a synthesis script.
  • Key frame 1 and key frame 2 include object data A indicating a figure representing a face, object data B indicating a figure representing a speech balloon, and character data A.
  • Object data A included in key frame 1 indicates that the figure representing the face is at the lower left of the screen.
  • the object data A included in the key frame 2 indicates that the figure representing the face is at the lower right of the screen.
  • Object data B included in key frame 1 indicates that the figure representing the balloon is at the upper right of the screen. Further, the object data B included in the key frame 2 indicates that the figure representing the balloon is at the top of the screen.
  • Character data A included in key frame 1 and key frame 2 indicate that character data A is located inside object data B, respectively.
  • the synthesizing script included in the content data 1E includes "change to data of another file” as the control content and "character data A” as a parameter.
  • Control content “Change to data of another file” indicates that the target data specified by the parameter is changed to data included in other content data 2E.
  • Parameter “statement “Character data A” indicates that the data to be subjected to the combination processing indicated by the control content is character data A included in the key frame of the animation data included in the content data 1E including the combination script.
  • FIG. 12B is a diagram showing the content data 2E to be changed.
  • content data 2E includes character data composed of a character string “He 11 o, Wor 1 d.
  • the content synthesizing device 100 receives the input of the content data 1E and the content data 2E, and determines whether or not the content data 1E or the content data 2E includes the synthesizing script. You. Since the content data 1E includes the synthesizing script, the content data 1E is synthesized with the content data 2E based on the synthesizing script, and the content data 3E described later is stored.
  • the synthesizing script describes that predetermined data included in each key frame of the content data 1 is changed to data included in the content data 2E.
  • content synthesizing device 100 includes character data A included in key frame 1 and key frame 2 of content data 1E in content data 2E, respectively. Is changed to character data consisting of the character string “He 11 o, W or 1 d!”, And new key frames 1 and 2 are created.
  • a header is generated based on the new key frames 1 and 2, and the header and the content data 3E including the new key frames 1 and 2 are synthesized and stored.
  • FIG. 13 is a diagram showing a data structure of the content data 3E after being synthesized in the fourth synthesis example in the first embodiment.
  • content data 3 E obtained by synthesizing content data 1 E and object data 2 E by content synthesizing device 100 has a header and key frame 1 to key frame 2. Become.
  • Keyframe 1 and keyframe 2 are described in Figure 12A respectively
  • the character data A of the key frames 1 and 2 of the content data 1E is changed to the character data included in the content data 2E described in FIG. 12B.
  • the synthesizing script included in the content data 1E can control the synthesizing process of changing predetermined data included in the content data 1E to other data.
  • the combining process is controlled by the combining script included in the first content data.
  • the first content data includes the synthesizing script, there is no need to prepare a new synthesizing script when synthesizing the first content data with the second content data.
  • the synthesizing process can be controlled from the content data side, and there is no need to prepare a new synthesizing script necessary for synthesizing the content data.
  • the processing performed by the content synthesizing apparatus 100 has been described.
  • the content synthesizing method in which the processing illustrated in FIG. 3 is executed by a computer and the processing illustrated in FIG. A content synthesizing program to be executed, a computer-readable recording medium recording the content synthesizing program, and a data structure of the content data shown in FIGS. 4A, 7A, 10A, and 12A.
  • the invention can be regarded as a computer-readable recording medium on which content data having the data structure is recorded.
  • the combined stabilites described in the first embodiment include scribs corresponding to each of a plurality of attributes.
  • FIG. 14 is a diagram schematically illustrating functions of the content synthesizing device 10 OA in the second embodiment.
  • control unit 110 of content synthesizing device 10 OA A includes an input reception unit 111, a synthesis processing unit 112A, and a genus individual discrimination unit 113.
  • the storage unit 130 of the content synthesizing device 100 stores a plurality of content data.
  • the content data includes content data including the animation data and the synthesizing script, and content data including the animation data.
  • Input receiving unit 111 has been described with reference to FIG. 2 in the first embodiment, and therefore description thereof will not be repeated.
  • the synthesizing unit 1 1 2 A sets the attribute judging unit 1 1 to 1 if the synthesizing script included in the content data 10 includes a script corresponding to each of a plurality of attributes of the animation data included in the content data 20. Send the content data 20 to 3.
  • the attribute determining unit 113 determines the attribute of the animation data included in the content data 20 sent from the combining processing unit 112A, and returns the determination result to the combining processing unit 112A.
  • the attribute of the animation data is an index indicating the characteristics of the animation data such as the number of object data, the number of key frames, the number of image data, and the number of music data included in the animation data. .
  • the attribute discriminating unit 113 determines that the number of object data included in the content data 20 is W, the number of key frames is X, the number of image data is Y, and If the number is Z, a sequence of WXYZ is returned to the synthesis processing unit 112A as an attribute of the amation data included in the content data 20.
  • the attribute of the animation data is not limited to this.
  • the attribute may be a number specified by the contents of the animation data, or may be information of the author of the animation data. However, the number may be uniquely assigned to the animation data, or may be a combination of a plurality of these.
  • the composition processing unit 1 1 2 A based on the script corresponding to the attribute of the animation data included in the content data 20 indicated by the determination result determined by the attribute determination unit 1 13,
  • the animation data included in the input content data 10 is combined with the animation data included in the content data 20.
  • the synthesis processing unit 1 1 2 A outputs the synthesized content data 3 0 is stored in the storage unit 130.
  • the synthesis processing unit 112A may transmit the synthesized content data 30 directly to another PC or the like via the network 500 by the communication unit 160, or to an external storage.
  • the information may be recorded on the recording medium 171 by the device 170.
  • FIG. 15 is a flowchart illustrating the flow of the data combining process performed by the content combining device 10OA in the second embodiment.
  • the data synthesizing process is a process executed in step S13 of the content synthesizing process described in FIG. Referring to FIG. 15, first, in step S 21, an attribute for determining the attribute of the animation data included in content data 20 input in step S 11 by attribute determining section 113 is used. A determination process is performed. The attribute determination processing will be described later with reference to FIG. Next, in step S22, the synthesis processing unit 112A generates a script corresponding to the attribute of the animation data included in the content data 20 determined in step S21 1 from the content data 10 It is determined whether it is included in the synthesis script.
  • step S22 If the script corresponding to the attribute of the animation data included in the content data 20 is included in the synthesizing script of the content data 10 (Yes in step S22), the synthesizing process is performed in step S23. Based on the script corresponding to the attribute of the animation data included in the content data 20 determined in step S 21 by the unit 1 12 A, the content data 10 input in step S 11 is A synthesizing process for synthesizing with the content data 20 input in S11 is executed, and the process returns to the content synthesizing process.
  • step S22 when the script corresponding to the attribute of the animation data included in the content data 20 is not included in the synthesis script of the content data 10 (No in step S22), the process returns to the content synthesis process.
  • FIG. 16 is a flowchart showing the flow of an attribute discriminating process executed by the content synthesizing apparatus 100A in the second embodiment.
  • the attribute discriminating process is a process executed by the attribute discriminating unit 113 in step S21 of the data synthesizing process described in FIG. Referring to FIG. 16, first, in step S31, the number w of objects included in the key frame of content data 20 is determined. And step S 3
  • step S33 the number Y of image data included in the key frame of the content data 20 is determined. Further, in step S34, the number Z of music data included in the key frame of the content data 20 is determined.
  • step S35 based on the determinations in steps S31 to S34, a sequence of WXYZ is added to the attribute of the animation data defined by the key frame included in the content data 20. Is returned to the data composition process.
  • FIG. 17A, FIG. 17B, and FIG. 17C are diagrams showing the data structure of content data before being combined in the first combination example in the second embodiment.
  • FIG. 17A is a diagram showing a data structure of content data 1F including a synthesis script.
  • content data 1F includes a header, key frames 1 to 3, and a synthesis script.
  • Key frame 1 to key frame 3 are the same as the object data included in key frame 2 to key frame 4 of content data 1 B described in FIG. 7, respectively, and thus description thereof will not be repeated.
  • the synthesis script included in the content data 1F includes a synthesis script corresponding to the attribute “0 1 0 3 0 0” and a synthesis script corresponding to the attribute “0 1 0 2 0 0”.
  • the composite script corresponding to the attribute “0 1 0 3 0 0” includes “input of an object in another file” as the control content and “key frame 1 to” as a parameter.
  • the composite stab corresponding to the animation data of the attribute “0 1 0 2 0 0” includes “input of an object of another file” as the control content and “key frame 2 to” as a parameter. .
  • the attribute “0 1 0 3 0 0” is the object data included in the animation data. It indicates that the number W of data is 01, the number X of key frames is 03, the number Y of image data is 0, and the number Z of music data is 0. Similarly, the attribute “010200” has the same number of object data, image data, and music data included in the animation data as the attribute “1”, and the number of key frames X is 02. It indicates that
  • FIG. 17B is a diagram showing the data structure of the content data 2FA.
  • Content data 2FA shown in FIG. 17B is the same as content data 2A described in FIG. 4B, and therefore description thereof will not be repeated.
  • the number W of object data included in the animation data included in the content data 2 FA is 01
  • the number of key frames X is 02
  • the number of image data Y is 0,
  • the number of music data Z is Since it is 0, the attribute of the animation data included in the content data 2FA is “01020 0”.
  • FIG. 17C is a diagram showing the data structure of the content data 2 FB.
  • content data 2 FB includes a header and key frame 1 to key frame 3.
  • Keyframe 1 and keyframe 2 are the same as keyframe 1 and keyframe 2 of content data 2A described in FIG. 4B.
  • Key frame 3 indicates the same figure as the object data shown in key frame 1 and key frame 2 and includes object data indicating that the figure is located at the lower center of the screen.
  • the attribute of the animation data included in the content data 2FA is “010300”.
  • the content synthesizing device 10 OA determines whether or not the content data 1 F or the content data 2 FA includes a synthesizing script. Since the synthesis script is included in content data 1F, the animation script included in content data 2FA is The attribute of the application data is determined. Since the attribute of the amalgamation data included in the content data 2 FA is “0 1 0 2 0 0”, the key included in the content data 1 F is based on the script corresponding to the attribute “0 1 0 2 0 0”. The content data is combined with the content data 2 FA, and the new content data is stored.
  • the content synthesizing device 10 OA determines whether or not the content data 1F or the content data 2 FB includes a synthesizing script. Since the composite script is included in the content data 1F, next, the attribute of the animation data included in the content data 2 FB is determined. Since the attribute of the animation data included in the content data 2 FB is “0 1 0 3 0 0”, the animation included in the content data 1 F is based on the script corresponding to the attribute “0 1 0 3 0 0”. The data is combined with the content data 2 FB, and the new content data is stored.
  • the synthetic script included a script corresponding to the attribute “0 1 0 3 0 0” and a script corresponding to the attribute “0 1 0 2 0 0”.
  • the script corresponding to the attribute “0 1 0 3 0 0” has the attribute “0 1 0 3 0 0” in each key frame from the key frame 1 of the animation data included in the content data 1 F including the composite script.
  • the description describes that object data included in each key frame of the animation data included in the content data 2 FA including the animation data was inserted.
  • the script corresponding to the attribute “0 1 0 2 0 0” includes the attribute “0 1 0 2 0 0” in each key frame from the key frame 2 of the animation data included in the content data 1 F including the synthetic stabilito.
  • the description describes that the object data included in each key frame of the animation data included in the content data 2 FB containing the animation data of the above is inserted.
  • content synthesizing apparatus 100 sets key frame 1 of content data 1F as a new key frame 1.
  • object data included in key frame 1 of content data 2 FA JP2004 / 000561 is inserted into the key frame 2 of the content data 1F to make a new key frame 2.
  • the object data included in the key frame 2 of the content data 2 F A is inserted into the key frame 3 of the content data 1 F, and a new key frame 3 is set.
  • a header is generated based on the new key frames 1 to 3, and the header and content data including the new key frames 1 to 3 are combined and stored.
  • content synthesizing apparatus 100 converts the object data included in key frame 1 of content data 2 FB into key frame 1 of content data 1F. And make it a new keyframe 1.
  • the object data included in the key frame 2 of the content data 2 FB is inserted into the key frame 2 of the content data 1 F, and a new key frame 2 is set.
  • the object data included in the key frame 3 of the content data 2 FB is inserted into the key frame 3 of the content data 1 F, and is set as a new key frame 3.
  • a header is generated based on the new key frames 1 to 3, and the header and the content data including the new key frames 1 to 3 are combined and stored.
  • FIGS.18A, 18B, 18C, 18D, 18E, and 18F illustrate an animation displayed when the content data synthesized in the first synthesis example in the second embodiment is reproduced.
  • FIG. 18A to 18C correspond to each key frame that is sequentially reproduced when the content data 1F is reproduced with the content data 2FA including the animation data having the attribute “010200”. It is a display screen figure.
  • FIG. 18A a circular figure is first displayed slightly to the left of the upper center of the screen. Between Figure 18A and Figure 18B, the circular figure moves downward. In Figure 18B, the circle The shape figure is displayed slightly below the center of the screen, slightly to the left of the center, and the square figure is displayed slightly below the center of the screen. Between Figure 18B and Figure 18C, the circular figure moves upward, and the square figure moves upward at a faster rate than the circular figure. In Figure 18C, the circular shape stops slightly to the left of the center of the screen, and the square shape stops slightly above the center of the screen.
  • FIG. 9 is a display screen diagram corresponding to each key frame to be displayed.
  • Figure 18D first, a circular figure is displayed slightly to the left of the upper center of the screen, and a square figure is displayed slightly below the center of the screen. Between Figure 18D and Figure 18E, the circular figure moves down and the square figure moves up. In Figure 18E, a circular figure is displayed slightly below the center of the screen, slightly to the left of the center, and a square figure is displayed slightly above the center of the screen. Between Figure 18E and Figure 18F, the circular figure moves upward and the square figure moves downward. In Figure 18F, the circular shape stops slightly at the left center of the screen, and the square shape stops at the lower center of the screen.
  • the combining process of combining the content data 1F with other content data is controlled based on the script corresponding to the determined attribute included in the combining script included in the content data 1F.
  • the synthesizing process can be controlled from the content data side, and the synthesizing process can be performed in accordance with the genre “I” of the content data.
  • the attribute of the content data has been described as the attribute of the animation data defined by the key frame included in the content data.
  • the present invention is not limited to this. Other indicators may be used.
  • the input of the first content data including the synthesis stabilization describing the synthesis of the content data and the input of the second content data Is accepted and entered
  • the attribute of the second content data obtained is determined, and the first content data is converted to the second content data based on the script corresponding to the determined attribute included in the composite stabilite included in the input first content. It is combined with the content data. Therefore, the combining process is controlled by the script corresponding to the attribute of the second content data.
  • the synthesizing process can be controlled from the content data side, and the synthesizing process can be performed according to the genus of the content data.
  • the invention can be regarded as a computer-readable recording medium on which the content data is recorded.
  • the synthesizing script described in the first embodiment includes a script corresponding to the time at which the content is synthesized by the content synthesizing device 100B.
  • FIG. 19 is a diagram showing an outline of functions of the content synthesizing device 10 OB in the third embodiment.
  • control unit 110B of content synthesizing device 100B includes an input receiving unit 111, a synthesizing processing unit 112B, and a time obtaining unit 114.
  • the storage unit 130 of the content synthesizing device 100 B stores a plurality of content data.
  • the content data includes content data including animation data and a synthesizing script, and content data including animation data.
  • the input receiving unit 111 has been described with reference to FIG. 2 in the first embodiment, and therefore description thereof will not be repeated.
  • the combining processing unit 1 12 B instructs the time acquisition unit 1 14 to acquire the time. .
  • the time acquisition unit 114 acquires the current time according to the instruction from the synthesis processing unit 112B. It is sent to the synthesis processing unit 1 12B.
  • the acquisition of the current time is realized by, for example, the clock function of the content synthesizing apparatus 100B, but may be realized by another method.
  • the synthesizing unit 1 12B receives the content data 10 input by the input receiving unit 111 based on the script corresponding to the time obtained by the time obtaining unit 114 of the synthesizing script included in the content data 10. 1 1 Synthesize with the content data 20 input by 1. Then, the combining processing unit 112B causes the storage unit 130 to store the combined content data 30. Note that the combining processing unit 112B may transmit the combined content data 30 directly to another PC or the like via the communication unit 160 via the network 500, or may record the combined content data 30 using the external storage device 170. It may be recorded on the medium 171.
  • FIG. 20 is a flowchart illustrating a flow of a data combining process executed by the content combining device 100B in the third embodiment.
  • the data synthesizing process is a process executed in step S13 of the content synthesizing process described in FIG. Referring to FIG. 20, first, in step S41, it is determined whether or not the synthesized script includes a script according to time. If the script corresponding to the time of the synthetic script is included (Yes in step S41), the current time is obtained by the time obtaining unit 114 in step S42, and in step S43, the synthesis processing unit According to 1 12B, based on the script corresponding to the current time acquired in step S42, the content data 10 input in step S11 is synthesized with the content data 20 input in step S11. The process is executed, and the process returns to the content synthesizing process.
  • step S41 If the combined script does not include a script according to the time (No in step S41), the process returns to the content combining process.
  • FIGS. 21A and 21B are diagrams illustrating a data structure of content data before being combined in the first combination example in the third embodiment.
  • FIG. 21A is a diagram showing a data structure of content data 1I including a synthesis script.
  • content data 1I includes a header, key frames 1 to 3, and a synthesizing script.
  • Key frame 1 to key frame 3 are the same as key frame 1 to key frame 3 of content data 1F described with reference to FIG. 17A, and therefore description thereof will not be repeated.
  • the composite script included in the content data 1I includes a composite script corresponding to the time “AM” and a composite script corresponding to the time “PM”.
  • the composite script corresponding to the time “AM” includes “input of an object in another file” as the control content and “keyframe 1 to” as a parameter.
  • the synthesis script corresponding to the time “PM” includes “input of an object in another file” as a control content and “keyframe 2 to” as a parameter. Details of the control “Input object of other file”, parameter “key frame 1” and parameter “key frame 2” have already been described with reference to FIG. 4A, and therefore description thereof will not be repeated.
  • FIG. 21B is a diagram showing the data structure of the content data 2I.
  • Content data 2I shown in FIG. 21B is the same as content data 2A described in FIG. 4B, and therefore, description thereof will not be repeated.
  • the content data 1I and the content data 2I are synthesized in the morning in the content synthesizing device 100B.
  • the input of the content data II and the content data 2 I is received by the content synthesizing device 10 OB, and the synthesizing script is included in the content data 1 I.
  • the object data included in each key frame of the content data 2I is inserted into each key frame from the key frame 1 of the content data 1I, and new content data is stored.
  • the content synthesizing device 100B accepts the input of the content data II and the content data 2I ', and the synthesized script is included in the content data 1I. Based on the script corresponding to the afternoon, the object data included in each key frame of content data 2 I is inserted into each key frame from key frame 2 of content data 1 I, and new content data is stored. You. Synthetic scripts included scripts for morning and afternoon.
  • the script corresponding to the morning is a script that describes that the object data included in each key frame of content data 2 I is to be inserted into each key frame from key frame 1 of content data 1 I including the composite script. there were.
  • the script corresponding to the afternoon is a script that describes inserting the object data included in each key frame of content data 2 I into each key frame from key frame 2 of content data 1 I including the composite script.
  • the content synthesizing apparatus 10 OB inserts the object data included in key frame 1 of content data 2 I into key frame 1 of content data 1 I, New key frame 1 Next, the object data included in the key frame 2 of the content data 2 I is inserted into the key frame 2 of the content data 1 I, and is used as the key frame 2 of the new content data.
  • the key frame 3 of the content data 1 I is set as the key frame 3 of the new content data.
  • a header is generated based on the new key frames 1 to 3, and the header and the content data including the new key frames 1 to 3 are combined and stored.
  • the content synthesizing device 100B sets the key frame 1 of the content data 1I as a new key frame 1.
  • the object data included in the key frame 1 of the content data 2 I is inserted into the key frame 2 of the content data 1 I, and is set as a new key frame 2.
  • the object data included in the key frame 2 of the content data 2 I is inserted into the key frame 3 of the content data 1 I, and is used as the key frame 3 of the new content data.
  • FIG. 22A, FIG. 22B, FIG. 22C, FIG. 22D, FIG. 22E, and FIG. 22F show content data synthesized in the first synthesis example in the third embodiment.
  • FIG. 8 is a diagram for explaining an animation displayed when is played back.
  • Fig. 22A to Fig. 22C are display screen diagrams corresponding to each key frame that is played back sequentially when playing back content data in which content data 1I and content data 2I are combined in the morning. is there.
  • FIGS. 22A to 22C are the same as FIGS. 180 to 18F, respectively, and therefore description thereof will not be repeated.
  • FIGS. 22D to 22F are display screen diagrams corresponding to the respective key frames that are sequentially reproduced when the content data obtained by combining the content data 1I and the content data 2I at noon is reproduced. .
  • FIGS. 22D to 22F are the same as FIGS. 18A to 18F, respectively, and therefore description thereof will not be repeated.
  • the combining process is controlled by the script included in the content data 1I according to the combining time.
  • the synthesizing process can be controlled from the content data 1I side, and the synthesizing process according to the time at which the content data is synthesized can be performed.
  • the first content data including the synthesis script describing the synthesis of the content data such as the content data
  • the input of the second content data is received, the current time is obtained, and the second time is obtained based on the script corresponding to the obtained current time included in the synthesis script included in the input first content data.
  • the first content data is combined with the input second content data.
  • the combining process is controlled by a script corresponding to the combining time.
  • the combining process can be controlled from the content data side, and the combining process can be performed according to the time at which the content data is combined.
  • the processing performed by the content synthesizing apparatus 100B has been described.
  • the content synthesizing method in which the processing shown in FIG. 20 is executed by a computer and the processing shown in FIG.
  • a content synthesizing program for causing a computer to execute the processing a computer-readable recording medium recording the content synthesizing program, a data structure of the content data shown in FIG. 21A, and the data
  • the invention can be regarded as a computer-readable recording medium on which content data having a data structure is recorded.
  • the combined stabilization described in the first embodiment includes a stabilization corresponding to a position where the content is synthesized by the content synthesizing device 100C.
  • FIG. 23 is a diagram showing an outline of functions of the content synthesizing device 10 OC in the fourth embodiment.
  • control unit 110C of content synthesizing device 100C includes input accepting unit 111, synthesis processing unit 112C, and position acquisition unit 115.
  • the storage unit 130 of the content synthesizing device 100 OC stores a plurality of content data.
  • the content data includes content data including the animation data and the synthesizing script, and content data including the animation data.
  • Input receiving unit 111 has been described with reference to FIG. 2 in the first embodiment, and therefore description thereof will not be repeated.
  • the composition processing unit 1 1 2 C is a position acquisition unit when the composition script included in the content data 10 input by the input receiving unit 1 11 includes a script corresponding to the position where the content data is to be composed. Instruct 1 1 5 to acquire the position.
  • the position obtaining unit 115 obtains the current position of the content synthesizing device 10OC in response to an instruction from the synthesizing unit 112C, and sends the current position to the synthesizing unit 112C.
  • the acquisition of the current position is realized by, for example, a GPS (Global Positioning System), but may be realized by another method.
  • the composition processing unit 1 1 2 C receives the content data input by the input reception unit 1 1 1 10 is combined with the content data 20 input by the input receiving unit 1 1 1. Then, the synthesis processing unit 112C stores the synthesized content data 30 in the storage unit 130. Note that the synthesis processing unit 112C may transmit the synthesized content data 30 directly to another PC or the like via the network 500 by the communication unit 160, or to an external storage. The information may be recorded on the recording medium 17 1 by the device 170.
  • FIG. 24 is a flowchart illustrating the flow of the data combining process performed by the content combining device 100C in the fourth embodiment.
  • the data synthesizing process is a process executed in step S13 of the content synthesizing process described in FIG. Referring to FIG. 24, first, in step S51, it is determined whether or not the synthesized script includes a script corresponding to the position. If a script corresponding to the position of the synthesis script is included (Yes in step S51), the current position is acquired by the position acquisition unit 115 in step S52, and the current position is acquired in step S53. Based on the script corresponding to the current position acquired in step S53, the synthesizing processing unit 1 1 2C replaces the content data 10 input in step S11 with the content data input in step S11. The combining process for combining with 20 is performed, and the process returns to the content combining process. On the other hand, when the script corresponding to the position is not included in the synthesizing script (No in step S51), the process returns to the content synthesizing process.
  • FIGS. 25A and 25B are diagrams showing the data structure of content data before being combined in the first combination example in the fourth embodiment.
  • content data 1 J including a synthesis script includes a header, key frames 1 to 3, and a synthesis script.
  • Key frame 1 to key frame 3 are the same as key frame 1 to key frame 3 of content data 1F described with reference to FIG. 17A, and therefore description thereof will not be repeated.
  • the synthesis script included in the content data 1 J includes a synthesis script corresponding to the position “Osaka j” and a synthesis script corresponding to the position “Nara”.
  • the synthesis script corresponding to the position “Osaka” includes “insert object of other file” as control content and “keyframe 1 to” as parameters.
  • the synthesis script corresponding to the position “Nara” includes “input of an object in another file” as the control content and “keyframe 2 to” as a parameter.
  • the details of the control “input of an object in another file”, the parameters “keyframes 1 to”, and “keyframes 2 to” have already been described with reference to FIG. 4A, and thus description thereof will not be repeated.
  • FIG. 25B is a diagram showing the data structure of the content data 2J.
  • the content data 2J shown in FIG. 25B is the same as the content data 2A described in FIG. 4B. The description will not be repeated.
  • the position where the content data 1J and the content data 2J are combined in the content combining device 100C in Osaka is described.
  • the input of the content data 1 J and the content data 2 J is received by the content synthesizing device 100 C, and the synthesized script is included in the content data 1 J, and the position to be synthesized is in Osaka.
  • the object data included in each key frame of content data 2 J is inserted into each key frame from key frame 1 of content data 1 J, and new content data is stored.
  • You. Fig. 18D to Fig. 18F show the display screens corresponding to each key frame that is played back sequentially when the animation data composed of content data 1J and content data 2J is played back in Osaka. Therefore, the description will not be repeated.
  • the content synthesizing device 10 OC receives the input of the content data 1 J and the content data 2 J, and the synthesizing script is included in the content data 1 J, and the synthesizing position is Nara.
  • the object data included in each key frame of the content data 2 J is inserted into each key frame from the key frame 2 of the content data 1 J based on the script corresponding to the content data 1 J, and the content data is synthesized and stored. .
  • the display screens corresponding to each key frame that is played back sequentially when content data 1 J and content data 2 J are played back in Nara are shown in Figs. 18 to 18C. The explanation is not repeated.
  • the composite script included scripts corresponding to Osaka and Nara.
  • the script corresponding to Osaka is a script that describes inserting the object data included in each key frame of content data 2J into each key frame from key frame 1 of content data 1J including the composite script.
  • Scripts corresponding to Nara include the keyframes from key frame 2 of content data 1 J including the composite script, and the keyframes of content data 2 J was a script that described importing the object data included in the file.
  • the content synthesizing device 10 OC inserts the object data included in the key frame 1 of the content data 2 J into the key frame 1 of the content data 1 J, New key frame 1 Next, the object data included in the key frame 2 of the content data 2 J is inserted into the key frame 2 of the content data 1 J, and is set as a new key frame 2.
  • the key frame 3 of the content data 1 J is set as a new key frame 3.
  • a header is generated based on the new key frames 1 to 3, and the header and the content data including the new key frames 1 to 3 are combined and stored.
  • the content synthesizing device 100 C sets the key frame 1 of the content data 1 J as a new key frame 1 when the position to be synthesized is Nara.
  • the object data included in the key frame 1 of the content data 2 J is inserted into the key frame 2 of the content data 1 J, and is set as a new key frame 2.
  • the object data included in the key frame 2 of the content data 2 J is inserted into the key frame 3 of the content data 1 J, and is set as a new key frame 3.
  • a header is generated based on the new key frames 1 to 3, and the header and the content data including the new key frames 1 to 3 are combined and stored.
  • the display screen corresponding to each key frame that is played back sequentially when content data 1 J and content data 2 J are played back in Osaka when the content data is synthesized is the display described in Figs. 18D to 18F. Screen.
  • the display screen corresponding to each key frame that is played back sequentially is described in FIGS. 18 to 18C. This is the displayed screen.
  • This content data is combined with the input second content data.
  • the combining process is controlled by a script corresponding to the place to be combined.
  • the synthesizing process can be controlled from the content data side, and the synthesizing process can be performed according to the place where the content data is synthesized.
  • the processing performed by the content synthesizing apparatus 100C has been described.
  • a content synthesizing program for causing a computer to execute the processing, a computer-readable recording medium storing the content synthesizing program, a data structure of the content data shown in FIG. 25A, and content data having the data structure are recorded.
  • the invention can be regarded as a computer-readable recording medium.
  • a synthesizing example in which animation data is encrypted by a content synthesizing device based on a synthesizing script included in content data and a synthesizing example in which encrypted animation data is decrypted will be described.
  • the function of the content synthesizing device in the fifth embodiment is the same as the function of content synthesizing device 100 described in the second embodiment, and therefore description thereof will not be repeated.
  • FIG. 26 is a flowchart illustrating the flow of a data combining process performed by the content combining device according to the fifth embodiment.
  • This data synthesizing process is a process executed in step S23 of the data synthesizing process described in FIG. Referring to FIG. 15, first, in step S51, the combining processing is executed by the combining processing unit based on the combining script. Then, in step S52, the combining processing unit determines whether or not a script indicating that a new combining script is to be included is included in the combined script.
  • step S52 If the content is included in the synthesis script (Yes in step S52), the content data synthesized in step S51 is added to the content data synthesized in step S51 by the synthesis processing unit in step S53. A new synthesizing script is added, and the process returns to the data synthesizing process described in FIG.
  • step S52 the process returns to the data synthesis process described with reference to FIG.
  • FIGS. 27A and 27B are diagrams illustrating the data structure of content data before being combined in the first combination example in the fifth embodiment.
  • FIG. 27A is a diagram showing a data structure of content data 1D including a synthesis script.
  • content data 1D includes a header, a key frame 1, and a synthesizing script.
  • the key frame 1 includes control data of “repeat” indicating that the key frame up to this key frame is repeatedly reproduced.
  • the synthesizing script of the content data 1D includes “add key frame” as the first control content and “after key frame 1” as the first parameter.
  • the second control content includes “addition of a synthesis script”, and the second parameter includes another synthesis script.
  • the first control content “Add keyframe”, was explained in Figure 10, so the explanation is not repeated.
  • the first parameter “after key frame 1” indicates that the target position of the synthesis processing indicated by the control content is after the key frame of the animation data included in the content data 1D including the synthesis script .
  • the second control content “add synthesis script” indicates that the target data specified by the parameter is added to the content data 1D.
  • the other synthesis script which is the second parameter, indicates the target data of the synthesis processing indicated by the control content.
  • the second parameter corresponds to the attribute "0 0 0 0 0 0”
  • the composite script corresponding to the attribute “0 0 0 0 0” includes “delete key frame” as the control content and “key frame 1” as the parameter.
  • Control contents "Delete key frame” indicates that the target key frame specified by the parameter is deleted.
  • FIG. 27B is a diagram showing the data structure of the content data 2D.
  • content data 2D includes a header and key frames 1 to 3.
  • Key frame 1 to key frame 3 are the same as key frame 2 to key frame 4 of content data 1 B described in FIG. 7A, respectively, and thus description thereof will not be repeated.
  • the content synthesizing device receives the input of the content data 1D and the content data 2D, and determines whether or not the content data 1D or the content data 2D includes a synthesizing script. Since the content data 1D includes the synthesis script, the content data 1D is synthesized with the animation data 2D based on the synthesis script, and the content data 3D described later is recorded.
  • the synthesis script adds the key frame included in the content data 2D after the key frame 1 of the content data 1D including the synthesis script, and includes another synthesis script in the synthesized content data. It was a statement.
  • the content synthesizing device sets the key frame 1 of the content data 1 D including the control data “repeated” as a new key frame 1.
  • the key frames 1 to 3 included in the content data 2D are added after the key frame 1 of the content data 1D, respectively, to obtain new key frames 2 to 4.
  • a header is generated based on the new key frame 1 to key frame 4, and the header, the new key frame 1 to key frame 4, and the content data 1 Content data 3D including a new synthesis script included in the synthetic script of D is synthesized and stored.
  • FIG. 28 is a diagram illustrating a data structure of the content data 3D after being synthesized in the first synthesis example in the fifth embodiment.
  • content data 3D in which content data 1D and content data 2D are synthesized by the content synthesizing device includes a header, key frames 1 to 4, and a synthesizing script. .
  • the key frame 1 is the same as the key frame 1 of the content data 1D described in FIG. 27A.
  • the key frames 2 to 4 are the same as the key frames 1 to 3 of the content data 2 D described with reference to FIG. 27B, respectively.
  • the synthesizing script is another synthesizing script included in the synthesizing script for the content data 1D described in FIG. 27A.
  • the synthesizing process of adding the key frame included in the content data 2D to a predetermined position of the content data 1D is controlled by the synthesizing script included in the content data 1D. As a result, it is possible to control the synthesizing process of adding another content data 2D from the content data 1D side.
  • the content data 1D including the synthesizing script described in FIG. 27A and the content described in FIG. 27B are obtained.
  • the data 2D is synthesized by the content synthesizing device, and the content data 3D described in FIG. 28 is synthesized.
  • an animation in which a circular figure moves is played.
  • the control data “repeated” is stored in the key frame 1 even though a key frame for displaying the animation of the moving circular figure is included. Does not play the animation of moving a circular shape.
  • the content data 2D can be set in a state where it cannot be reproduced. In this state, the content data 2D is a so-called encrypted state. And, to decode content data 1D and content data 2D I Use an encryption key.
  • a key frame containing the control data "repeat” and a key frame contained in other content data are added after the key frame containing the control data "repeat", and the control data "repeat” corresponding to the predetermined attribute is added.
  • content data that includes a new composite script that describes the deletion of the key frame that contains the composite key and the composite script that describes that the new frame is included in the composited content data the other content can be used.
  • Data can be encrypted.
  • the synthesizing script included in the content data 1G controls a synthesizing process for deleting a predetermined portion included in the content data 1G. As a result, it is possible to control a combining process for deleting a predetermined portion of the content data 1G from the content data 1G side.
  • FIGS. 29A and 29B are diagrams illustrating the data structure of content data before being combined in the second combination example in the fifth embodiment.
  • FIG. 29A is a diagram showing a data structure of content data 1G including a synthesis script.
  • the content data 1G shown in FIG. 29A is the same as the content data 3D obtained by combining the content data 2D described in FIG. 28 with the content data 1D, and therefore, description thereof will not be repeated.
  • FIG. 29B is a diagram showing the data structure of the content data 2G.
  • content data 2G includes only a header. That is, the animation data included in the content data 2G is the animation data having the attribute “0000”.
  • the content synthesizing device receives the input of the content data 1 G and the content data 2 G, and determines whether or not the content data 1 G or the content data 2 G includes a synthesizing script. Since the synthesizing script is included in the content data 1G, next, the attribute of the amation data included in the content data 2G is determined. Included in content data 2G Since the attribute of the animation data is “0 0 0 0 0 0 0 0”, the content data 1 G is combined with the content data 2 G based on the script corresponding to the attribute “0 0 0 0 0 0 0”, and the content data to be described later. 3 G is stored.
  • the composite script included a script corresponding to the attribute “000000”.
  • the script corresponding to the attribute “0 0 0 0 0 0” includes the synthesizing script.
  • the attribute of the animation data included in the content data 1 G and other content data 2 G to be synthesized is “0 0 0 0 0 0”. In one case, it was described that key frame 1 of content data 1 G was deleted.
  • the content synthesizing device deletes the key frame 1 of the content data 1G.
  • the key frames 2 to 4 of the content data 1 G are set as new key frames 1 to 3.
  • a header is generated based on the new key frames 1 to 3, and the header and the content data 3G including the new key frames 1 to 3 are synthesized and stored.
  • FIG. 30 is a diagram illustrating a data structure of the content data 3G after being synthesized in the second synthesis example in the fifth embodiment.
  • the content data 3G obtained by synthesizing the content data 1G and the content data 2G by the content synthesizing device 10 OA shown in FIG. 30 is the same as the content data 2D described in FIG. 27. Is not repeated.
  • the synthesizing process shown in the second synthesizing example of the fifth embodiment is the same as the content data 3D described in FIG. 28, and includes the synthesizing script described in FIG. 29A.
  • the content data 1 G and the content data 2 G described in FIG. 29B are synthesized by the content synthesizing device, and the content data 3 G described in FIG. 30 is synthesized.
  • the content data 3G is the same as the content data 2D described in FIG. 27B.
  • the content data 2D can be brought into a reproducible state. This state is a state in which the content data 2D is so-called decrypted.
  • Conte The data 2G is a so-called decryption key for decrypting the content data 2D.
  • FIGS. 31A and 31B are diagrams illustrating the data structure of content data before being combined in the third combination example in the fifth embodiment.
  • content data 1H is obtained by modifying the synthesizing script included in content data 3D described in FIG. That is, another synthesis script included in the synthetic script of the content data ID described in FIG. 27 is modified and synthesized with the content data 2D.
  • the composite script included in the content data 1H includes a composite stabilite corresponding to the attribute “0000 0000”.
  • the composite script corresponding to the attribute “0 0 0 0 0 0” contains “change data” as the control content and “key frame 1 (jump 2)” as the parameter.
  • the control content “change control data” indicates that the data at the target position specified by the parameter is changed to the target data specified by the parameter.
  • the parameter ⁇ key frame 1 (jump 2) J is the key frame 1 of the animation data included in the content data including the synthesis script, and the target position of the synthesis processing indicated by the control content is indicated by the control content. Indicates that the target data of the compositing process to be performed is the control data “jump 2”.
  • FIG. 31B is a diagram showing the data structure of the content data 2H.
  • Content data 2H shown in FIG. 31B is the same as content data 2G described in FIG. 29B, and therefore description thereof will not be repeated.
  • the content synthesizing device accepts the input of the content data 1H and the content data 2H, and determines whether or not the content data 1H or the content data 2H includes the synthesizing script.
  • the synthesis script is included in the content data 1H, it is included in the content data 2H.
  • the attribute of the animation data to be used is determined. Since the attribute of the animation data included in the content data 2 H is “0 0 0 0 0 0 0”, the content data 1 H is converted into the content data 2 H based on the script corresponding to the attribute “0 0 0 0 0 0”. H, and the content data 3 H described later is stored.
  • the composite script included a script corresponding to the attribute “000000”.
  • the script corresponding to the attribute “0 0 0 0 0 0” has the attribute “0 0 0 0 0 0 0” of the animation data included in the content data 1 H including the synthesis script and the other content data 2 G to be synthesized.
  • the control data contained in key frame 1 of the animation data contained in content data 1H was changed to control data "jump 2".
  • the content synthesizing apparatus changes the control data “Repeat” included in key frame 1 of content data 1 H to control data “Jump 2”. Then, a new key frame 1 is set.
  • a header is generated based on the new key frames 1 to 4, and the header and the content data 3H including the new key frames 1 to 4 are synthesized and stored.
  • FIG. 32 is a diagram showing a data structure of the content data 3H after being synthesized in the third synthesis example in the fifth embodiment.
  • content data 3H in which content data 1H and content data 2H are synthesized by the content synthesizing device includes a header and key frames 1 to 4.
  • key frame 1 the control data of key frame 1 in content data 1H is changed to control data “jump 2”.
  • Key frames 2 to 4 are the same as key frames 1 to 3 of content data 1 D described in FIG. 27, and therefore description thereof will not be repeated.
  • the content data 3G is played back by the playback device, the same animation as the content data 2D described in FIG. 27B played back by the playback device is played back.
  • the content data 2 D can be decrypted.
  • a key frame containing the control data “repeat” and a key frame contained in other content data are added after the key frame containing the control data “repeat”, and the control data “repeat” corresponding to the predetermined attribute is added.
  • the encryption key as the content key that includes the composite stitch that describes that the new composite script that describes the change to Jump 2 J is included in the composited content data
  • Data can be decoded, and other content data can be decrypted by using content data including animation data of a predetermined attribute as a decryption key.
  • the processing performed by the content synthesizing apparatus has been described.
  • the content synthesizing method in which the processing illustrated in FIG. 26 is executed by a computer and the processing illustrated in FIG. 26 is executed by a computer.
  • a content synthesizing program to be executed a computer-readable recording medium storing the content synthesizing program, a data structure of the content data shown in FIGS. 27A, 29A, and 31A, and a data structure thereof.
  • the invention can be regarded as a computer-readable recording medium on which the above content data is recorded.
  • FIG. 33 is a diagram schematically illustrating functions of the content synthesizing device 1 OOD in the sixth embodiment.
  • the control unit 110D of the content synthesizing device 10OD includes an input receiving unit 111, a synthesizing processing unit 112D, and a synthetic scribing acquiring unit 111.
  • the storage unit 130 of the content synthesizing device 100 D stores a plurality of content data.
  • the content data includes content data including animation data and a composite script, and content data including animation data.
  • Input receiving unit 111 has been described with reference to FIG. 2 in the first embodiment, and therefore description thereof will not be repeated. '
  • the combining processing unit 1 1 2 D acquires the combined script in the combined stabilizing acquisition unit 1 16 Instruct.
  • the synthesizing script obtaining unit 1 16 obtains the synthesizing script 40 according to the instruction from the synthesizing processing unit 112 D and sends it to the synthesizing processing unit 112 D.
  • the location indicated by the location information of the composite script is stored in the storage unit 130 of the content synthesizing device 100D.
  • the location is not limited to the location indicated by the address of the storage medium, but may be the location indicated by the URL (Uniform Resource Locator) or the location indicated by the path of the synthesis script included in the recording medium 17 1. Good.
  • the synthesis processing unit 1 1 2D receives the content data 10 input by the input reception unit 1 11 based on the synthesis script acquired by the synthesis script acquisition unit 1 16 and is input by the input reception unit 1 1 1 It is combined with the content data 20. Then, the combining processing unit 112D stores the combined content data 30 in the storage unit 130.
  • the synthesizing unit 1 12 D may transmit the synthesized content data 30 directly to another PC or the like via the network 500 by the communication unit 160, or an external storage device. The information may be recorded on the recording medium 17 1 by using 170.
  • the synthesis processing unit 1 1 2D Based on the information, the combined script acquired by the combined script acquisition unit 116 may be included in the newly combined content data.
  • FIG. 34 is a flowchart illustrating the flow of the data combining process performed by the content combining device 100D according to the sixth embodiment.
  • the data synthesis process is described in Figure 3. This is the process executed in step S13 of the content synthesizing process described above.
  • step S61 the synthesis script included in content data 10 input in step S11 is interpreted by synthesis processing section 112D, and step S61 is performed.
  • step S62 it is determined whether or not the content data 10 includes the location information of the synthesis script. If the content data 10 includes the location information of the synthesis script (Yes in step S62), in step S63, the synthesis script acquisition unit 116 executes the synthesis stabilization indicated by the location information of the synthesis stabilization.
  • step S64 the content data 10 input in step S11 is converted by the synthesizing processing unit 112D into step S1 based on the composite script obtained in step S63.
  • the synthesizing process for synthesizing with the content data 20 input in 1 is executed, and the process returns to the content synthesizing process.
  • step S62 the process returns to the content synthesizing process.
  • the first content data including the location information indicating the location of the synthesis script describing the synthesis of the content data; and
  • the input of the second content data is received, a synthesis script indicated by the location information included in the input first content data is obtained, and the input first content data is based on the obtained synthesis script.
  • the combining process is controlled by the combining script indicated by the location information included in the first content data.
  • the first content data includes the location information of the synthesis script, there is no need to prepare a new synthesis script when synthesizing the first content data with the second content data.
  • the synthesizing process can be controlled from the content data side, and it is not necessary to prepare a new synthesizing script necessary for synthesizing the content data.
  • the content synthesizing apparatus 100D in the sixth embodiment another synthesized script indicated by the location information included in the synthesized stabilite indicating the location of another synthesized script is obtained, and the synthesized content data is obtained. Include other acquired synthetic scripts. For this reason, the synthesis processing starts from the newly synthesized content data side. Can be controlled.
  • the processing performed by the content synthesizing apparatus 10 OD has been described in the sixth embodiment, the content synthesizing method of executing the processing shown in FIG. 34 by a computer and the processing shown in FIG. 34
  • the invention can be regarded as a content synthesizing program for causing a computer to execute the method, and a computer-readable recording medium storing the content synthesizing program.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

コンテンツ合成装置は、コンテンツデータの合成について記述した合成スクリプトを含む第1のコンテンツデータ、および、第2のコンテンツデータの入力を受付ける入力受付部(S11)と、入力された第1のコンテンツデータに含まれる合成スクリプトに基づき、入力された第1のコンテンツデータを入力された第2のコンテンツデータと合成する合成処理部(S13)とを備える。このため、コンテンツデータの合成に必要な合成スクリプトを新たに用意する必要をなくすることができる。

Description

明細書 コンテンツ合成装置、 コンテンツ合成方法、 コンテンツ合成プログラム、 コンテ ンッ合成プロダラムを記録したコンピュータ読取可能な記録媒体、 コンテンッデ —タのデータ構造、 および、 コンテンツデータを記録したコンピュータ読取可能 な記録媒体 技術分野
. 本発明は、 コンテンツ合成装置、 コンテンツ合成方法、 コンテンツ合成プログ ラム、 コンテンツ合成プログラムを記録したコンピュータ読取可能な記録媒体、 コンテンツデータのデータ構造、 および、 コンテンツデータを記録したコンビュ 一タ読取可能な記録媒体に関し、 特に、 コンテンツデータを合成するのに適した コンテンツ合成装置、 コンテンツ合成方法、 コンテンツ合成プログラム、 コンテ ンッ合成プログラムを記録したコンピュータ読取可能な記録媒体、 コンテンッデ —タのデータ構造、 および、 コンテンツデータを記録したコンピュータ読取可能 な記録媒体に関する。 背景技術
近年、 インターネットの普及に伴い、 画像や動画などのデジタル化したコンテ ンッを販売、 配信することが多くなつている。 このようなデジタルコンテンツを 一から制作する場合、 専用のォーサリングツールを用いることが多い。 し力 し、 専用のォーサリングツールを用いるには、高度な技術が必要とされる場合があり、 必ずしも一般の利用者が簡単に利用できるものではない。 このような問題を解決 するために、予め人物、物体、背景ごとにコンテンツを部品化して保存しておき、 それらを組合わせることによって、 新たなコンテンツを制作する手法がある。 なお、 以上本発明についての従来の技術を、 出願人の知得した一般的技術情報 に基づいて説明したが、 出願人の記憶する範囲において、 出願前までに先行技術 文献情報として開示すべき情報を出願人は有していない。
しかしながら、 従来のコンテンツデータの合成方法には、 次のような問題があ る。 第 1に、 コンテンツデータの作成者側から合成処理を規定することができな いといった問題である。 たとえば、 あるコンテンツを特定のコンテンツとのみ合 成を許可させるように設定することは不可能である。 このため、 コンテンツの作 成者がコンテンツの合成形態を規定することはできない。
第 2に、コンテンッデータを合成する際には、合成スクリブトが必要であるが、 一般の利用者が合成スクリプトを作成することは困難であるといった問題がある。 このため、 一般の利用者は、 合成するコンテンツデータに応じた合成スクリプト を探し出して、 用いなければならない。 発明の開示
この発明の目的の 1つは、 コンテンツデータ側から合成処理を制御することが 可能なコンテンツ合成装置、 コンテンツ合成方法、 コンテンツ合成プログラム、 コンテンッ合成プログラムを記録したコンビュ ^タ読取可能な記録媒体、 コンテ ンッデータのデータ構造、 および、 コンテンツデータを記録したコンピュータ読 取可能な記録媒体を提供することである。
この発明の他の目的は、 コンテンツデータの合成に必要な合成スクリプトを新 たに用意する必要がないコンテンツ合成装置、 コンテンツ合成方法、 コンテンツ 合成プログラム、 コンテンツ合成プログラムを記録したコンピュータ読取可能な 記録媒体、 コンテンツデータのデータ構造、 および、 コンテンツデータを記録し たコンピュータ読取可能な記録媒体を提供することである。
上述の目的を達成するために、 この発明のある局面によれば、 コンテンツ合成 装置は、 コンテンツデータの合成について記述した合成スクリプトを含む第 1の コンテンツデータ、 および、 第 2のコンテンツデータの入力を受付ける入力受付 部と、 入力された第 1のコンテンツデータに含まれる合成スクリプトに基づき、 入力された第 1のコンテンツデータを入力された第 2のコンテンッデータと合成 する合成処理部とを備える。
この発明に従えば、 コンテンツ合成装置により、 コンテンツデータの合成につ いて記述した合成スクリプトを含む第 1のコンテンツデータ、 および、 第 2のコ ンテンッデータの入力が受付けられ、 入力された第 1のコンテンッデータに含ま れる合成スクリブトに基づき、 入力された第 1のコンテンッデ一タが入力された 第 2のコンテンツデータと合成される。 このため、 第 1のコンテンツデータに含 まれる合成スクリプトにより、 合成処理が制御される。 また、 第 1のコンテンツ データに合成スタリブトが含まれるので、 第 1のコンテンッデータを第 2のコン テンッデータと合成するときに、 合成スクリプトを新たに用意する必要がない。 その結果、 コンテンツデータ側から合成処理を制御することができるとともに、 コンテンツデータの合成に必要な合成スクリプトを新たに用意する必要がないコ ンテンッ合成装置を提供することができる。
好ましくは、 第 2のコンテンッデータの属性を判別する属性判別部をさらに備 え、 合成スクリプトは、 コンテンツデータの複数の属性のそれぞれに対応するス クリブトを含み、合成処理部は、判別された属性に対応したスタリブトに基づき、 入力された第 1のコンテンッデータを入力された第 2のコンテンッデ一タと合成 する。
この発明に従えば、 コンテンツ合成装置により、 第 2のコンテンツデータの属 †生が判別され、 第 1のコンテンツデータに含まれる合成スクリブトに含まれる判 別された属性に対応したスクリブトに基づき、 第 1のコンテンッデータが第 2の コンテンツデータと合成される。 このため、 第 2のコンテンツデータの属性に対 応するスクリプトにより、 合成処理が制御される。 その結果、 コンテンツデータ 側から合成処理を制御することができるとともに、 コンテンツデータの属性に応 じた合成処理をすることができる。
好ましくは、現在時刻を取得する時刻取得部をさらに備え、合成スクリプトは、 合成処理部により合成される時刻に応じたスクリプトを含み、 合成処理部は、 取 得された現在時刻に応じたスクリプトに基づき、 入力された第 1のコンテンッデ ータを入力された第 2のコンテンツデータと合成する。
この発明に従えば、 コンテンツ合成装置により、 現在時刻が取得され、 第 1の コンテンツデータに含まれる合成スクリプトに含まれる取得された現在時刻に応 じたスクリプトに基づき、 第 1のコンテンツデータが第 2のコンテンツデータと 合成される。 このため、 合成する時刻に応じたスクリプトにより、 合成処理が制 御される。 その結果、 コンテンツデータ側から合成処理を制御することができる とともに、 コンテンツデータを合成する時刻に応じた合成処理をすることができ る。
好ましくは、 コンテンッ合成装置の現在位置を取得する位置取得部をさらに備 え、 合成スクリプトは、 位置に応じたスクリプトを含み、 合成処理部は、 取得さ れた現在位置に応じたスクリプトに基づき、 入力された第 1のコンテンツデータ を入力された第 2のコンテンツデータと合成する。
この発明に従えば、 コンテンツ合成装置により、 コンテンツ合成装置の現在位 置が取得され、 第 1のコンテンツデータに含まれる合成スクリプトに含まれる取 得された現在位置に応じたスクリブトに基づき、 第 1のコンテンツデータが第 2 のコンテンツデータと合成される。 このため、 合成する場所に応じたスクリプト により、 合成処理が制御される。 その結果、 コンテンツデータ側から合成処理を 制御することができるとともに、 コンテンツデータを合成する場所に応じた合成 処理をすることができる。
好ましくは、 合成スクリプトは、 他の合成スクリプトを含み、 合成されたコン テンッデータに他の合成スクリプトを含ませる付加部をさらに備える。
この発明に従えば、 コンテンツ合成装置により、 合成されたコンテンツデータ に、 合成スクリプトに含まれる他の合成スクリプトが付カ卩される。 このため、 新 たに合成されたコンテンツデータ側から合成処理を制御可能にすることができる。 好ましくは、 合成スクリブトは、 他の合成スタリブトの所在を示す所在情報を 含み、 所在情報が示す他の合成スクリプトを取得する取得部と、 合成されたコン テンッデータに取得された他の合成スクリプトを含ませる付加部とをさらに備え る。 '
この発明に従えば、 コンテンツ合成装置により、 他の合成スクリプトの所在を 示す合成スクリブトに含まれる所在情報が示す他の合成スクリブトが取得され、 合成されたコンテンツデータに、 取得された他の合成スクリプトが付加される。 このため、 新たに合成されたコンテンツデータ側から合成処理を制御可能にする ことができる。
好ましくは、 第 1のコンテンツデータおよび第 2のコンテンツデータは、 ァェ メーシヨンデータのコマを定義するキーフレームを含み、 合成スクリプトは、 第 2のコンテンツデータに含まれるキーフレームに含まれるデータを第 1のコンテ ンッデータの所定のキーフレームに挿入することを記述したスクリプトを含む。 この発明に従えば、 コンテンツ合成装置により、 第 2のコンテンツデータに含 まれるキーフレームに含まれるデータを第 1のコンテンツデ^ "タの所定のキーフ レームに挿入することを記述したスクリプトを含む合成スクリプトに基づき、 入 力された第 2のコンテンツデータに含まれるキーフレームに含まれるデータが、 入力された第 1のコンテンツデータの所定のキーフレームに挿入される。 このた め、 第 1のコンテンツデータに含まれる合成スクリプトにより、 第 2のコンテン ッデータに含まれるデータを第 1のコンテンツデータに揷入する合成処理が制御 される。 その結果、 コンテンツデータ側から他のコンテンツデータを揷入する合 成処理を制御することができる。
好ましくは、 第 1のコンテンツデータおよび第 2のコンテンツデータは、 ァ- メーシヨンデータのコマを定義するキーフレームを含み、 合成スクリプトは、 第 2のコンテンツデータに含まれるキーフレームを第 1のコンテンツデータの所定 の箇所に追加することを記述したスクリプトを含む。
この発明に従えば、 コンテンツ合成装置により、 第 2のコンテンツデータに含 まれるキーフレームを第 1のコンテンツデータの所定の箇所に追加することを記 述したスクリプトを含む合成スクリプトに基づき、 入力された第 2のコンテンツ データに含まれるキーフレームが、 キーフレームを含む第 1のコンテンツデータ の所定の箇所に追加される。 このため、 第 1のコンテンツデータに含まれる合成 スクリプトにより、 第 2のコンテンツデータを第 1のコンテンツデータに追加す る合成処理が制御される。 その結果、 コンテンツデータ側から他のコンテンツデ ータを追加する合成処理を制御することができる。
好ましくは、 第 1のコンテンツデータは、 ァェメーシヨンデータのコマを定義 するキーフレームを含み、 第 2のコンテンツデータは、 キーフレームに含むこと が可能なデータであり、 合成スクリプトは、 第 1のコンテンツデータのキーフレ ームに含まれる所定のデータを第 2のコンテンッデータに変更することを記述し たスクリプトを含む。
この発明に従えば、 コンテンツ合成装置により、 第 1のコンテンツデータのキ ーフレームに含まれる所定のデータを第 2のコンテンッデータに変更することを 記述したスクリプトを含む合成スタリブトに基づき、 入力された第 1のコンテン ッデータのキーフレームに含まれる所定のデータが、 入力された第 2のコンテン ッデータに変更される。 このため、 第 1のコンテンツデータに含まれる合成スク リプトにより、 第 1のコンテンツデータに含まれる所定のデータを第 2のコンテ ンッデータに変更する合成処理が制御される。 その結果、 コンテンツデータ側か ら他のコンテンツデータに変更する合成処理を制御することができる。
好ましくは、 合成スクリプトは、 第 1のコンテンツデータの所定の部分を削除 することを記述したスクリプトを含む。
この発明に従えば、 コンテンツ合成装置により、 第 1のコンテンツデータの所 定の部分を削除することを記述したスタリブトを含む合成スタリブトに基づき、 入力された第 1のコンテンツデータの所定の部分が削除される。 このため、 第 1 のコンテンツデータに含まれる合成スクリプトにより、 第 1のコンテンツデータ に含まれる所定の部分を削除する合成処理が制御される。 その結果、 コンテンツ データ側からコンテンツデータの所定の部分を削除する合成処理を制御すること ができる。
この発明の他の局面によれば、 コンテンツ合成装置は、 コンテンツデータの合 成について記述した合成スクリブトの所在を示す所在情報を含む第 1のコンテン ッデータ、 および、 第 2のコンテンツデータの入力を受付ける入力受付部と、 入 力された第 1のコンテンッデータに含まれる所在情報が示す合成スタリブトを取 得する取得部と、 取得された合成スクリプトに基づき、 入力された第 1のコンテ ンッデータを入力された第 2のコンテンツデータ 合成する合成処理部とを備え る。
この発明に従えば、 コンテンツ合成装置により、 コンテンツデータの合成につ いて記述した合成スクリブトの所在を示す所在情報を含む第 1のコンテンツデー タ、 および、 第 2のコンテンツデ タの入力が受付けられ、 入力された第 1のコ ンテンッデータに含まれる所在情報が示す合成スクリプトが取得され、 取得され た合成スタリブトに基づき、 入力された第 1のコンテンツデータが入力された第 2のコンテンツデータと合成される。 このため、 第 1のコンテンツデータに含ま れる所在情報が示す合成スクリプトにより、 合成処理が制御される。 また、 第 1 のコンテンツデータに合成スクリプトの所在情報が含まれるので、 第 1のコンテ ンッデータを第 2のコンテンツデータと合成するときに、 合成スクリプトを新た に用意する必要がない。 その結果、 コンテンツデータ側から合成処理を制御する ことができるとともに、 コンテンツデータの合成に必要な合成スクリプトを新た に用意する必要がないコンテンツ合成装置を提供することができる。
好ましくは、 合成スタリブトは、 他の合成スタリブトの所在を示す所在情報を 含み、 取得部は、 所在情報が示す他の合成スクリプトをさらに取得し、 合成され たコンテンツデータに取得された他の合成スクリプトを含ませる付加部をさらに 備える。
この発明に従えば、 コンテンツ合成装置により、 他の合成スクリプトの所在を 示す合成スタリブトに含まれる所在情報が示す他の合成スタリブトがさらに取得 され、 合成されたコンテンツデータに、 取得された他の合成スクリプトが付カロさ れる。 このため、 新たに合成されたコンテンツデータ側から合成処理を制御可能 にすることができる。
この発明のさらに他の局面によれば、 コンテンツ合成方法は、 コンピュータで コンテンツデータを合成する方法であって、 合成スクリプトを含む第 1のコンテ ンッデータ、 および、 第 2のコンテンツデータの入力を受付けるステップと、 入 力された第 1のコンテンツに含まれる合成スクリプトに基づき、 入力された第 1 のコンテンッデ一タを入力された第 2のコンテンツデータと合成するステップと を含む。
この発明に従えば、 コンテンツデータ側から合成処理を制御することができる とともに、 コンテンツデータの合成に必要な合成スクリプトを新たに用意する必 要がないコンテンツ合成方法を提供することができる。
この発明のさらに他の局面によれば、 コンテンツ合成方法は、 コンピュータで コンテンツデータを合成する方法であって、 合成スクリプトの所在を示す所在情 報を含む第 1のコンテンツデータ、 および、 第 2のコンテンツデータの入力を受 付けるステップと、 入力された第 1のコンテンツデータに含まれる所在情報が示 す合成スタリブトを取得するステップと、 取得された合成スタリブトに基づき、 入力された第 1のコンテンッデータを入力された第 2のコンテンッデータと合成 するステップとを含む。
この発明に従えば、 コンテンツデータ側から合成処理を制御することができる とともに、 コンテンッデータの合成に必要な合成スタリブトを新たに用意する必 要がないコンテンッ合成方法を提供することができる。
この発明のさらに他の局面によれば、 コンテンツ合成プログラムは、 コンテン ッデータを合成するプログラムであって、 合成スクリプトを含む第 1のコンテン ッデータ、 およぴ、 第 2のコンテンツデータの入力を受付けるステップと、 入力 された第 1のコンテンツデータに含まれる合成スクリブトに基づき、 入力された 第 1のコンテンツデータを入力された第 2のコンテンツデータと合成するステツ プとをコンピュータに実行させる。
この発明に従えば、 コンテンッデータ側から合成処理を制御することができる とともに、 コンテンツデータの合成に必要な合成スクリプトを新たに用意する必 要がないコンテンツ合成プログラム、 および、 コンテンツ合成プログラムを記録 したコンピュータ読取可能な記録媒体を提供することができる。
この発明のさらに他の局面によれば、 コンテンツ合成プログラムは、 コンテン ッデータを合成するプログラムであって、 合成スクリプトの所在を示す所在情報 を含む第 1のコンテンツデータ、 および、 第 2のコンテンツデータの入力を受付 けるステップと、 入力された第 1のコンテンツデータに含まれる所在情報が示す 合成スクリプトを取得するステップと、 取得された合成スクリプトに基づき、 入 力された第 1のコンテンッデータを入力された第 2のコンテンツデータと合成す るステップとをコンピュータに実行させる。
この発明に従えば、 コンテンッデータ側から合成処理を制御することができる とともに、 コンテンツデータの合成に必要な合成スクリプトを新たに用意する必 要がないコンテンツ合成プログラム、 および、 コンテンツ合成プログラムを記録 したコンピュータ読取可能な記録媒体を提供することができる。
この発明のさらに他の局面によれば、 コンテンツデータのデータ構造は、 コン テンッデータと、 コンテンツデータを他のコンテンツデータと合成するための合 成処理がコンピュータで実行される際に用いられる合成スクリプトとを含む。 この発明に従えば、 コンテンツデータに含まれる合成スクリプトにより、 コン ピュータで、 他のコンテンツデータをコンテンツデータと合成する合成処理が実 行される。 その結果、 コンテンツデータ側から合成処理を制御することができる とともに、 コンテンツデータの合成に必要な合成スクリブトを新たに用意する必 要がないコンテンツデータのデータ構造、 および、 コンテンツデータを記録した コンピュータ読取可能な記録媒体を提供することができる。
好ましくは、 コンテンツデータおょぴ他のコンテンツデータは、 アニメーショ ンデータのコマを定義するキーフレームを含み、 合成スクリプトは、 他のコンテ ンッデータに含まれるキーフレームをコンテンツデータの所定の箇所に追加する ことを記述したスクリプトを含む。
この発明に従えば、 コンピュータにより、 他のコンテンツデータに含まれるキ 一フレームをコンテンツデータの所定の箇所に追加することを記述したスクリプ トを含む合成スクリプトに基づき、 入力された他のコンテンツデータに含まれる キーフレームが、 入力されたコンテンツデータの所定の箇所に追加される。 この ため、 コンテンツデータに含まれる合成スクリプトにより、 他のコンテンツデー タをコンテンツデータに追加する合成処理が制御される。 その結果、 コンテンツ データ側から他のコンテンツデータを追加する合成処理を制御することができる。 好ましくは、 コンテンツデータは、 アニメーションデータのコマを定義するキ 一フレームを含み、 他のコンテンツデータは、 キーフレームに含むことが可能な データであり、 合成スクリプトは、 コンテンツデータのキーフレームに含まれる 所定のデータを他のコンテンッデータに変更することを記述したスクリプトを含 む。
この発明に従えば、 コンピュータにより、 コンテンツデータのキーフレームに 含まれる所定のデータを他のコンテンッデータに変更することを記述したスクリ プトを含む合成スクリプトに基づき、 入力されたコンテンツデータのキーフレー ムに含まれる所定のデータが、 入力された他のコンテンッデータに変更される。 このため、 コンテンツデータに含まれる合成スクリプトにより、 コンテンツデー タに含まれる所定のデータを他のコンテンッデータに変更する合成処理が制御さ れる。 その結果、 コンテンツデータ側から他のコンテンツデータに変更する合成 処理を制御することができる。
好ましくは、 合成スクリプトは、 コンテンツデータの所定の部分を削除するこ とを記述したスクリプトを含む。
この発明に従えば、 コンピュータにより、 コンテンツデータの所定の部分を削 除することを記述したスクリプトを含む合成スクリプトに基づき、 入力されたコ ンテンッデータの所定の部分が削除される。 このため、 コンテンツデータに含ま れる合成スクリプトにより、 コンテンツデータに含まれる所定の部分を削除する 合成処理が制御される。 その結果、 コンテンツデータ側からコンテンツデータの 所定の部分を削除する合成処理を制御することができる。
この発明の上記および他の目的、 特徴、 局面および利点は、 添付の図面と関連 して理解されるこの発明に関する次の詳細な説明から明らかとなるであろう。 図面の簡単な説明
図 1は、 第 1の実施例におけるコンテンッ合成装置の構成の概略を示すプロッ ク図である。
図 2は、 第 1の実施例におけるコンテンッ合成装置の機能の概略を示す図であ る。
図 3は、 第 1の実施例におけるコンテンッ合成装置で実行されるコンテンツ合 成処理の流れを示すフローチャートである。
図 4 A、 および、 図 4 Bは、 第 1の実施例における第 1の合成例において合成 される前のコンテンツデータのデータ構造を示す図である。
図 5は、 第 1の実施例における第 1の合成例において合成された後のコンテン ッデータのデータ構造を示す図である。
図 6 A、 図 6 B、 図 6 C、 および、 図 6 Dは、 第 1の実施例における第 1の合 成例において合成されたコンテンッデ一タを再生したときに表示されるァュメ一' シヨンを説明するための図である。
図 7 A、 および、 図 7 Bは、 第 1の実施例における第 2の合成例において合成 される前のコンテンツデータのデータ構造を示す図である。
図 8は、 第 1の実施例における第 2の合成例において合成された後のコンテン ッデータのデータ構造を示す図である。
図 9A、 図 9B、 図 9C、 および、 図 9Dは、 第 1の実施例における第 2の合 成例において合成されたコンテンッデータを再生したときに表示されるアニメ一 シヨンを説明するための図である。
図 10A、 および、 図 10Bは、 第 1の実施例における第 3の合成例において 合成される前のコンテンツデータのデータ構造を示す図である。
図 1 1は、 第 1の実施例における第 3の合成例において合成された後のコンテ ンッデータのデータ構造を示す図である。
図 12A、 および、 図 12Bは、 第 1の実施例における第 4の合成例において 合成される前のコンテンツデータのデータ構造を示す図である。
図 13は、 第 1の実施例における第 4の合成例において合成された後のコンテ ンッデータのデータ構造を示す図である。
図 14は、 第 2の実施例におけるコンテンッ合成装置の機能の概略を示す図で ある。
図 15は、 第 2の実施例におけるコンテンツ合成装置で実行されるデータ合成 処理の流れを示すフローチヤ一トである。
図 16は、 第 2の実施例におけるコンテンッ合成装置で実行される属性判別処 理の流れを示すフローチヤ一トである。
図 17A、 図 1 7B、 および、 図 17Cは、 第 2の実施例における第 1の合成 例において合成される前のコンテンツデータのデータ構造を示す図である。 図 18A、 図 18B、 図 18C、 図 18D、 図 18E、 および、 図 18 Fは、 第 2の実施例における第 1の合成例において合成されたコンテンツデータを再生 したときに表示されるアニメーションを説明するための図である。
図 19は、 第 3の実施例におけるコンテンツ合成装置の機能の概略を示す図で ある。
図 20は、 第 3の実施例におけるコンテンツ合成装置で実行されるデータ合成 処理の流れを示すフローチヤ一トである。
図 21A、 および、 図 21 Bは、 第 3の実施例における第 1の合成例において 合成される前のコンテンツデータのデータ構造を示す図である。 図 2 2 A、 図 2 2 B、 図 2 2 C、 図 2 2 D、 図 2 2 E、 および、 図 2 2 Fは、 第 3の実施例における第 1の合成例において合成されたコンテンッデータを再生 したときに表示されるァ-メーシヨンを説明するための図である。
図 2 3は、 第 4の実施例におけるコンテンツ合成装置の機能の概略を示す図で ある。
図 2 4は、 第 4の実施例におけるコンテンッ合成装置で実行されるデータ合成 処理の流れを示すフローチヤ一トである。
図 2 5 A、 および、 図 2 5 Bは、 第 4の実施例における第 1の合成例において 合成される前のコンテンツデータのデータ構造を示す図である。
図 2 6は、 第 5の実施例におけるコンテンッ合成装置で実行されるデータ合成 処理の流れを示すフローチャートである。
図 2 7 A、 および、 図 2 7 Bは、 第 5の実施例における第 1の合成例において 合成される前のコンテンツデータのデータ構造を示す図である。
図 2 8は、 第 5の実施例における第 1の合成例において合成された後のコンテ ンッデータのデータ構造を示す図である。
図 2 9 A、 および、 図 2 9 Bは、 第 5の実施例における第 2の合成例において 合成される前のコンテンツデータのデータ構造を示す図である。
図 3 0は、 第 5の実施例における第 2の合成例において合成された後のコンテ ンッデータのデータ構造を示す図である。
図 3 1 A、 および、 図 3 1 Bは、 第 5の実施例における第 3の合成例において 合成される前のコンテンツデータのデータ構造を示す図である。
図 3 2は、 第 5の実施例における第 3の合成例において合成された後のコンテ ンッデータのデータ構造を示す図である。
図 3 3は、 第 6の実施例におけるコンテンッ合成装置の機能の概略を示す図で ある。
図 3 4は、 第 6の実施例におけるコンテンッ合成装置で実行されるデータ合成 処理の流れを示すフローチヤ一トである。 発明を実施するための最良の形態 [第 1の実施例]
以下、 本発明の実施例について図面を参照して説明する。 なお、 図中同一符号 は同一または相当する部材を示し、 重複する説明は繰返さない。
図 1は、 第 1の実施例におけるコンテンツ合成装置 1 0 0の構成の概略を示す ブロック図である。 図 1を参照して、 コンテンツ合成装置 1 0 0は、 パーソナル コンピュータ (以下、 「P C (Personal Computer)」 という) 等の汎用的なコンビ ユータで構成することができる。 コンテンツ合成装置 1 0 0は、 コンテンツ合成 装置 1 0 0の全体を制御するための制御部 1 1 0と、 所定の情報を記憶するため の記憶部 1 3 0と、 コンテンッ合成装置 1 0 0に所定の情報を入力するための入 力部 1 4 0と、 コンテンツ合成装置 1 0 0から所定の情報を出力するための出力 部 1 5 0と、 コンテンツ合成装置 1 0 0をネットワーク 5 0 0と接続するための インターフェイスである通信部 1 6 0と、 記録媒体 1 7 1に記録された情報を入 力したり、 記録媒体 1 7 1に必要な情報を記録するための外部記憶装置 1 7 0と を含む。 また、 制御部 1 1 0と、 記憶部 1 3 0と、 入力部 1 4 0と、 出力部 1 5 0と、 通信部 1 6 0と、 外部記憶装置 1 7 0とは、 バスを介して、 互いに接続さ れる。
制御部 1 1 0は、 C P U (Central Processing Unit) および C P Uの捕助回路 からなり、 記憶部 1 3 0、 入力部 1 4 0、 出力部 1 5 0、 および、 外部記憶装置 1 7 0を制御し、 記憶部 1 3 0に記憶されたプログラムにしたがって所定の処理 を実行し、 入力部 1 4 0、 通信部 1 6 0、 外部記憶装置 1 7 0から入力されたデ ータを処理し、 処理されたデータを、 出力部 1 5 0、 通信部 1 6 0、 あるいは、 外部記憶装置 1 7 0に出力する。
記憶部 1 3 0は、 制御部 1 1 0でプログラムを実行するために必要な作業領域 として用いられる R AM (Random Access Memory) と、 制御部 1 1 0で実行する ためのプログラムを記憶するための R OM (Read Only Memory) とを含む。 また、 R AMの補助として、ハードディスクドライブ(以下、「HD D (Hard Disk Drive) J という) 等の磁気ディスク記憶装置が用いられる。
入力部 1 4 0は、 キーボード、 マウス等からの信号を入力するためのインター フェイスであり、 コンテンツ合成装置 1 0 0に必要な情報を入力することができ る。
出力部 1 5 0は、 液晶表示装置または陰極線管 (以下、 「C R T (Cathode Ray Tube)」 'という)等のディスプレイに信号を出力するためのインターフェイスであ り、 コンテンツ合成装置 1 0 0から必要な情報を出力することができる。
通信部 1 6 0は、 コンテンッ合成装置 1 0 0をネットワーク 5 0 0に接続する ための通信インターフェイスである。 コンテンツ合成装置 1 0 0は、 通信部 1 6 0を介して、 他の P C等と必要な情報を送受信する。
外部記憶装置 1 7 0は、 記録媒体 1 7 1に記録されたプログラムやデータを読 込み、 制御部 1 1 0に送信する。 また、 外部記憶装置 1 7 0は、 制御部 1 1 0か らの指示により、 記録媒体 1 7 1に必要な情報を書込む。
コンピュータ読取可能な記録媒体 1 7 1としては、 磁気テープ、 カセットテー プ、 フロッピー (R) ディスク、 ハードディスク等の磁気ディスク、 C D— R O M (Compact Disk Read Only Memory) , D V D (Digital Versatile Disk) 等の 光ディスク、 MO (Magneto Optical disk)、 MD (MiniDisc) 等の光磁気デイス ク、 I Cカード、 光カード等のメモリカード、 あるいは、 マスク R OM, E P R OM (Erasable Programmable Read Only Memory)、 E E P R OM (Electrionically Erasable and Programmable Read Only Memory)、 フラッシュ R OM等の半導体メ モリを含めた、 固定的にプログラムを担持する記録媒体である。 また、 記録媒体 を、 ネットワーク 5 0 0からプログラムがダウンロードされるように流動的にプ ログラムを担持する媒体とすることができる。
図 2は、 第 1の実施例におけるコンテンツ合成装置 1 0 0の機能の概略を示す 図である。 図 2を参照して、 コンテンツ合成装置 1 0 0の制御部 1 1 0は、 入力 受付部 1 1 1と、 合成処理部 1 1 2とを含む。 コンテンツ合成装置 1 0 0の記憶 部 1 3 0は、 複数のコンテンツデータを記憶する。 コンテンツデータは、 アニメ ーシヨンデータと合成スクリプトとを含むコンテンツデータと、 アニメーション データを含むコンテンッデータとを含む。
コンテンツデータは、 アニメーションデータ等の動画像データ、 静止画像デー タ、 音楽データ、 図形データ等、 コンピュータ等のコンテンツの再生装置により 出力可能なデータを含み得る。 ここでは、 コンテンツデータにアニメーションデ ータが含まれる場合を例として説明するが、 これに限定されることはない。 ァニ メーションデータは、 アニメーションデータの各コマを定義するデータであるキ 一フレームを含む。
また、 合成スクリプトは、 あるコンテンツデータを他のコンテンツデータと合 成するための合成処理における手順を定義する情報であり、 コンテンツ合成装置 1 0 0で合成処理が実行される際に用いられる。 また、 合成スクリプトは、 制御 内容と、 パラメータとからなる。 制御内容は、 合成処理の内容を示す。 パラメ一 タは、 合成処理の対象を示す。 本実施例においては、 コンテンツデータがァ-メ ーションデータを含む例としているため、 合成スクリプトは、 アニメーションデ —タを他のァェメーシヨンデータと合成するための合成処理における手順を定義 する情報である。
記憶部 1 3 0に記憶されるコンテンツデータは、 予め、 通信部 1 6 0により他 の P C等からネットワーク 5 0 0を介して受信されて記憶部 1 3 0に記憶される ようにしてもよいし、 外部記憶装置 1 7 0により記録媒体 1 7 1から読込まれて 記憶部 1 3 0に記憶されるようにしてもよい。
入力受付部 1 1 1は、 記憶部 1 3 0に記憶された合成スクリプトを含むコンテ ンッデータ 1 0、 および、 コンテンツデータ 2 0の入力を受付ける。 受付けられ たコンテンツデータ 1 0、 および、 コンテンツデータ 2 0は、 合成処理部 1 1 2 に出力される。 なお、 入力受付部 1 1 1は、 直接、 通信部 1 6 0により他の P C 等からネットワーク 5 0 0を介して、 合成スクリプトを含むコンテンツデータ 1 0、 および、 コンテンツデータ 2 0の入力を受付けてもよいし、 外部記憶装置 1 7 0により記録媒体 1 7 1から、 合成スクリプトを含むコンテンツデータ 1 0、 および、 コンテンツデータ 2 0の入力を受付けてもよい。
合成処理部 1 1 2は、 コンテンツデータ 1 0に含まれる合成スクリプトに基づ き、 コンテンツデータ 1 0に含まれるアニメーションデータを、 コンテンツデー タ 2 0に含まれるアニメーションデータと合成する。 そして、 合成処理部 1 1 2 は、 合成されたコンテンツデータ 3 0を記憶部 1 3 0に記憶させる。 なお、 合成 処理部 1 1 2は、 合成されたコンテンツデータ 3 0を、 直接、 通信部 1 6 0によ りネットワーク 5 0 0を介して他の P C等に送信してもよいし、 外部記憶装置 1 7 0により記録媒体 1 7 1に記録してもよい。
図 3は、 第 1の実施例におけるコンテンツ合成装置 1 0 0で実行されるコンテ ンッ合成処理の流れを示すフローチャートである。 図 3を参照して、 まず、 ステ ップ S 1 1で、 入力受付部 1 1 1により、 記憶部 1 3 0に記憶された合成スクリ プトを含むコンテンツデータ 1 0、 および、 コンテンツデータ 2 0の入力が受付 けられる。
次に、 ステップ S 1 2で、 合成処理部 1 1 2により、 ステップ S 1 1で入力さ れたコンテンツデータ 1 0、 あるいは、 コンテンツデータ 2 0に合成スクリプト が含まれるか否かが判断される。 いずれかのコンテンツデータに合成スクリプト が含まれる場合 (ステップ S 1 1で Y e s ) は、 ステップ S 1 3に進む。 一方、 いずれのコンテンツデータにも合成スクリプトが含まれない場合 (ステップ S 1
1で N o ) は、 コンテンツ合成処理が終了する。 ここでは、 ステップ S 1 1で入 力されたコンテンツデータ 1 0に合成スクリプトが含まれるので、 ステップ S 1 3に進む。 なお、 ステップ S 1 2で、 いずれのコンテンツデータにも合成スクリ ブトが含まれる場合は、 コンテンツ合成処理を終了させるようにしてもよいし、 どちらかのコンテンツデータに含まれる合成スクリプトを以後のステツプで用 ヽ るようにしてもよい。
ステップ S 1 3では、合成処理部 1 1 2により、データ合成処理が実行される。 データ合成処理は、 ステップ S 1 1で入力されたコンテンツデータ 1 0に含まれ る合成スクリプトに基づき、 コンテンツデータ 1 0に含まれるアニメーションデ ータを、 ステップ S 1 1で入力されたコンテンツデータ 2 0に含まれるァェメ一 ションデータと合成する処理である。
最後に、 ステップ S 1 4では、 合成処理部 1 1≤により、 ステップ S 1 3で合 成されたコンテンッデータ 3 0が記憶部 1 3 0に記憶され、 コンテンッ合成処理 が終了する。
(第 1の実施例における第 1の合成例)
ここでは、 コンテンツデータに含まれる合成スクリプトに基づき、 他のコンテ ンッデータに含まれるデータをコンテンッデータに揷入する合成例について説明 する。 図 4 A、 および、 図 4 Bは、 第 1の実施例における第 1の合成例において合成 される前のコンテンツデータのデータ構造を示す図である。 図 4 Aは、 合成スク リプトを含むコンテンツデータ 1.Aのデータ構造を示す図である。 図 4 Aを参照 して、 コンテンツデータ 1 Aは、 ヘッダ、 キーフレーム 1〜キーフレーム 4、 お よび、 合成スクリプトを含む。
ヘッダには、 アニメーションデータの表示サイズやキーフレーム数や各キーフレ ームの再生時刻間隔などのアニメーションデータの属性を示すデータが含まれる。 また、 キーフレームは、 アニメーションデータのコマを定義するデータである。 そして、 各キーフレームの再生時刻間隔から、 各キーフレームがそれぞれ再生さ れる時刻が定められる。 次に、 アニメーションデータを再生する再生装置で 1秒 間に再生可能なフレームの数を示すフレームレートに応じて、 キーフレーム間の フレームが補完される。 そして、 キーフレームおよび補完されたフレームが順次 再生されることにより、 ァ-メーシヨンが実現される。
キーフレーム 1は、 オブジェクトデータと、 画像データとを含む。 オブジェク トデータは、 図形を示すデータであり、 図形の形状を示す形状データと、 図形の 位置を示す位置デ^"タとからなる。 ここでは、 オブジェクトデータは、 図形の形 状が円形で、 図形が画面の上方の中央より少し左側にあることを示している。 以 下、 オブジェクトデータは、 視覚的に分かりやすく示すために、 オブジェクトデ ータが示す図形が画面に表示されるイメージで示す。 また、 画像データは、 ァニ メーシヨンの背景に表示される画像のデータであり、 たとえば、 模様や絵画や写 真などの画像を所定の符号化形式で符号化したデータである。 画像データは、 別 の画像データが含まれるキーフレームが再生されるまで表示される。
キーフレーム 2は、 オブジェクトデータと、 音楽デ^"タとを含む。 このォプジ エタトデータは、 キーフレーム 1に含まれるォブジェクトデータが示す図形と同 じ図形を示すオブジェクトデータであるので、互いに関連付けられる。ここでは、 オブジェクトデータは、 図形が画面の上方の中央より少し左側にあることを示し ている。 また、 音楽データは、 アニメーションの進行とともに音を発生させるた めのデ一タであり、 たとえば、 音楽や効果音をコンピュータで音を発生可能な符 号化形式で符号化したデータである。 音楽データは、 別の音楽データが含まれる キーフレームが再生されるまで同じ音楽を発生させる。
キーフレーム 3、 および、 キーフレーム 4は、 それぞれ、 オブジェクトデータ を含む。 これらのオブジェクトデータは、 キーフレーム 1、 および、 キーフレー ム 2に含まれるオブジェクトデータが示す図形と同じ図形を示すオブジェクトデ ータであるので、 互いに関連付けられる。 すなわち、 キーフレーム 1からキーフ レーム 4に含まれるオブジェクトデータは、 キーフレーム間で互いに関連付けち れている。 このため、 ァ-メーシヨンデータが再生されることにより、 オブジェ クトデータで示される図形が、 キーフレームの経過にしたがい、 図形のァュメ一 シヨンとして表示される。 このようなアニメーション方式をべクトルアニメ一シ ヨン方式という。
ここでは、 キーフレーム 3に含まれるオブジェクトデータは、 図形が画面の中 央より少し下側の中央より少し左側にあることを示している。 また、 キーフレー ム 4に含まれるォブジェクトデータは、 図形が画面の中央より少し左側にあるこ とを示している。 具体的に、 キーフレーム 1からキーフレーム 4が再生されるこ とにより、 円形の図形が、 最初画面上方の中央より少し左側にあり、 しばらく同 じ位置に留まった後、 下方向に動き出し、 中央より少し下まで動いた後、 上方向 に動き、 中央付近まで動くこととなる。
コンテンツデータ 1 Aに含まれる合成スクリプトは、 制御內容として 「他ファ ィルのオブジェクト揷入」 を含み、 パラメータとして 「キ一フレーム 2〜」 を含 む。 制御内容 「他ファイルのオブジェクト挿入」 は、 他のコンテンツデータ 2 A に含まれるァェメーシヨンデータに含まれるオブジェクトデータを、 パラメータ で指定される対象位置に揷入することを示す。 パラメータ 「キーフレーム2〜」 は、 制御内容で示される合成処理の対象位置が、 合成スクリプトを含むコンテン ッデータ 1 Aに含まれるァェメーシヨンデータのキーフレーム 2〜であることを 示す。
図 4 Bは、 コンテンツデータ 2 Aのデータ構造を示す図である。 図 4 Bを参照 して、 コンテンツデータ 2 Aは、 ヘッダ、 および、 キーフレーム 1データ〜キー フレーム 2を含む。
キーフレーム 1、 および、 キーフレ ^~ム 2は、 オブジェクトデータを含む。 こ こでは、 オブジェクトデータは、 図形の形状が正方形で、 図形が画面の中心より 少し下側にあることを示している。 また、 キーフレームに含まれるオブジェクト データは、 キーフレーム 1に含まれるォブジェクトデータが示す図形と同じ図形 を示し、 図形が画面の中心より少し上側にあることを示している。
そして、 コンテンツ合成装置 1 0 0により、 コンテンツデータ 1 A、 および、 コンテンツデータ 2 Aの入力が受付けられ、 コンテンツデータ 1 A、 または、 コ ンテンッデータ 2 Aに合成スクリブトが含まれるか否かが判断される。 コンテン ッデータ 1 Aに合成スクリブトが含まれるので、 その合成スクリブトに基づき、 コンテンツデータ 1 Aに含まれるアニメーションデータがコンテンツデータ 2 A に含まれるァ-メーシヨンデータと合成され、 後述するコンテンツデータ 3 Aが 記憶される。
合成スクリプトは、 合成スクリプトを含むコンテンツデータ 1 Aのキーフレー ム 2からの各キーフレームに、 コンテンツデータ 2 Aの各キーフレームに含まれ るオブジェクトデータを挿入することを記述したものであった。
したがって、 コンテンツ合成装置 1 0 0は、 コンテンツデータ 1 Aのキーフレ ーム 1を、 新たなキーフレーム 1とする。
次に、 コンテンツデータ 2 Aのキーフレーム 1に含まれるオブジェクトデータ を、 コンテンツデータ 1 Aのキーフレーム 2に挿入し、 新たなキーフレーム 2と する。
次に、 コンテンツデータ 2 Aのキーフレーム 2に含まれるオブジェクトデータ を、 コンテンツデータ 1 Aのキーフレーム 3に挿入し、 新たなキーフレーム 3と する。
次に、 コンテンツデータ 1 Aのキーフレーム 4を、 新たなキーフレーム 4とす る。
最後に、 新たなキーフレーム 1〜キーフレーム 4に基づき、 ヘッダを生成し、 ヘッダ、 および、 新たなキーフレーム 1〜キーフレーム 4を含むコンテンツデー タ 3 Aを合成して記憶する。
図 5は、 第 1の実施例における第 1の合成例において合成された後のコンテン ッデータ 3 Aのデータ構造を示す図である。 図 5を参照して、 コンテンツ合成装 置 1 0 0によりコンテンツデータ 1 Aとコンテンツデータ 2 Aとが合成されたコ ンテンッデータ 3 Aは、 ヘッダ、 および、 キーフレーム 1〜キーフレーム 4から なる。
ヘッダは、 合成されたコンテンツデータ 3 Aのキーフレーム 1〜キーフレーム 4に基づき、 生成され、 コンテンツデータ 3 Aに含められる。
キーフレーム 1は、 図 4 Aで説明したコンテンツデータ 1 Aのキーフレーム 1 と同様である。
キーフレーム 2は、 コンテンツデータ 1 Aのキーフレーム 2に、 図 4 Bで説明 したコンテンツデータ 2 Aのキーフレーム 1に含まれるオブジェクトデータが揷 入されたものである。
キーフレーム 3は、 コンテンツデータ 1 Aのキーフレーム 3に、 コンテンツデ ータ 2 Aのキーフレーム 2に含まれるオブジェクトデータが挿入されたものであ る。
キーフレーム 4は、 コンテンツデータ 1 Aのキーフレーム 4と同様である。 図 6 A、 図 6 B、 図 6 C、 および、 図 6 Dは、 第 1の実施例における第 1の合 成例において合成されたコンテンツデータ 3 Aを再生したときに表示されるァ- メーシヨンを説明するための図である。 図 6 A〜図 6 Dは、 順次再生される各キ 一フレームに対応する表示画面図である。 図 6 Aを参照して、 まず、 キーフレー ム 1では、 円形の図形が画面上方の中央より少し左側に表示され、 背景には、 画 像データで示される画像 Aが表示される。 キーフレーム 1とキーフレーム 2との 間では、 1番目のキーフレームで表示された表示画面が継続表示される。
図 6 Bを参照して、 キーフレーム 2では、 さらに、 正方形の図形が画面の中央 より少し下側に表示され、 音楽データで示される音楽 Aが流れ出す。 キーフレー ム 2とキーフレーム 3との間では、 円形の図形が下方向に動き、 正方形の図形が 上方向に動く。
図 6 Cを参照して、 キーフレーム 3では、 円形の図形が画面の中央より少し下 側の中央より少し左側に表示され、 正方形の図形が画面の中央より少し上側 に表示される。 キーフレーム 3とキーフレーム 4との間では、 円形の図形が上方 向に動き、 正方形の図形が徐々に消えていく。 図 6 Dを参照して、 キ一フレーム 4では、 円形の図形が画面の中央の少し左側 で停止し、正方形の図形は完全に消える。なお、図 6 A〜図 6 Dでは示さないが、 コンテンツデータ 3 Aが再生装置で再生されるときは、 各キーフレームに対応す る表示画面間は、 補完されたフレームに対応する表示画面が表示される。
このように、 コンテンツデータ 1 Aに含まれる合成スクリプトにより、 コンテ ンッデータ 2 Aに含まれるオブジェクトデータをコンテンツデータ 1 Aに挿入す る合成処理が制御される。 その結果、 コンテンツデータ 1 A側から他のコンテン ッデータ 2 Aを揷入する合成処理を制御することができる。
(第 1の実施例における第 2の合成例)
ここでは、 コンテンツデータに含まれる合成スクリプトに基づき、 他のコンテ ンッデータに含まれるデータをコンテンツデータに挿入し、 コンテンツデータに 所定のデータを挿入する合成例について説明する。
図 7 A、 および、 図 7 Bは、 第 1の実施例における第 2の合成例において合成 される前のコンテンツデータのデータ構造を示す図である。 図 7 Aは、 合成スク リプトを含むコンテンツデータ 1 Bのデータ構造を示す図である。 図 7 Aを参照 して、 コンテンツデータ 1 Bは、 ヘッダ、 キーフレーム 1〜キーフレーム 4、 お よび、 合成スクリプトを含む。
キーフレーム 1〜キーフレーム 4は、 それぞれ、 オブジェクトデータを含む。 これらのォブジェクトデータは、 図 4 Aで説明したコンテンツデータ 1 Aのキー フレーム 1〜キーフレーム 4に含まれるオブジェクトデータと同様であるので説 明は繰返さない。
コンテンツデータ 1 Bに含まれる合成スクリプトは、第 1の制御内容として「他 ファイルのオブジェクト揷入」 を含み、 第 1のパラメータとして 「キーフレーム 2〜」 を含む。 また、 第 2の制御内容として 「制御データの挿入」 を含み、 第 2 のパラメータとして 「(ジャンプ 4 ) キーフレーム 2」 とを含む。 「他ファイル のオブジェクト揷入」 については、 図 4 Aで説明したので説明は繰返さなレ、。 制 御内容 「制御データの挿入」 は、 括弧内のパラメータで指定される対象データを 括弧外のパラメータで指定される対象位置に揷入することを示す。 パラメータ 「(ジャンプ 4 ) キーフレーム 2」 は、制御内容で示される合成処理の対象デー タが、 制御データ 「ジャンプ 4 j であり、 制御内容で示される合成処理の対象 位置が、 合成スクリプトを含むコンテンツデータ 1 Bに含まれるァ メーション データのキーフレーム 2であることを示す。
制御データとは、 アニメーションデータのキーフレームの再生時に再生装置を 制御するためのデータである。 再生装置は、 コンテンツデータのキーフレームに 制御データが含まれる場合は、キーフレーム再生時に、その制御データに基づき、 キーフレームを再生する。
図 7 Bは、 コンテンツデータ 2 Bのデータ構造を示す図である。 図 7 Bに示す コンテンツデータ 2 Bは、 図 4 Bで説明したコンテンツデータ 2 Aと同様である ので、 説明は繰返さない。
そして、 コンテンツ合成装置 1 0 0により、 コンテンツデータ 1 B、 および、 コンテンツデータ 2 Bの入力が受付けられ、 コンテンツデータ 1 B、 または、 コ ンテンッデータ 2 Bに合成スクリプトが含まれるか否かが判断される。 コンテン ッデータ 1 Aに合成スクリプトが含まれるので、 その合成スクリプトに基づき、 コンテンツデータ 1 Bに含まれるァェメーションデータがコンテンツデ一タ 2 B に含まれるアニメーションデータと合成され、 後述するコンテンツデータ 3 Bが 記憶される。
合成スクリプトは、 合成スクリプトを含むアニメーションデータ 1 Bのキーフ レーム 2からの各キーフレームに、 後述する他のアニメーションデータ 2 Bの各 キーフレームに含まれるオブジェクトデータを挿入することを記述したスクリプ トと、 キーフレーム 4にジャンプすることを示す 「ジャンプ 4」 という制御デ ータをァ-メーシヨンデータ 1 Bのキーフレーム 2に挿入することを記述したも のであった。
したがって、 コンテンツ合成装置 1 0 0は、 コンテンツデータ 1 Bのキーフレ ーム 1を、 新たなキーフレーム 1とする。
次に、コンテンツデータ 2 Bのキーフレーム 1に含まれるォブジェクトデータ、 および、 制御データ 「ジャンプ 4」 を、 コンテンツデータ 1 Bのキーフレーム 2に挿入し、 新たなキーフレーム 2とする。
次に、 コンテンツデータ 2 Bのキーフレーム 2に含まれるオブジェクトデータ を、 コンテンツデータ 1 Bのキーフレーム 3に挿入し、 コンテンツデータ 3 Bの キーフレーム 3とする。
次に、 コンテンツデータ 1 Bのキーフレーム 4を、 新たなキーフレーム 4とす る。
最後に、 新たなキーフレーム 1〜キーフレーム 4に基づき、 ヘッダを生成し、 ヘッダ、 および、 新たなキーフレーム 1〜キーフレーム 4を含むコンテンツデー タ 3 Bを合成して記'慮する。
図 8は、 第 1の実施例における第 2の合成例において合成された後のコンテン ッデータ 3 Bのデータ構造を示す図である。 図 8を参照して、 コンテンツ合成装 置 1 0 0によりコンテンツデータ 1 Bとコンテンツデータ 2 Bとが合成されたコ ンテンッデータ 3 Bは、 ヘッダ、 および、 キーフレーム 1〜キーフレーム 4から なる。 ヘッダについては、 図 5で説明したので説明は繰返さない。
キーフレーム 1は、 図 7 Aで説明したコンテンツデータ 1 Bのキーフレーム 1 と同様である。
キーフレーム 2は、 コンテンツデータ 1 Bのキーフレーム 2に、 図 7 Bで説明 したコンテンツデータ 2 Bのキーフレーム 1に含まれるォブジェクトデータが揷 入され、 制御データ 「ジャンプ 4」 が挿入されたものである。
キーフレーム 3は、 コンテンツデータ 1 Bのキーフレーム 3に、 コンテンツデ ータ 2 Bのキーフレーム 2に含まれるオブジェクトデータが揷入されたものであ る。
キーフレーム 4は、 コンテンツデータ 1 Bのキーフレーム 4と同様である。 図 9 A、 図 9 B、 図 9 C、 および、 図 9 Dは、 第 1の実施例における第 2の合 成例において合成されたコンテンツデータ 3 Bを再生したときに表示されるァェ メーシヨンを説明するための図である。 図 9 A〜図 9 Dは、 順次再生される各キ 一フレームに対応する表示画面図である。 図 9 Aを参照して、 まず、 キーフレー ム 1では、 円形の図形が画面上方の中央より少し左側に表示される。 キーフレー ム 1とキーフレーム 2との間では、 1番目のキーフレームで表示された表示画面 が継続表示される。
図 9 Bを参照して、 キーフレーム 2では、 さらに、 正方形の図形が画面の中央 より少し下側に表示される。 図 9 Cを参照して、 制御データ 「ジャンプ 4」 に したがって、 キーフレーム 3は、 再生の対象から除外される。 キーフレーム 2と キーフレーム 4との間では、 円形の図形が下方向に動き、 正方形の図形が徐々に 消えていく。
図 9 Dを参照して、 キーフレーム 4では、 円形の図形が画面の中心より少し左 側で停止し、 正方形の図形は完全に消える。
このように、 コンテンツデータ 1 Bに含まれる複数のスクリプトを含む合成ス タリプトにより、 コンテンツデータ 2 Bに含まれるオブジェクトデータをコンテ ンッデータ 1 Bと合成する合成処理が制御される。 その結果、 コンテンツデータ 1 B側から他のコンテンツデータ 2 Bを合成する合成処理を制御することができ る。
(第 1の実施例における第 3の合成例)
ここでは、 コンテンツデータに含まれる合成スクリプトに基づき、 他のコンテ ンッデータをコンテンツデ タに挿入する合成例ついて説明する。 , 図 1 0 A、 および、 図 1 0 Bは、 第 1の実施例における第 3の合成例において 合成される前のコンテンツデータのデータ構造を示す図である。 図 1 0 Aは、 合 成スクリプトを含むコンテンツデータ 1 Cのデータ構造を示す図である。 図 1 0 Aを参照して、 コンテンツデータ 1 Cは、 ヘッダ、 キーフレーム 1〜キーフレー ム 2、 および、 合成スクリプトを含む。
キーフレーム 1〜キーフレーム 2は、 それぞれ、 図 7 Aで説明したコンテンツ データ 1 Bのキーフレーム 2〜キーフレーム 3に含まれるオブジェクトデータと 同様であるので説明は繰返さない。
コンテンツデータ 2 Cに含まれる合成スクリプトは、 制御内容として 「キーフ レーム追加」 を含み、 パラメータとして Γキーフレーム 1の前」 を含む。 制御内 容 「キーフレーム追加」 は、 他のコンテンツデータ 2 Cに含まれるァュメーショ ンデータの各キーフレームを、 パラメータで指定される対象位置に挿入すること を示す。 パラメータ 「キーフレーム 1の前」 は、 制御内容で示される合成処理の 対象位置が、 合成スクリプトを含むコンテンツデータ 1 Cに含まれるアニメーシ ョンデータのキーフレーム 1の前であることを示す。 図 1 0 Bは、 コンテンツデータ 2 Cのデータ構造を示す図である。 図 1 0 Bを 参照して、 コンテンツデータ 2 Cは、 図 7 Bで説明したコンテンツデータ 2 Bと 同様であるので、 説明は繰返さない。
そして、 コンテンツ合成装置 1 0 0により、 コンテンツデータ 1 C、 および、 コンテンツデータ 2 Cの入力が受付けられ、 コンテンツデータ 1 C、 または、 コ ンテンッデータ 2 Cに合成スクリプトが含まれるか否かが判断される。 コンテン ッデータ 1 Cに合成スクリプトが含まれるので、 その合成スクリプトに基づき、 コンテンツデータ 1 Cに含まれるアニメーションデータがコンテンツデータ 2 C に含まれるアニメーションデータと合成され、 後述するコンテンツデータ 3 Cが 記憶される。
合成スクリプトは、 コンテンツデータ 2 Cに含まれるキーフレームを、 合成ス クリプトを含むコンテンツデータ 1 Cのキーフレーム 1の前に追加することを記 述したものであった。
したがって、 コンテンツ合成装置 1 0 0は、 コンテンツデータ 2 Cのキーフレ ーム 1およびキーフレーム 2を、 コンテンツデータ 1 Cのキーフレーム 1の前に 追加し、 新たなキーフレーム 1およびキーフレーム 2とする。
次に、 コンテンツデータ 1 Cのキーフレーム 1およびキーフレーム 2を、 コン テンッデータ 3 Cのキーフレーム 3およびキーフレーム 4とする。
最後に、 新たなキーフレーム 1〜キーフレーム 4に基づき、 ヘッダを生成し、 ヘッダ、 および、 新たなキーフレーム 1〜キーフレーム 4を含むコンテンツデー タ 3 Cを合成して記 '隐する。
図 1 1は、 第 1の実施例における第 3の合成例において合成された後のコンテ ンッデータ 3 Cのデータ構造を示す図である。 図 1 1を参照して、 コンテンツ合 成装置 1 0 0によりコンテンツデータ 1 Cとコンテンツデータ 2 Cとが合成され たコンテンツデータ 3 Cは、 ヘッダ、 および、 キーフレーム 1〜キーフレーム 4 からなる。
キーフレーム 1、 および、 キーフレーム 2は、 それぞれ、 図 1 0 Bで説明した コンテンツデータ 2 Cのキーフレーム 1、および、キーフレーム 2と同様である。 キーフレーム 3、 および、 キーフレーム 4は、 それぞれ、 図 1 O Aで説明した コンテンツデータ 1 Cのキーフレーム 1、および、キーフレーム 2と同様である。 このように、 コンテンツデータ 1 Cに含まれる合成スクリプトにより、 コンテ ンッデータ 2 Cに含まれるキーフレームをコンテンツデータ 1 Cの所定の箇所に 追加する合成処理が制御される。 その結果、 コンテンツデータ 1 C側から他のコ ンテンッデータ 2 Cを追加する合成処理を制御することができる。
(第 1の実施例における第 4の合成例)
ここでは、 コンテンツデータに含まれる合成スクリプトに基づき、 コンテンツ データに含まれる所定のデータをほかのコンテンッデータに変更する合成例つい て説明する。
図 1 2 A、 および、 図 1 2 Bは、 第 1の実施例における第 4の合成例において 合成される前のコンテンツデータのデータ構造を示す図である。 図 1 2 Aは、 合 成スクリプトを含むコンテンツデータ 1 Eのデータ構造を示す図である。 図 1 2 Aを参照して、 コンテンツデータ 1 Eは、 ヘッダ、 キーフレーム 1〜キーフレー ム 2、 および、 合成スクリプトを含む。
キーフレーム 1、 および、 キーフレーム 2は、 顔を表す図形を示すオブジェク トデータ Aと、 吹出しを表す図形を示すオブジェクトデータ Bと、 文字データ A とを含む。
キーフレーム 1に含まれるオブジェクトデータ Aは、 顔を表す図形が画面の左 下にあることを示している。 また、 キーフレーム 2に含まれるオブジェクトデー タ Aは、 顔を表す図形が画面の右下にあることを示している。
キーフレーム 1に含まれるォブジェクトデータ Bは、 吹出しを表す図形が画面 の右上にあることを示している。 また、 キーフレーム 2に含まれるオブジェクト データ Bは、 吹出しを表す図形が画面の上方にあることを示している。
キーフレーム 1、 および、 キーフレーム 2に含まれる文字データ Aは、 それぞ れ、 文字データ Aがオブジェクトデータ Bの内部に位置することを示している。 コンテンツデータ 1 Eに含まれる合成スクリプトは、 制御内容として 「他ファ ィルのデータに変更」 を含み、 パラメータとして 「文字データ A」 を含む。 制御 内容 「他ファイルのデータに変更」 は、 パラメータで指定される対象データを他 のコンテンツデータ 2 Eに含まれるデータに変更することを示す。パラメータ「文 字データ A」 は、 制御内容で示される合成処理の対象データが、 合成スクリプト を含むコンテンツデータ 1 Eに含まれるアニメーションデータのキーフレームに 含まれる文字データ Aであることを示す。
図 1 2 Bは、 変更するコンテンツデータ 2 Eを示す図である。 図 1 2 Bを参照 して、 コンテンツデータ 2 Eは、 "H e 1 1 o, W o r 1 d という文字列から なる文字データを含む。
そして、 コンテンツ合成装置 1 0 0により、 コンテンツデータ 1 E、 および、 コンテンツデータ 2 Eの入力が受付けられ、 コンテンツデータ 1 E、 または、 コ ンテンッデータ 2 Eに合成スクリプトが含まれるか否かが判断される。 コンテン ッデータ 1 Eに合成スクリプトが含まれるので、 その合成スクリプトに基づき、 コンテンツデータ 1 Eがコンテンツデータ 2 Eと合成され、 後述するコンテンツ データ 3 Eが記憶される。
合成スクリプトは、 コンテンツデータ 1おのキーフレームに含まれる所定のデ ータを、 コンテンツデータ 2 Eに含まれるデータに変更することを記述したもの であった。
したがって、 コンテンツ合成装置 1 0 0は、 コンテンツデータ 1 Eに含まれる 合成スクリブトに基づき、 コンテンツデータ 1 Eのキーフレーム 1およびキーフ レーム 2に含まれる文字データ Aを、 それぞれ、 コンテンツデータ 2 Eに含まれ る "H e 1 1 o , W o r 1 d ! " という文字列からなる文字データに変更し、 新 たなキーフレーム 1およびキーフレーム 2とする。
最後に、 新たなキーフレーム 1〜キーフレーム 2に基づき、 ヘッダを生成し、 ヘッダ、 および、 新たなキーフレーム 1〜キーフレーム 2を含むコンテンツデー タ 3 Eを合成して記憶する。
図 1 3は、 第 1の実施例における第 4の合成例において合成された後のコンテ ンッデータ 3 Eのデータ構造を示す図である。 図 1 3を参照して、 コンテンツ合 成装置 1 0 0によりコンテンツデータ 1 Eとォブジェクトデータ 2 Eとが合成さ れたコンテンツデータ 3 Eは、 ヘッダ、 および、 キーフレーム 1〜キーフレーム 2力 らなる。
キーフレーム 1、 および、 キーフレーム 2は、 それぞれ、 図 1 2 Aで説明した コンテンツデータ 1 Eのキーフレーム 1、 およぴ、 キーフレーム 2の文字データ Aが、 図 1 2 Bで説明したコンテンツデータ 2 Eに含まれる文字データに変更さ れたものである。
このように、 コンテンツデータ 1 Eに含まれる合成スクリプトにより、 コンテ ンッデータ 1 Eに含まれる所定のデータを他のデータに変更する合成処理を制御 することができる。
以上説明したように、 第 1の実施例におけるコンテンツ合成装置 1 0 0によれ ば、 コンテンッデータの合成について記述した合成スタリブトを含む第 1のコン テンッデータ、 および、 第 2のコンテンツデータの入力が受付けられ、 入力され た第 1のコンテンツデータに含まれる合成スクリプトに基づき、 入力された第 1 のコンテンッデ^ _タが入力された第 2のコンテンッデータと合成される。 このた め、 第 1のコンテンツデータに含まれる合成スクリプトにより、 合成処理が制御 される。 また、 第 1のコンテンツデータに合成スクリプトが含まれるので、 第 1 のコンテンツデータを第 2のコンテンツデータと合成するときに、 合成スクリブ トを新たに用意する必要がない。 その結果、 コンテンツデータ側から合成処理を 制御することができるとともに、 コンテンッデータの合成に必要な合成スクリプ トを新たに用意する必要がなくなる。
なお、 第 1の実施例においては、 コンテンツ合成装置 1 0 0で行なわれる処理 について説明したが、 図 3に示した処理をコンピュータで実行するコンテンツ合 成方法、 図 3に示した処理をコンピュータに実行させるためのコンテンツ合成プ ログラム、 コンテンツ合成プログラムを記録したコンピュータ読取可能な記録媒 体、 図 4 A, 図 7 A, 図 1 0 A, 図 1 2 Aに示したコンテンツデ タのデータ構 造、 および、 そのデータ構造のコンテンツデータを記録したコンピュータ読取可 能な記録媒体として発明を捉えることができる。
[第 2の実施例]
第 2の実施例においては、 第 1の実施例において説明した合成スタリブトに複 数の属性のそれぞれに対応するスクリブトを含む場合について説明する。
図 1 4は、 第 2の実施例におけるコンテンツ合成装置 1 0 O Aの機能の概略を 示す図である。 図 1 4を参照して、 コンテンツ合成装置 1 0 O Aの制御部 1 1 0 Aは、入力受付部 1 1 1と、合成処理部 1 1 2 Aと、属个生判別部 1 1 3とを含む。 コンテンッ合成装置 1 0 0の記憶部 1 3 0は、 複数のコンテンッデータを記憶す る。 コンテンツデータは、 ァュメーシヨンデータと合成スクリプトとを含むコン テンッデータと、 アニメーションデータを含むコンテンツデータとを含む。 入力受付部 1 1 1については、 第 1の実施例における図 2で説明したので説明 は繰返さない。
合成処理部 1 1 2 Aは、 コンテンツデータ 1 0に含まれる合成スクリプトに、 コンテンツデータ 2 0に含まれるアニメーションデータの複数の属性のそれぞれ に対応するスクリプトが含まれる場合は、 属性判定部 1 1 3に、 コンテンツデー タ 2 0を送る。
属性判別部 1 1 3は、 合成処理部 1 1 2 Aから送られたコンテンツデータ 2 0 に含まれるアニメーションデータの属性を判別し、 判別結果を合成処理部 1 1 2 Aに返す。 ァュメーシヨンデータの属性とは、 ァェメーシヨンデータに含まれる オブジェクトデータの数、 キーフレームの数、 画像データの数、 音楽データの数 などのアニメ一ションデータの特徴を示す指標である。
具体的には、 たとえば、 属性判別部 1 1 3は、 コンテンツデータ 2 0に含まれ るオブジェクトデータの数が Wで、 キーフレームの数が Xで、 画像データの数が Yで、 音楽データの数が Zである場合は、 WX Y Zという数列をコンテンツデー タ 2 0に含まれるァェメーションデータの属性として、 合成処理部 1 1 2 Aに返 す。 なお、 ァュメーシヨンデータの属性は、 これに限定されず、 たとえば、 ァニ メーションデータの内容によって指定される番号であってもよいし、 アニメーシ ヨンデータの著作者の情報であってもよいし、 アニメーションデータに対して一 意に割付けられる番号であってもよいし、 これらを複数組合わせたものであって あよい。
合成処理部 1 1 2 Aは、 属性判別部 1 1 3で判別された判別結果で示されるコ ンテンッデータ 2 0に含まれるアニメーションデータの属性に対応したスクリブ トに基づき、 入力受付部 1 1 1により入力されたコンテンツデータ 1 0に含まれ るァェメーションデータをコンテンツデータ 2 0に含まれるアニメーションデー タと合成する。 そして、 合成処理部 1 1 2 Aは、 合成されたコンテンツデータ 3 0を記憶部 1 3 0に記憶させる。 なお、 合成処理部 1 1 2 Aは、 合成されたコン テンッデータ 3 0を、 直接、 通信部 1 6 0によりネットワーク 5 0 0を介して他 の P C等に送信してもよいし、 外部記憶装置 1 7 0により記録媒体 1 7 1に記録 してもよい。
図 1 5は、 第 2の実施例におけるコンテンツ合成装置 1 0 O Aで実行されるデ ータ合成処理の流れを示すフローチャートである。 データ合成処理は、 図 3で説 明したコンテンツ合成処理のステップ S 1 3で実行される処理である。 図 1 5を 参照して、 まず、 ステップ S 2 1で、 属性判別部 1 1 3により、 ステップ S 1 1 で入力されたコンテンツデータ 2 0に含まれるァ-メーションデータの属性を判 別する属性判別処理が実行される。属性判別処理については、図 1 6で後述する。 次に、 ステップ S 2 2では、 合成処理部 1 1 2 Aにより、 ステップ S 2 1で判 別されたコンテンツデータ 2 0に含まれるアニメーションデータの属性に対応し たスクリプトが、 コンテンツデータ 1 0の合成スクリプトに含まれるか否かが判 定される。 そして、 コンテンツデータ 2 0に含まれるアニメーションデータの属 性に対応したスクリプトが、 コンテンツデータ 1 0の合成スクリプトに含まれる 場合 (ステップ S 2 2で Y e s ) は、 ステップ S 2 3で、 合成処理部 1 1 2 Aに より、 ステップ S 2 1で判別されたコンテンツデータ 2 0に含まれるアニメーシ ヨンデータの属性に対応したスクリプトに基づき、 ステップ S 1 1で入力された コンテンツデータ 1 0が、 ステップ S 1 1で入力されたコンテンツデータ 2 0と 合成される合成処理が実行され、 コンテンツ合成処理に戻る。
一方、 コンテンツデータ 2 0に含まれるアニメーションデータの属性に対応し たスクリプトが、 コンテンツデータ 1 0の合成スクリプトに含まれない場合 (ス テツプ S 2 2で N o ) は、 コンテンツ合成処理に戻る。
図 1 6は、 第 2の実施例におけるコンテンツ合成装置 1 0 0 Aで実行される属 性判別処理の流れを示すフ口一チヤ一トである。 属性判別処理は、 図 1 5で説明 したデータ合成処理のステップ S 2 1で属性判別部 1 1 3により実行される処理 である。 図 1 6を参照して、 まず、 ステップ S 3 1で、 コンテンツデータ 2 0の キーフレームに含まれるオブジェク ト数 wが判定される。 そして、 ステップ S 3
2で、 コンテンツデータ 2 0に含まれるキーフレーム数 Xが判定される。 また、 ステップ S 3 3で、 コンテンツデータ 2 0のキーフレームに含まれる画 像データ数 Yが判定される。 さらに、 ステップ S 3 4で、 コンテンツデータ 2 0 のキーフレームに含まれる音楽データ数 Zが判定される。
最後に、 ステップ S 3 5で、 ステップ S 3 1〜ステップ S 3 4での判定に基づ き、 WX Y Zという数列が、 コンテンツデータ 2 0に含まれるキーフレームで定 義されるアニメーションデータの属性として、 データ合成処理に返される。
(第 2の実施例における第 1の合成例)
ここでは、 コンテンツデータの合成スクリプトに含まれる複数の属性に対応す るスクリブトに基づき、 コンテンツデータを他のコンテンツデータと合成する合 成例ついて説明する。
図 1 7 A、 図 1 7 B、 および、 図 1 7 Cは、 第 2の実施例における第 1の合成 例において合成される前のコンテンツデータのデータ構造を示す図である。 図 1 7 Aは、 合成スクリプトを含むコンテンツデータ 1 Fのデータ構造を示す図であ る。 図 1 7 Aを参照して、 コンテンツデータ 1 Fは、 ヘッダ、 キーフレーム 1〜 キーフレーム 3、 および、 合成スクリプトを含む。
キーフレーム 1〜キーフレーム 3は、 それぞれ、 図 7で説明したコンテンツデ ータ 1 Bのキーフレーム 2〜キーフレーム 4に含まれるオブジェクトデータと同 様であるので説明は繰返さない。
. コンテンツデータ 1 Fに含まれる合成スクリプトは、 属性 「0 1 0 3 0 0」 に 対応する合成スクリプトと、 属性 「0 1 0 2 0 0」 に対応する合成スクリプトと を含む。属性「0 1 0 3 0 0」 に対応する合成スクリプトは、制御内容として「他 ファイルのオブジェクト揷入」 を含み、 パラメータとして 「キーフレーム 1〜」 を含む。 また、 属性 「0 1 0 2 0 0」 のァェメーションデータに対応する合成ス タリブトは、 制御内容として 「他ファイルのオブジェクト揷入」 を含み、 パラメ ータとして 「キーフレーム 2〜」 を含む。
制御内容「他ファイルのオブジェクト揷入」、パラメータ「キーフレーム 2〜」、 および、 パラメ一タ 「キーフレーム 1 ~」 については、 図 4 Aで説明したので説 明は繰返さない。
属性 「0 1 0 3 0 0」 は、 アニメーションデータに含まれるオブジェク トデー タの数 Wが 01で、 キーフレームの数 Xが 03で、 画像データの数 Yが 0で、 音 楽データの数 Zが 0であることを示す。 同様に、 属性 「010200」 は、 ァェ メーシヨンデータに含まれるオブジェクトデータ、 画像データ、 および、 音楽デ ータの数が属' 1生 「010300」 と同一で、 キーフレームの数 Xが 02であるこ とを示す。
図 17Bは、 コンテンツデータ 2 F Aのデータ構造を示す図である。 図 1 7B に示すコンテンツデータ 2 FAは、 図 4 Bで説明したコンテンツデータ 2 Aと同 様であるので、 説明は繰返さない。 なお、 コンテンツデータ 2 FAに含まれるァ 二メーシヨンデータに含まれるオブジェクトデータの数 Wが 01で、 キーフレー ムの数 Xが 02で、画像データの数 Yが 0で、音楽データの数 Zが 0であるので、 コンテンツデータ 2 F Aに含まれるアニメーションデータの属性は、「01020 0」 である。
図 17Cは、 コンテンツデータ 2 FBのデータ構造を示す図である。 図 17C を参照して、 コンテンツデータ 2 FBは、 ヘッダ、 および、 キーフレーム 1〜キ 一フレーム 3を含む。
キーフレーム 1、 および、 キーフレーム 2は、 図 4 Bで説明したコンテンツデ ータ 2 Aのキーフレーム 1、 および、 キーフレーム 2と同様である。
キーフレーム 3は、 キーフレーム 1、 および、 キーフレーム 2に含まれるォブ ジ工クトデータが示す図形と同じ図形を示し、 その図形が画面の下方の中央にあ ることを示すオブジェク トデータを含む。
なお、 コンテンツデータ 2 FBに含まれるアニメーションデータに含まれるォ ブジェクトデータの数 Wが 01で、 キーフレームの数 Xが 03で、 画像データの 数 Yが 0で、 音楽データの数 Zが 0であるので、 コンテンツデータ 2 FAに含ま れるァェメーシヨンデータの属性は、 「010300」 である。
まず、 コンテンツ合成装置 10 OAに、 コンテンツデータ 1 Fと、 コンテンツ データ 2 FAが入力される場合について説明する。 この場合、 コンテンツ合成装 置 10 OAにより、 コンテンツデータ 1 F、 または、 コンテンツデータ 2 F Aに 合成スクリプトが含まれるか否かが判断される。 合成スクリプトがコンテンツデ ータ 1 Fに含まれるので、 次に、 コンテンツデータ 2 FAに含まれるアニメーシ ョンデータの属性が判断される。 コンテンツデータ 2 F Aに含まれるァ-メーシ ョンデータの属性が 「0 1 0 2 0 0」 であるので、 属性 「0 1 0 2 0 0」 に対応 するスクリプトに基づき、 コンテンツデータ 1 Fに含まれるァェメーシヨンデー タがコンテンッデータ 2 F Aと合成され、新たなコンテンッデータが記憶される。 次に、 コンテンツ合成装置 1 0 O Aに、 コンテンツデータ 1 Fと、 コンテンツ データ 2 F Bが入力される場合について説明する。 この場合、 コンテンツ合成装 置 1 0 O Aにより、 コンテンツデータ 1 F、 または、 コンテンツデータ 2 F Bに 合成スクリプトが含まれるか否かが判断される。 合成スクリブトがコンテンツデ ータ 1 Fに含まれるので、 次に、 コンテンツデータ 2 F Bに含まれるアニメーシ ヨンデータの属性が判断される。 コンテンツデータ 2 F Bに含まれるァ-メーシ ョンデータの属性が 「0 1 0 3 0 0」 であるので、 属性 「0 1 0 3 0 0」 に対応 するスクリブトに基づき、 コンテンツデータ 1 Fに含まれるアニメーションデー タがコンテンツデータ 2 F Bと合成され、新たなコンテンツデータが記憶される。 合成スクリプトは、 属性 「0 1 0 3 0 0」 に対応するスクリプトと属性 「0 1 0 2 0 0」 に対応するスクリプトとを含むものであった。 属性 「0 1 0 3 0 0」 に対応するスクリプトは、 合成スクリプトを含むコンテンツデータ 1 Fに含まれ るアニメーションデータのキーフレーム 1からの各キーフレームに、 属性 「0 1 0 3 0 0」 のアニメーションデータを含むコンテンツデータ 2 F Aに含まれるァ 二メーシヨンデータの各キーフレームに含まれるォブジェクトデータを挿入する ことを記述したものであった。
また、 属性 「0 1 0 2 0 0」 に対応するスクリプトは、 合成スタリブトを含む コンテンツデータ 1 Fに含まれるアニメーションデータのキーフレーム 2からの 各キーフレームに、 属性 「0 1 0 2 0 0」 のアニメーションデータを含むコンテ ンッデータ 2 F Bに含まれるアニメーションデータの各キーフレームに含まれる オブジェクトデータを挿入することを記述したものであった。
したがって、 コンテンツデータ 1 Fとコンテンツデータ 2 F Aとが入力された 場合、コンテンツ合成装置 1 0 0は、コンテンツデータ 1 Fのキーフレーム 1を、 新たなキーフレーム 1とする。
次に、 コンテンツデータ 2 F Aのキーフレーム 1に含まれるオブジェクトデー JP2004/000561 タを、 コンテンツデータ 1 Fのキーフレーム 2に挿入し、 新たなキーフレーム 2 とする。
次に、 コンテンツデータ 2 F Aのキーフレーム 2に含まれるオブジェクトデー タを、 コンテンツデータ 1 Fのキーフレーム 3に揷入され、 新たなキーフレーム 3とする。
最後に、 新たなキーフレーム 1〜キーフレーム 3に基づき、 ヘッダが生成し、 ヘッダ、 および、 新たなキーフレーム 1〜キーフレーム 3を含むコンテンツデー タを合成して記憶する。
また、 コンテンツデータ 1 Fとコンテンツデータ 2 FBとが入力された場合、 コンテンツ合成装置 100は、 コンテンツデータ 2 FBのキーフレーム 1に含ま れるォブジェクトデータを、 コンテンツデータ 1 Fのキーフレーム 1に揷入し、 新たなキーフレーム 1とする。
次に、 コンテンツデータ 2 FBのキーフレーム 2に含まれるォブジェクトデー タを、 コンテンツデータ 1 Fのキーフレーム 2に挿入し、 新たなキーフレーム 2 とする。
次に、 コンテンツデータ 2 F Bのキーフレーム 3に含まれるオブジェクトデー タを、 コンテンツデータ 1 Fのキーフレーム 3に揷入し、 新たなキーフレーム 3 とする。
最後に、 新たなキーフレーム 1〜キーフレーム 3に基づき、 ヘッダを生成し、 ヘッダ、 および、 新たなキーフレーム 1〜キーフレーム 3を含むコンテンツデー タを合成して記憶する。
図 18A、 図 18B、 図 18C、 図 18D、 図 18E、 および、 図 18Fは、 第 2の実施例における第 1の合成例において合成されたコンテンッデータを再生 したときに表示さ るアニメーションを説明するための図である。 図 18 A〜図 18Cは、 コンテンツデータ 1 Fが、 属性が 「010200」 であるアニメーシ ョンデータを含むコンテンツデータ 2 FAと合成されたコンテンツデータを再生 したときに順次再生される各キーフレームに対応する表示画面図である。
図 18 Aでは、まず、円形の図形が画面上方の中央より少し左側に表示される。 図 18Aと図 18 Bとの間では、 円形の図形が下方向に動く。 図 18Bでは、 円 形の図形が画面の中央より少し下側の中央より少し左側に表示され、 正方形の図 形が画面の中央より少し下側に表示される。 図 1 8 Bと図 1 8 Cとの間では、 円 形の図形が上方向に動き、 正方形の図形が円形の図形より速い速度で上方向に動 く。 図 1 8 Cでは、 円形の図形が画面の中央の少し左側で停止し、 正方形の図形 が画面の中央の少し上側で停止する。
図 1 8 D〜図 1 8 Fは、 コンテンツデータ 1 Fが、 属性が 「0 1 0 3 0 0」 で あるアニメーションデータを含むコンテンツデータ 2 F Bと合成されたコンテン ッデータを再生したときに順次再生される各キーフレームに対応する表示画面図 である。
図 1 8 Dでは、 まず、 円形の図形が画面上方の中央より少し左側に表示され、 正方形の図形が画面の中央より少し下側に表示される。 図 1 8 Dと図 1 8 Eとの 間では、 円形の図形が下方向に動き、 正方形の図形が上方向に動く。 図 1 8 Eで は、 円形の図形が画面の中央より少し下側の中央より少し左側に表示され、 正方 形の図形が画面の中央の少し上側に表示される。図 1 8 Eと図 1 8 Fとの間では、 円形の図形が上方向に動き、 正方形の図形が下方向に動く。 図 1 8 Fでは、 円形 の図形が画面の中央の少し左側で停止し、 正方形の図形が画面の下方の中央で停 止する。
このように、 コンテンツデータ 1 Fに含まれる合成スクリプトに含まれる判別 された属性に対応したスクリプトに基づき、 コンテンツデータ 1 Fが、 他のコン テンッデータと合成される合成処理が制御される。 その結果、 コンテンツデータ 側から合成処理を制御することができるとともに、 コンテンッデータの属' I"生に応 じた合成処理をすることができる。
なお、 第 2の実施例においては、 コンテンツデータの属性を、 コンテンツデー タに含まれるキーフレームで定義されるアニメーションデータの属性として説明 したが、 これに限定されず、 そのコンテンツデータの特徴を示す指標であれば他 のものであってもよい。
以上説明したように、 第 2の実施例におけるコンテンツ合成装置 1 0 O Aによ れば、 コンテンッデータの合成について記述した合成スタリブトを含む第 1のコ ンテンッデータ、 および、 第 2のコンテンツデータの入力が受付けられ、 入力さ れた第 2のコンテンツデータの属性が判別され、 入力された第 1のコンテンッデ ータに含まれる合成スタリブトに含まれる判別された属性に対応したスクリプト に基づき、 第 1のコンテンツデータが第 2のコンテンツデータと合成される。 こ のため、 第 2のコンテンツデータの属性に対応するスクリプトにより、 合成処理 が制御される。 その結果、 コンテンツデータ側から合成処理を制御することがで きるとともに、 コンテンッデータの属个生に応じた合成処理をすることができる。 なお、 第 2の実施例においては、 コンテンツ合成装置 1 0 O Aで行なわれる処 理について説明したが、 図 1 5, 図 1 6に示した処理をコンピュータで実行する コンテンツ合成方法、 図 1 5 , 図 1 6に示した処理をコンピュータに実行させる ためのコンテンッ合成プログラム、 コンテンッ合成プログラムを記録したコンビ ユータ読取可能な記録媒体、 図 1 7 Aに示したコンテンツデータのデータ構造、 および、 そのデータ構造のコンテンッデータを記録したコンピュータ読取可能な 記録媒体として発明を捉えることができる。
[第 3の実施例]
第 3の実施例においては、 第 1の実施例において説明した合成スクリプトに、 コンテンッ合成装置 1 0 0 Bにより合成される時刻に応じたスクリプトを含む場 合について説明する。
図 1 9は、 第 3の実施例におけるコンテンツ合成装置 1 0 O Bの機能の概略を 示す図である。 図 1 9を参照して、 コンテンツ合成装置 1 0 O Bの制御部 1 1 0 Bは、入力受付部 1 1 1と、合成処理部 1 1 2 Bと、時刻取得部 1 1 4とを含む。 コンテンッ合成装置 1 0 0 Bの記憶部 1 3 0は、 複数のコンテンッデータを記憶 する。 コンテンツデータは、 アニメーションデータと合成スクリプトとを含むコ ンテンッデータと、 アニメーションデータを含むコンテンツデータとを含む。 入 力受付部 1 1 1についは、 第 1の実施例における図 2で説明したので説明は繰返 さない。
合成処理部 1 1 2 Bは、 コンテンツデータ 1 0に含まれる合成スクリブトに、 コンテンツデータが合成される時刻に応じたスクリプトが含まれる場合は、 時刻 取得部 1 1 4に時刻の取得を指示する。
時刻取得部 1 1 4は、 合成処理部 1 1 2 Bからの指示に応じて、 現在時刻を取 得し、 合成処理部 1 12 Bに送る。 現在時刻の取得は、 たとえば、 コンテンツ合 成装置 100Bの計時機能などによって実現されるが、 他の方法により実現され てもよい。
合成処理部 1 12Bは、 コンテンツデータ 10に含まれる合成スクリプトの時 刻取得部 114で取得された時刻に応じたスクリプトに基づき、 入力受付部 1 1 1により入力されたコンテンツデータ 10を入力受付部 1 1 1により入力された コンテンツデータ 20と合成する。 そして、 合成処理部 1 12Bは、 合成された コンテンツデータ 30を記憶部 130に記憶させる。 なお、 合成処理部 1 12 B は、 合成されたコンテンツデータ 30を、 直接、 通信部 160によりネットヮー ク 500を介して他の PC等に送信してもよいし、 外部記憶装置 1 70により記 録媒体 171に記録してもよい。
図 20は、 第 3の実施例におけるコンテンツ合成装置 1 O OBで実行されるデ ータ合成処理の流れを示すフローチャートである。 データ合成処理は、 図 3で説 明したコンテンツ合成処理のステップ S 13で実行される処理である。 図 20を 参照して、 まず、 ステップ S41で、 合成スクリプトに時刻に応じたスクリプト が含まれるか否かが判断される。 合成スクリブトの時刻に応じたスクリプトが含 まれる場合 (ステップ S 41で Ye s) は、 ステップ S 42で、 時刻取得部 1 1 4により、現在時刻が取得され、ステップ S 43で、合成処理部 1 12 Bにより、 ステップ S 42で取得された現在時刻に応じたスクリプトに基づき、 ステップ S 1 1で入力されたコンテンツデータ 10が、 ステップ S 1 1で入力されたコンテ ンッデータ 20と合成される合成処理が実行され、 コンテンツ合成処理に戻る。
—方、 合成スクリプトに時刻に応じたスクリプトが含まれない場合 (ステップ S 41で No) は、 コンテンツ合成処理に戻る。
(第 3の実施例における第 1の合成例)
図 21A、 および、 図 21 Bは、 第 3の実施例における第 1の合成例において 合成される前のコンテンツデータのデータ構造を示す図である。 図 21Aは、 合 成スクリプトを含むコンテンツデータ 1 Iのデータ構造を示す図である。 図 21 Aを参照して、 コンテンツデータ 1 Iは、 ヘッダ、 キーフレーム 1〜キーフレー ム 3、 および、 合成スクリプトを含む。 キーフレーム 1〜キーフレーム 3は、 図 1 7 Aで説明したコンテンツデータ 1 Fのキーフレーム 1〜キーフレーム 3と同様であるので説明は繰返さない。
コンテンツデータ 1 Iに含まれる合成スクリプトは、 時刻 「午前」 に対応する 合成スクリプトと、 時刻 「午後」 に対応する合成スクリプトを含む。 時刻 「午前」 に対応する合成スクリブトは、制御内容として「他ファイルのオブジェクト揷入」 を含み、 パラメータとして 「キーフレーム 1〜」 を含む。 また、 時刻 「午後」 に 対応する合成スクリプトは、 制御內容として 「他ファイルのオブジェクト揷入」 を含み、 パラメータとして 「キーフレーム 2〜」 を含む。 制御内容 「他ファイル のォブジェクト揷入」、パラメータ 「キーフレーム 1〜」、および、パラメータ 「キ 一フレーム 2〜」 については、 図 4 Aで説明したので説明は繰返さない。
図 2 1 Bは、 コンテンツデータ 2 Iのデータ構造を示す図である。 図 2 1 Bに 示すコンテンツデータ 2 Iは、 図 4 Bで説明したコンテンツデータ 2 Aと同様で あるので、 説明は繰返さない。
まず、 コンテンッ合成装置 1 0 0 Bで、 コンテンツデータ 1 Iと、 コンテンツ データ 2 Iとが合成される時刻が午前である場合について説明する。 この場合、 コンテンツ合成装置 1 0 O Bにより、 コンテンツデータ I I、 および、 コンテン ッデータ 2 Iの入力が受付けられ、 合成スクリプトがコンテンツデータ 1 Iに含 まれ、 合成される時刻が午前であるので、 午前に対応するスクリプトに基づき、 コンテンツデータ 1 Iのキーフレーム 1からの各キーフレームに、 コンテンツデ ータ 2 Iの各キーフレームに含まれるオブジェクトデータが揷入され、 新たなコ ンテンッデータが記憶される。
次に、 コンテンツ合成装置 1 0 0 Bで、 コンテンツデータ I Iと、 コンテンツ データ 2 Iとが合成される時刻が午後である場合について説明する。 この場合、 コンテンツ合成装置 1 0 0 Bにより、 コンテンツデータ I I、 および、 コンテン ッデータ 2 I'の入力が受付けられ、 合成スクリブトがコンテンツデータ 1 Iに含 まれ、 合成される時刻が午後であるので、 午後に対応するスクリプトに基づき、 コンテンツデータ 1 Iのキーフレーム 2からの各キーフレームに、 コンテンツデ ータ 2 Iの各キーフレームに含まれるオブジェクトデータが揷入され、 新たなコ ンテンッデータが記憶される。 合成スクリプトは、 午前と午後とに対応するスクリプトを含むものであった。 午前に対応するスクリプトは、 合成スクリプトを含むコンテンツデータ 1 Iのキ 一フレーム 1からの各キーフレームに、 コンテンツデータ 2 Iの各キーフレーム に含まれるオブジェクトデータを揷入することを記述したスクリプトであった。 午後に対応するスクリプトは、 合成スクリプトを含むコンテンツデータ 1 Iのキ 一フレーム 2からの各キーフレームに、 コンテンツデータ 2 Iの各キーフレーム に含まれるオブジェクトデータを挿入することを記述したスクリプトであった。 したがって、 コンテンツ合成装置 1 0 O Bは、 合成される時刻が午前である場 合は、コンテンツデータ 2 Iのキーフレーム 1に含まれるオブジェクトデータを、 コンテンツデータ 1 Iのキーフレーム 1に揷入し、新たなキーフレーム 1とする。 次に、 コンテンツデータ 2 Iのキーフレーム 2に含まれるオブジェクトデータ を、 コンテンツデータ 1 Iのキーフレーム 2に揷入し、 新たなコンテンツデータ のキーフレーム 2とする。
次に、 コンテンツデータ 1 Iのキーフレーム 3を、 新たなコンテンツデータの キーフレーム 3とする。
最後に、 新たなキーフレーム 1〜キーフレーム 3に基づき、 ヘッダを生成し、 ヘッダ、 および、 新たなキーフレーム 1〜キーフレーム 3を含むコンテンツデー タを合成して記憶する。
また、 コンテンツ合成装置 1 0 0 Bは、 合成される時刻が午後である場合は、 コンテンツデータ 1 Iのキーフレーム 1を、 新たなキーフレーム 1とする。
次に、 コンテンツデータ 2 Iのキーフレーム 1に含まれるォブジェクトデータ を、 コンテンツデータ 1 Iのキーフレーム 2に挿入し、 新たなキーフレーム 2と する。
次に、 コンテンツデータ 2 Iのキーフレーム 2に含まれるオブジェクトデータ を、 コンテンツデータ 1 Iのキーフレーム 3に挿入し、 新たなコンテンツデータ のキーフレーム 3とする。
最後に、 新たなキーフレーム 1〜キーフレーム 3に基づき、 ヘッダを生成し、 ヘッダ、 および、 新たなキーフレーム 1〜キーフレーム 3を含むコンテンツデー タを合成して記憶する。 図 2 2 A、 図 2 2 B、 図 2 2 C、 図 2 2 D、 図 2 2 E、 および、 図 2 2 Fは、 第 3の実施例における第 1の合成例において合成されたコンテンツデータを再生 したときに表示されるアニメーションを説明するための図である。 図 2 2 A〜図 2 2 Cは、 コンテンツデータ 1 Iとコンテンツデータ 2 Iとが午前に合成された コンテンッデータを再生したときに順次再生される各キーフレームに対応する表 示画面図である。 図 2 2 A〜図 2 2 Cは、 それぞれ、 図 1 8 0〜図1 8 Fと同様 であるので説明は繰返さない。
図 2 2 D〜図 2 2 Fは、 コンテンツデータ 1 Iとコンテンツデータ 2 Iとが午 後に合成されたコンテンッデータを再生したときに順次再生される各キーフレー ムに対応する表示画面図である。 図 2 2 D〜図 2 2 Fは、 それぞれ、 図 1 8 A〜 図 1 8 Fと同様であるので説明は繰返さない。
このように、 コンテンツデータ 1 Iに含まれる合成する時刻に応じたスクリプ トにより、 合成処理が制御される。 その結果、 コンテンツデータ 1 I側から合成 処理を制御することができるとともに、 コンテンッデータを合成する時刻に応じ た合成処理をすることができる。
以上説明したように、 第 3の実施例におけるコンテンッ合成装置 1 0 0 Bによ れば、 コンテンッデータなどのコンテンッデータの合成について記述した合成ス クリプトを含む第 1のコンテンツデータ、 および、 第 2のコンテンツデータの入 力が受付けられ、 現在時刻が取得され、 入力された第 1のコンテンツデータに含 まれる合成スクリプトに含まれる取得された現在時刻に応じたスクリプトに基づ き、 第 1のコンテンツデータが、 入力された第 2のコンテンツデータと合成され る。このため、合成する時刻に応じたスクリプトにより、合成処理が制御される。 その結果、 コンテンッデータ側から合成処理を制御することができるとともに、 コンテンッデータを合成する時刻に応じた合成処理をすることができる。
なお、 第 3の実施例においては、 コンテンッ合成装置 1 0 0 Bで行なわれる処 理について説明したが、 図 2 0に示した処理をコンピュータで実行するコンテン ッ合成方法、 図 2 0に示した処理をコンピュータに実行させるためのコンテンツ 合成プログラム、 コンテンツ合成プログラムを記録したコンピュータ読取可能な 記録媒体、 図 2 1 Aに示したコンテンツデータのデータ構造、 および、 そのデー タ構造のコンテンッデータを記録したコンピュータ読取可能な記録媒体として発 明を捉えることができる。
[第 4の実施例]
第 4の実施例においては、 第 1の実施例において説明した合成スタリブトに、 コンテンッ合成装置 1 0 0 Cにより合成される位置に応じたスタリブトを含む場 合について説明する。
図 2 3は、 第 4の実施例におけるコンテンツ合成装置 1 0 O Cの機能の概略を 示す図である。 図 2 3を参照して、 コンテンツ合成装置 1 0 0 Cの制御部 1 1 0 Cは、入力受付部 1 1 1と、合成処理部 1 1 2 Cと、位置取得部 1 1 5とを含む。 コンテンツ合成装置 1 0 O Cの記憶部 1 3 0は、 複数のコンテンツデータを記憶 する。 コンテンツデータは、 アニメーションデータと合成スクリプトとを含むコ ンテンッデータと、 ァェメーシヨンデータを含むコンテンツデータとを含む。 入 力受付部 1 1 1については、 第 1の実施例における図 2で説明したので説明は繰 返さない。
合成処理部 1 1 2 Cは、 入力受付部 1 1 1により入力されたコンテンツデータ 1 0に含まれる合成スクリプトに、 コンテンツデータが合成される位置に応じた スクリプトが含まれる場合は、 位置取得部 1 1 5に位置の取得を指示する。 位置取得部 1 1 5は、 合成処理部 1 1 2 Cからの指示に応じて、 コンテンツ合 成装置 1 0 O Cの現在位置を取得し、 合成処理部 1 1 2 Cに送る。 現在位置の取 得は、 たとえば、 G P S (Global Positioning System) などによって実現される が、 他の方法により実現されていもよい。
合成処理部 1 1 2 Cは、 コンテンツデータ 1 0に含まれる合成スクリブトの位 置取得部 1 1 5で取得された位置に応じたスクリプトに基づき、 入力受付部 1 1 1により入力されたコンテンツデータ 1 0を入力受付部 1 1 1により入力された コンテンツデータ 2 0と合成する。 そして、 合成処理部 1 1 2 Cは、 合成された コンテンッデータ 3 0を記憶部 1 3 0に記憶させる。 なお、 合成処理部 1 1 2 C は、 合成されたコンテンツデータ 3 0を、 直接、 通信部 1 6 0によりネットヮー ク 5 0 0を介して他の P C等に送信してもよいし、 外部記憶装置 1 7 0により記 録媒体 1 7 1に記録してもよい。 図 2 4は、 第 4の実施例におけるコンテンツ合成装置 1 0 0 Cで実行されるデ ータ合成処理の流れを示すフローチャートである。 データ合成処理は、 図 3で説 明したコンテンツ合成処理のステップ S 1 3で実行される処理である。 図 2 4を 参照して、 まず、 ステップ S 5 1で、 合成スクリプトに位置に応じたスクリプト が含まれるか否かが判断される。 合成スクリプトの位置に応じたスクリプトが含 まれる場合 (ステップ S 5 1で Y e s ) は、 ステップ S 5 2で、 位置取得部 1 1 5により、現在位置が取得され、ステップ S 5 3で、合成処理部 1 1 2 Cにより、 ステップ S 5 3で取得された現在位置に応じたスクリプトに基づき、 ステップ S 1 1で入力されたコンテンツデータ 1 0が、 ステップ S 1 1で入力されたコンテ ンッデータ 2 0と合成される合成処理が実行され、 コンテンツ合成処理に戻る。 一方、 合成スクリプトに位置に応じたスクリプトが含まれない場合 (ステップ S 5 1で N o ) は、 コンテンツ合成処理に戻る。
(第 4の実施例における第 1の合成例)
図 2 5 A、 および、 図 2 5 Bは、 第 4の実施例における第 1の合成例において 合成される前のコンテンツデータのデータ構造を示す図である。 図 2 5 Aは、 合 成スクリプトを含むコンテンツデータ 1 Jは、 ヘッダ、 キーフレーム 1〜キーフ レーム 3、 および、 合成スクリプトを含む。
キーフレーム 1〜キーフレーム 3は、 図 1 7 Aで説明したコンテンツデータ 1 Fのキーフレーム 1〜キーフレーム 3と同様であるので説明は繰返さない。
コンテンツデータ 1 Jに含まれる合成スクリプトは、 位置 「大阪 j に対応する 合成スクリプトと、 位置 「奈良」 に対応する合成スクリプトを含む。 位置 「大阪」 に対応する合成スクリプトは、制御内容として「他ファイルのオブジェクト挿入」 を含み、 パラメータとして 「キーフレーム 1〜」 を含む。 また、 位置 「奈良」 に 対応する合成スクリプトは、 制御内容として 「他ファイルのオブジェク ト揷入」 を含み、 パラメータとして 「キーフレーム 2〜」 を含む。 制御内容 「他ファイル のォブジェクト揷入」、 パラメータ 「キーフレーム 1〜」、 および、 「キーフレーム 2〜」 については、 図 4 Aで説明したので説明は繰返さない。
図 2 5 Bは、 コンテンツデータ 2 Jのデータ構造を示す図である。 図 2 5 Bに 示すコンテンツデータ 2 Jは、 図 4 Bで説明したコンテンツデータ 2 Aと同様で あるので、 説明は繰返さない。
まず、 コンテンツ合成装置 1 0 0 Cで、 コンテンツデータ 1 Jと、 コンテンツ データ 2 Jとが合成される位置が大阪である場合について説明する。 この場合、 コンテンツ合成装置 1 0 0 Cにより、 コンテンツデータ 1 J、 および、 コンテン ッデータ 2 Jの入力が受付けられ、 合成スクリブトがコンテンツデータ 1 Jに含 まれ、 合成される位置が大阪であるので、 大阪に対応するスクリプトに基づき、 コンテンツデータ 1 Jのキーフレーム 1からの各キーフレームに、 コンテンツデ ータ 2 Jの各キーフレームに含まれるオブジェクトデータが揷入され、 新たなコ ンテンッデータが記憶される。 コンテンツデータ 1 Jとコンテンツデータ 2 Jと が大阪で合成されたァュメーションデータを再生したときに順次再生される各キ 一フレームに対応する表示画面図は、 図 1 8 D〜図 1 8 Fと同様であるので説明 は繰返さない。
次に、 コンテンツ合成装置 1 0 0 Cで、 コンテンツデータ 1 Jと、 コンテンツ データ 2 Jとが合成される位置が奈良である場合について説明する。 この場合、 コンテンツ合成装置 1 0 O Cにより、 コンテンツデータ 1 J、 および、 コンテン ッデータ 2 Jの入力が受付けられ、 合成スクリプトがコンテンツデータ 1 Jに含 まれ、 合成される位置が奈良であるので、 奈良に対応するスクリプトに基づき、 コンテンツデータ 1 Jのキーフレーム 2からの各キーフレームに、 コンテンツデ ータ 2 Jの各キーフレームに含まれるオブジェクトデータが揷入され、 コンテン ッデータが合成され記憶される。 コンテンツデータ 1 Jとコンテンツデータ 2 J とが奈良で合成されたコンテンツデータを再生したときに順次再生される各キー フレームに対応する表示画面図は、 図 1 8 〜図1 8 Cと同様であるので説明は 操返さない。
合成スクリプトは、 大阪と奈良とに対応するスクリプトを含むものであった。 大阪に対応するスクリプトは、 合成スクリプトを含むコンテンツデータ 1 Jのキ 一フレーム 1からの各キーフレームに、 コンテンツデータ 2 Jの各キーフレーム に含まれるオブジェクトデータを挿入することを記述したスクリプトであった。 奈良に対応するスクリプトは、 合成スクリプトを含むコンテンツデータ 1 Jのキ 一フレーム 2からの各キーフレームに、 コンテンツデータ 2 Jの各キーフレーム に含まれるオブジェクトデータを揷入することを記述したスクリプトであった。 したがって、 コンテンツ合成装置 1 0 O Cは、 合成される位置が大阪である場 合は、コンテンツデータ 2 Jのキーフレーム 1に含まれるォブジェクトデータを、 コンテンツデータ 1 Jのキーフレーム 1に挿入し、新たなキーフレーム 1とする。 次に、 コンテンツデータ 2 Jのキーフレーム 2に含まれるオブジェクトデータ を、 コンテンツデータ 1 Jのキーフレーム 2に挿入し、 新たなキーフレーム 2と する。
次に、 コンテンツデータ 1 Jのキーフレーム 3を、 新たなキーフレーム 3とす る。
最後に、 新たなキーフレーム 1〜キーフレーム 3に基づき、 ヘッダを生成し、 ヘッダ、 および、 新たなキーフレーム 1〜キーフレーム 3を含むコンテンツデー タを合成して記憶する。
また、 コンテンツ合成.装置 1 0 0 Cは、 合成される位置が奈良である場合は、 コンテンツデータ 1 Jのキーフレーム 1を、 新たなキーフレーム 1とする。
次に、 コンテンツデータ 2 Jのキーフレーム 1に含まれるオブジェク トデータ を、 コンテンツデータ 1 Jのキーフレーム 2に挿入し、 新たなキ フレーム 2と する。
次に、 コンテンツデータ 2 Jのキーフレーム 2に含まれるオブジェクトデータ を、 コンテンツデータ 1 Jのキーフレーム 3に揷入し、 新たなキーフレーム 3と する。
最後に、 新たなキーフレーム 1〜キーフレーム 3に基づき、 ヘッダを生成し、 ヘッダ、 および、 新たなキーフレーム 1〜キーフレーム 3を含むコンテンツデー タを合成して記憶する。
コンテンツデータ 1 Jとコンテンツデータ 2 Jとが大阪で合成されたコンテン ッデータを再生したときに順次再生される各キーフレームに対応する表示画面は、 図 1 8 D〜図 1 8 Fで説明した表示画面である。 また、 コンテンツデータ 1 Jと コンテンツデータ 2 Jとが奈良で合成されたコンテンツデータを再生したときに 順次再生される各キーフレームに対応する表示画面は、 図 1 8 〜図1 8 Cで説 明した表示画面である。 以上説明したように、 第 4の実施例におけるコンテンツ合成装置 1 0 0 Cによ れば、 コンテンツデータの合成について記述した合成スクリプトを含む第 1のコ ンテンッデータ、 および、 第 2のコンテンツデータの入力が受付けられ、 コンテ ンッ合成装置 1 0 0 Cの現在位置が取得され、 入力された第 1のコンテンツデー タに含まれる合成スクリプトに含まれる取得された現在位置に応じたスクリプト に基づき、 第 1のコンテンツデータが、 入力された第 2のコンテンツデータと合 成される。 このため、 合成する場所に応じたスクリプトにより、 合成処理が制御 される。 その結果、 コンテンツデータ側から合成処理を制御することができると ともに、コンテンッデータを合成する場所に応じた合成処理をすることができる。 なお、 第 4の実施例においては、 コンテンツ合成装置 1 0 0 Cで行なわれる処 理について説明したが、 図 2 4に示した処理をコンピュータで実行するコンテン ッ合成方法、 図 2 4に示した処理をコンピュータに実行させるためのコンテンツ 合成プログラム、 コンテンツ合成プログラムを記録したコンピュータ読取可能な 記録媒体、 図 2 5 Aに示したコンテンツデータのデータ構造、 および、 そのデー タ構造のコンテンツデータを記録したコンピュータ読取可能な記録媒体として発 明を捉えることができる。
[第 5の実施例]
第 5の実施例においては、 コンテンツ合成装置により、 コンテンツデータに含 まれる合成スクリプトに基づき、 アニメーションデータを暗号化する合成例、 お よび、 暗号化されたァェメーシヨンデータを復号する合成例について説明する。 第 5の実施例におけるコンテンッ合成装置の機能は、 第 2の実施例で説明した コンテンツ合成装置 1 0 0の機能と同様であるので説明は繰返さない。
図 2 6は、 第 5の実施例におけるコンテンツ合成装置で実行されるデータ合成 処理の流れを示すフローチャートである。 このデータ合成処理は、 図 1 5で説明 したデータ合成処理のステップ S 2 3で実行される処理である。 図 1 5を参照し て、 まず、 ステップ S 5 1で、 合成処理部により、 合成スクリプトに基づき、 合 成処理が実行される。 そして、 ステップ S 5 2で、 合成処理部により、 新たに合 成スクリプトを含ませることを示すスクリブトが、 合成スクリブトに含まれるか 否かが判断される。 そして、 新たに合成スクリプトを含ませることを示すスクリ ブトが、 合成スクリプトに含まれる場合 (ステップ S 5 2で Y e s ) は、 ステツ プ S 5 3で、 合成処理部により、 ステップ S 5 1で合成されたコンテンツデータ に、 合成スクリプトに含まれる新たな合成スクリプトが付加され、 図 1 5で説明 したデータ合成処理に戻る。
一方、 新たに合成スクリプトを含ませるスクリプトが、 合成スクリプトに含ま れない場合 (ステップ S 5 2で N o ) は、 図 1 5で説明したデータ合成処理に戻 る。
(第 5の実施例における第 1の合成例)
ここでは、 コンテンツ合成装置により、 コンテンツデータに含まれる合成スク リブトに基づき、 ァェメーシヨンデータを暗号化する合成例について説明する。 図 2 7 A、 および、 図 2 7 Bは、 第 5の実施例における第 1の合成例において 合成される前のコンテンツデータのデータ構造を示す図である。 図 2 7 Aは、 合 成スクリプトを含むコンテンツデータ 1 Dのデータ構造を示す図である。 図 2 7 Aを参照して、 コンテンツデータ 1 Dは、 ヘッダ、 キーフレーム 1、 および、 合 成スクリプトを含む。
キーフレーム 1は、 このキーフレームまでのキーフレームを繰返し再生するこ とを示す 「繰返し」 という制御データを含む。
コンテンツデータ 1 Dの合成スクリプトは、 第 1の制御内容として 「キーフレ ーム追加」 を含み、 第 1のパラメータとして 「キーフレーム 1の後」 を含む。 ま た、 第 2の制御内容として 「合成スクリプトの付加」 を含み、 第 2のパラメータ として他の合成スクリブトとを含む。
第 1の制御内容 「キーフレームの追加」 は、 図 1 0で説明したので説明は繰返 さなレ、。 第 1のパラメータ 「キーフレーム 1の後」 は、 制御内容で示される合成 処理の対象位置が、 合成スクリプトを含むコンテンツデータ 1 Dに含まれるァ- メーションデータのキーフレームの後であることを示す。
また、 第 2の制御内容 「合成スクリプトの付加」 は、 パラメータで指定される 対象データをコンテンツデータ 1 Dに追加することを示す。 第 2のパラメータで ある他の合成スクリプトは、 制御内容で示される合成処理の対象データを示す。 第 2のパラメータである他の合成スクリプトは、 属性 「0 0 0 0 0 0」 に対応 する合成スクリプトを含む。属性「0 0 0 0◦ 0」に対応する合成スクリプトは、 制御内容として 「キーフレームの削除」 を含み、 パラメータとして 「キーフレー ム 1」 を含む。 制御内容 「キーフレームの削除」 は、 パラメータで指定される対 象キーフレームを削除することを示す。 パラメータ 「キーフレーム 1」 は、 制御 内容で示される合成処理の対象キーフレームが、 合成スクリプトを含むコンテン ッデータに含まれるァ -メーションデータのキーフレーム 1であることを示す。 図 2 7 Bは、 コンテンツデータ 2 Dのデータ構造を示す図である。 図 2 7 Bを 参照して、 コンテンツデータ 2 Dは、 ヘッダ、 および、 キーフレーム 1〜キーフ レーム 3を含む。
キーフレーム 1〜キーフレーム 3は、 それぞれ、 図 7 Aで説明したコンテンツ データ 1 Bのキーフレーム 2〜キーフレーム 4と同様であるので説明は繰返さな い。
そして、 コンテンツ合成装置により、 コンテンツデータ 1 D、 および、 コンテ ンッデータ 2 Dの入力が受付けられ、 コンテンツデータ 1 D、 または、 コンテン ッデータ 2 Dに合成スクリプトが含まれるか否かが判断される。 コンテンツデー タ 1 Dに合成スクリプトが含まれるので、 その合成スクリプトに基づき、 コンテ ンッデータ 1 Dがアニメーションデータ 2 Dと合成され、 後述するコンテンツデ ータ 3 Dが記' Ιίされる。
合成スクリプトは、 コンテンツデータ 2 Dに含まれるキーフレームを、 合成ス タリプトを含むコンテンツデータ 1 Dのキーフレーム 1の後に追加すること、 お よび、 合成されたコンテンツデータに他の合成スクリプトを含ませることを記述 したものであった。
したがって、 コンテンツ合成装置は、 制御データ 「繰返し」 を含むコンテンツ データ 1 Dのキーフレーム 1を、 新たなキーフレーム 1とする。
次に、 コンテンツデータ 2 Dに含まれるキーフレーム 1〜キーフレーム 3を、 それぞれ、 コンテンツデータ 1 Dのキーフレーム 1の後に追加し、 新たなキーフ レーム 2〜キーフレーム 4とする。
最後に、 新たなキーフレ^ "ム 1〜キ一フレーム 4に基づき、 ヘッダを生成し、 ヘッダ、 新たなキーフレーム 1〜キーフレーム 4、 および、 コンテンツデータ 1 Dの合成スクリブトに含まれる新たな合成スクリプトを含むコンテンツデータ 3 Dが合成して記憶する。
図 2 8は、 第 5の実施例における第 1の合成例において合成された後のコンテ ンッデータ 3 Dのデータ構造を示す図である。 図 2 8を参照して、 コンテンツ合 成装置によりコンテンツデータ 1 Dとコンテンツデータ 2 Dとが合成されたコン テンッデータ 3 Dは、 ヘッダ、 キーフレーム 1〜キーフレーム 4、 および、 合成 スクリプトからなる。
キーフレーム 1は、 図 2 7 Aで説明したコンテンツデータ 1 Dのキーフレーム 1と同様である。
キーフレーム 2〜キーフレーム 4は、 それぞれ、 図 2 7 Bで説明したコンテン ッデータ 2 Dのキーフレーム 1〜キーフレーム 3と同様である。
合成スクリプトは、 図 2 7 Aで説明したコンテンツデータ 1 Dの合成スクリブ トに含まれる他の合成スクリプトである。
このように、 コンテンツデータ 1 Dに含まれる合成スクリプトにより、 コンテ ンッデータ 2 Dに含まれるキーフレームをコンテンツデータ 1 Dの所定の箇所に 追加する合成処理が制御される。 その結果、 コンテンツデータ 1 D側から他のコ ンテンッデータ 2 Dを追加する合成処理を制御することができる。
以上説明したように、 第 5の実施例の第 1の合成例で示した合成処理により、 図 2 7 Aで説明した合成スクリプトを含むコンテンツデータ 1 D、 および、 図 2 7 Bで説明したコンテンツデータ 2 Dが、 コンテンツ合成装置で合成され、 図 2 8で説明したコンテンツデータ 3 Dが合成される。 また、 コンテンツデータ 2 D 1 再生装置で再生された場合は、 円形の図形が動くアニメーションが再生され る。 一方、 コンテンツデータ 3 Dが、 再生装置で再生された場合は、 円形の図形 が動くアニメーションを表示するためのキーフレームが含まれているにもかかわ らず、 制御データ 「繰返し」 がキーフレーム 1に含まれているため、 円形の図形 が動くアニメーションが再生されない。 このように、 コンテンツデータ 1 Dと合 成することにより、 コンテンツデータ 2 Dを再生できない状態とすることができ る。 この状態を、 コンテンツデータ 2 Dが、 いわゆる暗号化された状態とする。 そして、 コンテンツデータ 1 Dを、 コンテンツデータ 2 Dを喑号化するためのい I わゆる暗号キーとする。
つまり、 制御データ 「繰返し」 を含むキーフレームと、 他のコンテンツデータ に含まれるキーフレームを制御データ 「繰返し」 を含むキーフレームの後に追加 し、 所定の属性に対応する、 制御データ 「繰返し」 を含むキーフレームを削除す ることを記述した新たな合成スクリブトを合成されたコンテンッデータに含ませ ることを記述した合成スクリブトとを含むコンテンツデータを喑号キーとするこ とにより、 他のコンテンツデータを暗号化することができる。
また、 コンテンツデータ 1 Gに含まれる合成スクリプトにより、 コンテンツデ ータ 1 Gに含まれる所定の部分を削除する合成処理が制御される。 その結果、 コ ンテンッデータ 1 G側からコンテンツデータ 1 Gの所定の部分を削除する合成処 理を制御することができる。 '
(第 5の実施例における第 2の合成例)
ここでは、 コンテンツ合成装置により、 暗号化されたアニメーションデータを 復号する第 1の合成例について説明する。
図 2 9 A、 および、 図 2 9 Bは、 第 5の実施例における第 2の合成例において 合成される前のコンテンツデータのデータ構造を示す図である。 図 2 9 Aは、 合 成スクリプトを含むコンテンツデータ 1 Gのデータ構造を示す図である。 図 2 9 Aに示すコンテンツデータ 1 Gは、 図 2 8で説明したコンテンツデータ 2 Dがコ ンテンッデータ 1 Dと合成されたコンテンツデータ 3 Dと同様であるので、 説明 は繰返さない。
図 2 9 Bは、 コンテンツデータ 2 Gのデータ構造を示す図である。 図 2 9 Bを 参照して、 コンテンツデータ 2 Gは、 ヘッダのみを含む。 すなわち、 コンテンツ データ 2 Gに含まれるァ-メーシヨンデータは、 属性 「0 0 0 0 0 0」 であるァ ニメーションデータである。
そして、 コンテンツ合成装置により、 コンテンツデータ 1 G、 および、 コンテ ンッデータ 2 Gの入力が受付けられ、 コンテンツデータ 1 G、 または、 コンテン ッデータ 2 Gに合成スクリプトが含まれるか否かが判断される。 合成スクリプト がコンテンツデータ 1 Gに含まれるので、 次に、 コンテンツデータ 2 Gに含まれ るァェメーションデータの属性が判断される。 コンテンツデータ 2 Gに含まれる アニメーションデータの属性が 「0 0 0 0 0 0」 であるので、 属性 「0 0 0 0 0 0」 に対応するスクリプトに基づき、 コンテンツデータ 1 Gがコンテンツデータ 2 Gと合成され、 後述するコンテンツデータ 3 Gが記憶される。
合成スクリプトは、 属性 「0 0 0 0 0 0」 に対応するスクリプトを含むもので あった。 属性 「0 0 0 0 0 0」 に対応するスクリプトは、 合成スクリプトを含 コンテンツデータ 1 Gと合成される他のコンテンツデータ 2 Gに含まれるアニメ ーションデータの属性が 「0 0 0 0 0 0」 である場合に、 コンテンツデータ 1 G のキーフレーム 1を削除することを記述したものであった。
したがって、'コンテンツデータ 1 Gとコンテンツデータ 2 Gとが入力された場 合、コンテンツ合成装置は、コンテンツデータ 1 Gのキーフレーム 1を削除する。 次に、 コンテンツデータ 1 Gのキーフレーム 2〜キーフレーム 4を、 新たなキ ーフレーム 1〜キーフレーム 3とする。
最後に、 新たなキーフレーム 1〜キーフレーム 3に基づき、 ヘッダを生成し、 ヘッダ、 および、 新たなキーフレーム 1〜キーフレ一ム 3を含むコンテンツデー タ 3 Gを合成して記'慮する。
図 3 0は、 第 5の実施例における第 2の合成例において合成された後のコンテ ンッデータ 3 Gのデータ構造を示す図である。 図 3 0に示すコンテンツ合成装置 1 0 O Aによりコンテンツデータ 1 Gとコンテンツデータ 2 Gとが合成されたコ ンテンッデータ 3 Gは、 図 2 7で説明したコンテンツデータ 2 Dと同様であるの で、 説明は繰返さない。
以上説明したように、 第 5の実施例の第 2の合成例で示した合成処理により、 図 2 8で説明したコンテンツデータ 3 Dと同様であり図 2 9 Aで説明した合成ス タリプトを含むコンテンツデータ 1 G、 および、 図 2 9 Bで説明したコンテンツ データ 2 Gが、 コンテンツ合成装置で合成され、 図 3 0で説明したコンテンツデ ータ 3 Gが合成される。 このコンテンツデータ 3 Gは、 図 2 7 Bで説明したコン テンッデータ 2 Dと同様である。 このように、 コンテンツデータ 2 Dが暗号化さ れた状態であるコンテンツデータ 1 Gを、 コンテンツデータ 2 Gと合成すること により、 コンテンツデータ 2 Dを再生できる状態とすることができる。 この状態 を、 コンテンツデータ 2 Dが、 いわゆる復号された状態とする。 そして、 コンテ ンッデータ 2 Gを、 コンテンツデータ 2 Dを復号するためのいわゆる復号キーと する。
つまり、 所定の属性のコンテンツデータを復号キーとすることにより、 他のコ ンテンッデータを復号することができる。
(第 5の実施例における第 3の合成例)
ここでは、 コンテンツ合成装置により、 喑号化されたアニメーションデータを 復号する第 2の合成例について説明する。
図 3 1 A、 および、 図 3 1 Bは、 第 5の実施例における第 3の合成例において 合成される前のコンテンツデータのデータ構造を示す図である。 図 3 1を参照し て、 コンテンツデータ 1 Hは、 図 2 8で説明したコンテンツデータ 3 Dに含まれ る合成スクリプトを変更したものである。 すなわち、 図 2 7で説明したコンテン ッデータ I Dの合成スクリブトに含まれる他の合成スクリプトを変更して、 コン テンッデータ 2 Dと合成したものである。
コンテンツデータ 1 Hに含まれる合成スクリプトは、 属性 「0 0 0 0 0 0」 に 対応する合成スタリブトを含む。 属性 「0 0 0 0 0 0」 に対応する合成スクリプ トは、 制御内容として 「データの変更」 を含み、 パラメータとして 「キーフレー ム 1 (ジャンプ 2 )」 を含む。 制御内容 「制御データの変更」 は、 パラメータで 指定される対象位置のデータをパラメータで指定される対象データに変更するこ とを示す。 パラメータ 「キーフレーム 1 (ジャンプ 2 ) J は、制御内容で示され る合成処理の対象位置が、 合成スクリプトを含むコンテンツデータに含まれるァ 二メーシヨンデータのキーフレーム 1であり、 制御内容で示される合成処理の対 象データが、 制御データ 「ジャンプ 2」 であることを示す。
図 3 1 Bは、 コンテンツデータ 2 Hのデータ構造を示す図である。 図 3 1 Bに 示すコンテンツデータ 2 Hは、 図 2 9 Bで説明したコンテンツデータ 2 Gと同様 であるので説明は繰返さない。
そして、 コンテンツ合成装置により、 コンテンツデータ 1 H、 および、 コンテ ンッデータ 2 Hの入力が受付けられ、 コンテンツデータ 1 H、 または、 コンテン ッデータ 2 Hに合成スクリプトが含まれるか否かが判断される。 合成スクリプト がコンテンツデータ 1 Hに含まれるので、 次に、 コンテンツデータの 2 Hに含ま れるァェメーションデータの属性が判断される。 コンテンツデータ 2 Hに含まれ るアニメーションデータの属性が 「0 0 0 0 0 0」 であるので、 属性 「0 0 0 0 0 0」 に対応するスクリプトに基づき、 コンテンツデータ 1 Hがコンテンツデー タ 2 Hと合成され、 後述するコンテンツデータ 3 Hが記憶される。
合成スクリプトは、 属性 「0 0 0 0 0 0」 に対応するスクリプトを含むもので あった。 属性 「0 0 0 0 0 0」 に対応するスクリプトは、 合成スクリプトを含む コンテンツデータ 1 Hと合成される他のコンテンツデータ 2 Gに含まれるアニメ ーシヨンデータの属性が 「0 0 0 0 0 0」 である場合に、 コンテンツデータ 1 H に含まれるアニメーションデータのキーフレーム 1に含まれる制御データを制御 データ 「ジャンプ 2」 に変更することを記述したものであった。
したがって、 コンテンツデータ 1 Hとコンテンツデータ 2 Hとが入力された場 合、 コンテンツ合成装置は、 コンテンツデータ 1 Hのキーフレーム 1に含まれる 制御データ 「繰返し」 を、 制御データ 「ジャンプ 2」 に変更して、 新たなキー フレーム 1とする。
次に、 コンテンツデータ 1 Hのキーフレーム 2〜キーフレーム 4を、 新たなキ
^"フレーム 2〜キーフレーム 4とする。
最後に、 新たなキーフレーム 1〜キーフレーム 4に基づき、 ヘッダを生成し、 ヘッダ、 および、 新たなキーフレーム 1〜キーフレーム 4を含むコンテンツデー タ 3 Hを合成して記憶する。
図 3 2は、 第 5の実施例における第 3の合成例において合成された後のコンテ ンッデータ 3 Hのデータ構造を示す図である。 図 3 2を参照して、 コンテンツ合 成装置によりコンテンツデータ 1 Hとコンテンツデータ 2 Hとが合成されたコン テンッデータ 3 Hは、 ヘッダ、 および、 キーフレーム 1〜キーフレーム 4からな る。 - キーフレーム 1は、 コンテンツデータ 1 Hのキーフレーム 1の制御データが制 御データ 「ジャンプ 2」 に変更されたものである。
キーフレーム 2〜キーフレーム 4は、 図 2 7で説明したコンテンツデータ 1 D のキーフレーム 1〜キーフレーム 3と同様であるので説明は繰返さない。
以上説明したように、 第 5の実施例の第 3の合成例で示した合成処理により、 図 2 8で説明したコンテンツデータ 3 Dの合成スクリプトを変更した図 3 1 Aで 説明した合成スクリプトを含むコンテンツデータ 1 H、 および、 図 3 1 Bで説明 したコンテンツデータ 2 Hが、 コンテンツ合成装置で合成され、 図 3 2で説明し たコンテンツデータ 3 Hが合成される。 このコンテンツデータ 3 Gが再生装置で 再生された場合、 図 2 7 Bで説明したコンテンツデータ 2 Dが再生装置で再生さ れたアニメーションと同様のものが再生される。 このように、 コンテンツデータ
2 Dが暗号化された状態であるコンテンツデータ 1 Hを、 コンテンツデータ 2 H と合成することにより、 コンテンッデータ 2 Dを復号することができる。
つまり、 制御データ 「繰返し」 を含むキーフレームと、 他のコンテンツデータ に含まれるキーフレームを制御データ 「繰返し」 を含むキーフレームの後に追加 し、所定の属性に対応する、 制御データ 「操返し」 を制御データ 「ジャンプ 2 J に変更することを記述した新たな合成スクリブトを合成されたコンテンッデータ に含ませることを記述した合成スタリブトを含むコンテンッデータを暗号キーと することにより、 他のコンテンツデータを喑号化することができる。 また、 所定 の属性のアニメーションデータを含むコンテンツデータを復号キーとすることに より、 他のコンテンツデータを復号することができる。
なお、 第 5の実施例においては、 コンテンツ合成装置で行なわれる処理につい て説明したが、 図 2 6に示した処理をコンピュータで実行するコンテンツ合成方 法、 図 2 6に示した処理をコンピュータに実行させるためのコンテンツ合成プロ グラム、コンテンッ合成プログラムを記録したコンピュータ読取可能な記録媒体、 図 2 7 A,図 2 9 A,図 3 1 Aに示したコンテンツデータのデータ構造、および、 そのデータ構造のコンテンッデータを記録したコンピュータ読取可能な記録媒体 として発明を捉えることができる。
[第 6の実施例]
第 6の実施例においては、 第 1の実施例において説明した合成スクリブトの所 在を示す所在情報がコンテンツデータ 1 0に含まれる場合について説明する。 図 3 3は、 第 6の実施例におけるコンテンツ合成装置 1 O O Dの機能の概略を 示す図である。 図 3 3を参照して、 コンテンツ合成装置 1 0 O Dの制御部 1 1 0 Dは、 入力受付部 1 1 1と、 合成処理部 1 1 2 Dと、 合成スクリブト取得部 1 1 6とを含む。 コンテンッ合成装置 1 0 0 Dの記憶部 1 3 0は、 複数のコンテンツ データを記憶する。 コンテンツデータは、 アニメーションデータと合成スクリブ トとを含むコンテンツデータと、 アニメーションデータを含むコンテンツデータ とを含む。 入力受付部 1 1 1については、 第 1の実施例における図 2で説明した ので説明は繰返さない。 '
合成処理部 1 1 2 Dは、 入力受付部 1 1 1により入力されたコンテンツデータ 1 0に合成スタリブトの所在を示す所在情報が含まれる場合は、 合成スタリブト 取得部 1 1 6に合成スクリプトの取得を指示する。
合成スクリプト取得部 1 1 6は、 合成処理部 1 1 2 Dからの指示に応じて、 合 成スクリプト 4 0を取得し、 合成処理部 1 1 2 Dに送る。 ここでは、 合成スクリ ブト 4 0は、 記憶部 1 3 0に記憶されている場合を示すが、 合成スクリプトの所 在情報が示す所在は、 コンテンッ合成装置 1 0 0 Dの記憶部 1 3 0内のアドレス によって示される所在に限定されず、 U R L (Uniform Resource Locator) によ つて示される所在であってもよいし、 記録媒体 1 7 1に含まれる合成スクリプト のパスによって示される所在であってもよい。
合成処理部 1 1 2 Dは、 合成スクリプト取得部 1 1 6で取得された合成スクリ ブトに基づき、 入力受付部 1 1 1により入力されたコンテンツデータ 1 0を入力 受付部 1 1 1により入力されたコンテンツデータ 2 0と合成する。 そして、 合成 処理部 1 1 2 Dは、 合成されたコンテンツデータ 3 0を記憶部 1 3 0に記憶させ る。 なお、 合成処理部 1 1 2 Dは、 合成されたコンテンツデータ 3 0を、 直接、 通信部 1 6 0によりネットワーク 5 0 0を介して他の P C等に送信してもよいし、 外部記憶装置 1 7 0により記録媒体 1 7 1に記録してもよい。
また、 合成処理部 1 1 2 Dは、 図 2 7で説明したコンテンッデータ 1 Dの合成 スクリプトに、 新たに合成されたコンテンツデータに含ませる合成スクリプトの 所在情報が含まれる場合は、 その所在情報に基づき、 合成スクリプト取得部 1 1 6で取得された合成スクリブトを新たに合成されたコンテンッデータに含ませる ようにしてもよい。
図 3 4は、 第 6の実施例におけるコンテンツ合成装置 1 0 0 Dで実行されるデ ータ合成処理の流れを示すフローチャートである。 データ合成処理は、 図 3で説 明したコンテンツ合成処理のステップ S 1 3で実行される処理である。 図 3 4を 参照して、 まず、 ステップ S 6 1で、 合成処理部 1 1 2 Dにより、 ステップ S 1 1で入力されたコンテンツデータ 1 0に含まれる合成スクリプトが角军釈され、 ス テツプ S 6 2で、 コンテンツデータ 1 0に合成スクリプトの所在情報が含まれる か否かが判断される。 コンテンツデータ 1 0に合成スクリプトの所在情報が含ま れる場合 (ステップ S 6 2で Y e s ) は、 ステップ S 6 3で、 合成スクリプト取 得部 1 1 6により、合成スタリブトの所在情報が示す合成スタリブトが取得され、 ステップ S 6 4で、 合成処理部 1 1 2 Dにより、 ステップ S 6 3で取得された合 成スクリブトに基づき、 ステップ S 1 1で入力されたコンテンツデータ 1 0が、 ステップ S 1 1で入力されたコンテンツデータ 2 0と合成される合成処理が実行 され、 コンテンツ合成処理に戻る。
一方、コンテンツデータ 1 0に合成スクリプトの所在情報が含まれない場合(ス テツプ S 6 2で N o ) は、 コンテンツ合成処理に戻る。
以上説明したように、 第 6の実施例におけるコンテンツ合成装置 1 0 0 Dによ れば、 コンテンツデータの合成について記述した合成スクリプトの所在を示す所 在情報を含む第 1のコンテンツデータ、 および、 第 2のコンテンツデータの入力 が受付けられ、 入力された第 1のコンテンッデータに含まれる所在情報が示す合 成スクリプトが取得され、 取得された合成スクリプトに基づき、 入力された第 1 のコンテンツデータが入力された第 2のコンテンツデータと合成される。 このた め、 第 1のコンテンツデータに含まれる所在情報が示す合成スクリプトにより、 合成処理が制御される。 また、 第 1のコンテンツデータに合成スクリプトの所在 情報が含まれるので、 第 1のコンテンツデータを第 2のコンテンツデータと合成 するときに、 合成スクリプトを新たに用意する必要がない。 その結果、 コンテン ッデータ側から合成処理を制御することができるとともに、 コンテンツデータの 合成に必要な合成スクリプトを新たに用意する必要がないようにできる。
また、 第 6の実施例におけるコンテンツ合成装置 1 0 0 Dによれば、 他の合成 スクリプトの所在を示す合成スタリブトに含まれる所在情報が示す他の合成スク リブトが取得され、 合成されたコンテンツデータに、 取得された他の合成スクリ ブトが含められる。 このため、 新たに合成されたコンテンツデータ側から合成処 理を制御可能にすることができる。
なお、 第 6の実施例においては、 コンテンツ合成装置 1 0 O Dで行なわれる処 理について説明したが、 図 3 4に示した処理をコンピュータで実行するコンテン ッ合成方法、 図 3 4に示した処理をコンピュータに実行させるためのコンテンツ 合成プログラム、 コンテンツ合成プログラムを記録したコンピュータ読取可能な 記録媒体として発明を捉えることができる。
この発明を詳細に説明し示してきたが、 これは例示のためのみであって、 限定 となってはならず、 発明の精神と範囲は添付の請求の範囲によってのみ限定され ることが明らかに理解されるであろう。

Claims

請求の範囲
1. コンテンツデータの合成について記述した合成スクリプトを含む第 1のコン テンッデータ (10)、 および、第 2のコンテンツデータ (20) の入力を受付け る入力受付部 (1 11) と、
前記入力された第 1のコンテンツデータに含まれる合成スクリプトに基づき、 前記入力された第 1のコンテンツデータを前記入力された第 2のコンテンッデー タと合成する合成処理部 (112) とを備えた、 コンテンツ合成装置 (100)。
2. 前記第 2のコンテンツデータの属性を判別する属' I1生判別部 (1 13) をさら に備え、
前記合成スクリプトは、 コンテンツデータの複数の属性のそれぞれに対応する スクリプトを含み、
前記合成処理部は、 前記判別された属性に対応したスクリプトに基づき、 前記 入力された第 1のコンテンッデータを前記入力された第 2のコンテンツデータと 合成する、 請求項 1に記載のコンテンツ合成装置 (100A)。
3. 現在時刻を取得する時刻取得部 (1 14) をさらに備え、
前記合成スクリプトは、 前記合成処理部により合成される時刻に応じたスクリ ブトを含み、
前記合成処理部は、 前記取得された現在時刻に応じたスクリプトに基づき、 前 記入力された第 1のコンテンツデータを前記入力された第 2のコンテンツデータ と合成する、 請求項 1に記載のコンテンツ合成装置 (100B)。
4. 前記コンテンツ合成装置の現在位置を取得する位置取得部 (1 1 5) をさら に備え、
前記合成スクリブトは、 位置に応じたスタリブトを含み、
前記合成処理部は、 前記取得された現在位置に応じたスクリプトに基づき、 前 記入力された第 1のコンテンツデータを前記入力された第 2のコンテンツデータ と合成する、 請求項 1に記載のコンテンツ合成装置 (100C)。
5. 前記合成スクリプトは、 他の合成スクリプトを含み、
前記合成されたコンテンッデータに前記他の合成スクリブトを含ませる付加部 (S 53) をさらに備えた、 請求項 1に記載のコンテンツ合成装置。
6. 前記合成スクリブトは、 他の合成スタリブトの所在を示す所在情報を含み、 前記所在情報が示す他の合成スタリブトを取得する取得部 (1 16) と、 前記合成されたコンテンッデータに前記取得された他の合成スクリブトを含ま せる付加部(S 53) とをさらに備えた、請求項 1に記載のコンテンツ合成装置。
7.前記第 1のコンテンツデータ (1A)および前記第 2のコンテンツデータ (2 A) は、 アニメーションデータのコマを定義するキーフレームを含み、
前記合成スクリプトは、 前記第 2のコンテンツデータに含まれるキーフレーム に含まれるデータを前記第 1のコンテンツデータの所定のキーフレームに挿入す ることを記述したスクリプトを含む、 請求項 1に記載のコンテンツ合成装置。
8.前記第 1のコンテンツデータ(1 C)および前記第 2のコンテンツデータ (2 C) は、 アニメーションデータのコマを定義するキーフレームを含み、
前記合成スクリプトは、 前記第 2のコンテンツデータに含まれるキーフレーム を前記第 1のコンテンッデータの所定の箇所に追加することを記述したスクリブ トを含む、 請求項 1に記載のコンテンッ合成装置。
9. 前記第 1のコンテンツデータ (1E) は、 アニメーションデータのコマを定 義するキーフレームを含み、
前記第 2のコンテンツデータ (2E) は、 前記キーフレームに含むことが可能 なデータであり、
前記合成スクリプトは、 前記第 1のコンテンツデータのキーフレームに含まれ る所定のデータを前記第 2のコンテンッデータに変更することを記述したスクリ プトを含む、 請求項 1に記載のコンテンッ合成装置。
10. 前記合成スクリプトは、 前記第 1のコンテンツデータ (1G) の所定の部 分を削除することを記述したスクリプトを含む、 請求項 1に記載のコンテンッ合 成装置。
1 1. コンテンツデータの合成について記述した合成スクリプト (40) の所在 を示す所在情報を含む第 1のコンテンツデータ (10)、および、第 2のコンテン ッデータ (20) の入力を受付ける入力受付部 (1 1 1) と、
前記入力された第 1のコンテンッデータに含まれる所在情報が示す合成スクリ ブトを取得する取得部 (1 1 6 ) と、
前記取得された合成スクリプトに基づき、 前記入力された第 1のコンテンツデ ータを前記入力された第 2のコンテンツデータと合成する合成処理部(1 1 2 D) とを備えた、 コンテンツ合成装置 (1 0 0 D)。
1 2 .前記合成スタリブトは、他の合成スタリブトの所在を示す所在情報を含み、 前記取得部は、 前記所在情報が示す他の合成スクリブトをさらに取得し、 前記合成されたコンテンツデータに前記取得された他の合成スクリブトを含ま せる付加部(S 5 3 )をさらに備えた、請求項 1 1に記載のコンテンツ合成装置。
1 3 .コンピュータでコンテンツデータを合成するコンテンツ合成方法であって、 合成スクリプトを含む第 1のコンテンツデータ、 および、 第 2のコンテンツデ ータの入力を受付けるステップ (S 1 1 ) と、
前記入力された第 1のコンテンツデータに含まれる合成スクリブトに基づき、 前記入力された第 1のコンテンッデータを前記入力された第 2のコンテンッデー タと合成するステップ (S 1 3 ) とを含む、 コンテンツ合成方法。
1 4 .コンピュータでコンテンツデータを合成するコンテンツ合成方法であって、 合成スタリブトの所在を示す所在情報を含む第 1のコンテンッデータ、および、 第 2のコンテンツデータの入力を受付けるステップ (S 1 1 ) と、
前記入力された第 1のコンテンッデータに含まれる所在情報が示す合成スクリ ブトを取得するステップ (S 6 2 ) と、
前記取得された合成スクリプトに基づき、 前記入力された第 1のコンテンツデ ータを前記入力された第 2のコンテンツデータと合成するステップ (S 6 3 ) と を含む、 コンテンツ合成方法。
1 5 . コンテンツデータを合成するコンテンツ合成プログラムであって、 合成スクリプトを含む第 1のコンテンツデータ、 および、 第 2のコンテンツデ ータの入力を受付けるステップ (S 1 1 ) と、
前記入力された第 1のコンテンツデータに含まれる合成スクリプトに基づき、 前記入力された第 1のコンテンッデータを前記入力された第 2のコンテンッデー タと合成するステップ (S 1 3 ) とをコンピュータに実行させる、 コンテンツ合 成プログラム。
1 6 . コンテンツデータを合成するコンテンツ合成プログラムであって、 合成スタリブトの所在を示す所在情報を含む第 1のコンテンッデータ、およぴ、 第 2のコンテンツデータの入力を受付けるステップ (S 1 1 ) と、 '
前記入力された第 1のコンテンツデータに含まれる所在情報が示す合成スクリ ブトを取得するステップ (S 6 2 ) と、
前記取得された合成スクリブトに基づき、 前記入力された第 1のコンテンツデ —タを前記入力された第 2のコンテンツデータと合成するステップ (S 6 3 ) と をコンピュータに実行させる、 コンテンツ合成プログラム。
1 7 . コンテンツデータを合成するコンテンツ合成プログラムであって、 合成スクリプトを含む第 1のコンテンツデータ、 および、 第 2のコンテンツデ
—タの入力を受付けるステップ (S 1 1 ) と、
前記入力された第 1のコンテンツデータに含まれる合成スクリプトに基づき、 前記入力された第 1のコンテンッデータを前記入力された第 2のコンテンッデー タと合成するステップ (S 1 3 ) とをコンピュータに実行させる、 コンテンツ合 成プログラムを記録したコンピュータ読込可能な記録媒体。
1 8 . コンテンツデータを合成するコンテンツ合成プログラムであって、 合成スク.リプトの所在を示す所在情報を含む第 1のコンテンツデータ、および、 第 2のコンテンツデータの入力を受付けるステップ ( S 1 1 ) と、
前記入力された第 1のコンテンッデータに含まれる所在情報が示す合成スクリ プトを取得するステップ (S 6 2 ) と、
前記取得された合成スタリブトに基づき、 前記入力された第 1のコンテンッデ ータを前記入力された第 2のコンテンツデータと合成するステップ (S 6 3 ) と をコンピュータに実行させる、 コンテンツ合成プログラムを記録したコンビユー タ読込可能な記録媒体。
1 9 . コンテンツデータと、 前記コンテンツデータを他のコンテンツデータと合 成するための合成処理がコンピュータで実行される際に用いられる合成スクリプ トとを含む、 コンテンツデータ (1 0 ) のデータ構造。
2 0 . 前記コンテンツデータおよび前記他のコンテンツデータは、 アニメーショ ンデータのコマを定義するキーフレームを含み、 前記合成スクリプトは、 前記他のコンテンツデータに含まれるキーフレームを 前記コンテンッデータの所定の箇所に追加することを記述したスクリプトを含む、 請求項 1 9に記載のコンテンツデ一タ (1 C ) のデータ構造。
2 1 . 前記コンテンツデータは、 ァェメーシヨンデータのコマを定義するキーフ レームを含み、
前記他のコンテンツデータは、 前記キーフレームに含むことが可能なデータで あり、
前記合成スクリプトは、 前記コンテンツデータのキーフレームに含まれる所定 のデータを前記他のコンテンツデータに変更することを記述したスクリブトを含 む、 請求項 1 9に記載のコンテンツデータ (1 E ) のデータ構造。
2 2 . 前記合成スクリプトは、 前記コンテンツデータの所定の部分を削除するこ とを記述したスクリプトを含む、 請求項 1 9に記載のコンテンツデータ (1 G) のデータ構造。
2 3 . コンテンツデータと、 前記コンテンツデータを他のコンテンツデータと合 成するための合成処理がコンピュータで実行される際に用いられる合成スクリブ トとを含む、 データ構造のコンテンツデータ (1 0 ) を記録したコンピュータ読 込可能な記録媒体。
2 4 . 前記コンテンツデータおよび前記他のコンテンツデータは、 ァュメーショ ンデータのコマを定義するキーフレームを含み、
前記合成スクリプトは、 前記他のコンテンツデータに含まれるキーフレームを 前記コンテンッデータの所定の箇所に追加することを記述したスクリプトを含む、 請求項 2 3に記載のデータ構造のコンテンツデータ (1 C) を記録したコンビュ 一タ読込可能な記録媒体。
2 5 . 前記コンテンツデータは、 アニメーションデータのコマを定義するキーフ レームを含み、
前記他のコンテンツデータは、 前記キーフレームに含むことが可能なデータで あり、
前記合成スクリプトは、 前記コンテンツデータのキーフレームに含まれる所定 のデータを前記他のコンテンツデータに変更することを記述したスクリプトを含 む、 請求項 2 3に記載のデータ構造のコンテンツデータ (1 E) を記録したコン ピュータ読込可能な記録媒体。
2 6 . 前記合成スクリプトは、 前記コンテンツデータの所定の部分を削除するこ とを記述したスクリプトを含む、 請求項.2 3に記載のデータ構造のコンテンツデ タ (1 G) を記録したコンピュータ読込可能な記録媒体。
PCT/JP2004/000561 2003-01-23 2004-01-22 コンテンツ合成装置、コンテンツ合成方法、コンテンツ合成プログラム、コンテンツ合成プログラムを記録したコンピュータ読取可能な記録媒体、コンテンツデータのデータ構造、および、コンテンツデータを記録したコンピュータ読取可能な記録媒体 WO2004066216A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US10/542,902 US20060136515A1 (en) 2003-01-23 2004-01-22 Content synthesis device, content synthesis method, contents synthesis program, computer readable recording medium containing the content synthesis program, data structure of content data, and computer readable recording medium containing the content data

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2003-014948 2003-01-23
JP2003014948A JP2004264885A (ja) 2003-01-23 2003-01-23 コンテンツ合成装置、コンテンツ合成方法、コンテンツ合成プログラム、コンテンツ合成プログラムを記録したコンピュータ読取可能な記録媒体、コンテンツデータのデータ構造、および、コンテンツデータを記録したコンピュータ読取可能な記録媒体

Publications (1)

Publication Number Publication Date
WO2004066216A1 true WO2004066216A1 (ja) 2004-08-05

Family

ID=32767422

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2004/000561 WO2004066216A1 (ja) 2003-01-23 2004-01-22 コンテンツ合成装置、コンテンツ合成方法、コンテンツ合成プログラム、コンテンツ合成プログラムを記録したコンピュータ読取可能な記録媒体、コンテンツデータのデータ構造、および、コンテンツデータを記録したコンピュータ読取可能な記録媒体

Country Status (4)

Country Link
US (1) US20060136515A1 (ja)
JP (1) JP2004264885A (ja)
CN (1) CN1742297A (ja)
WO (1) WO2004066216A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5380770B2 (ja) * 2006-10-18 2014-01-08 辰巳電子工業株式会社 自動写真作成装置および自動写真作成方法
JP5682596B2 (ja) * 2012-06-25 2015-03-11 辰巳電子工業株式会社 遊戯用撮影装置および遊戯用撮影方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001344613A (ja) * 2000-05-31 2001-12-14 Sharp Corp 画像情報処理装置、画像情報処理方法およびその処理を記録した記録媒体

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001344613A (ja) * 2000-05-31 2001-12-14 Sharp Corp 画像情報処理装置、画像情報処理方法およびその処理を記録した記録媒体

Also Published As

Publication number Publication date
JP2004264885A (ja) 2004-09-24
US20060136515A1 (en) 2006-06-22
CN1742297A (zh) 2006-03-01

Similar Documents

Publication Publication Date Title
US8451832B2 (en) Content using apparatus, content using method, distribution server apparatus, information distribution method, and recording medium
JP4982570B2 (ja) オブジェクト基盤オーディオサービスのための多重オブジェクトオーディオコンテンツファイルの生成、編集、および再生方法と、オーディオプリセット生成方法
US6078005A (en) Apparatus for editing and reproducing visual events along musical events
EP2249265B1 (en) Information Processing Apparatus and Method
EP1653471A2 (en) Content using apparatus, content using method, distribution server apparatus, information distribution method, and recording medium
JP2004287595A (ja) 複合メディアコンテンツの変換装置及び変換方法並びに複合メディアコンテンツ変換プログラム
JP2013197981A (ja) 動画再生方法、動画再生装置及びプログラム
US20090037006A1 (en) Device, medium, data signal, and method for obtaining audio attribute data
US7689591B2 (en) Recording apparatus and method, reproducing apparatus and method, recording and reproducing apparatus and method, and program
WO2004066216A1 (ja) コンテンツ合成装置、コンテンツ合成方法、コンテンツ合成プログラム、コンテンツ合成プログラムを記録したコンピュータ読取可能な記録媒体、コンテンツデータのデータ構造、および、コンテンツデータを記録したコンピュータ読取可能な記録媒体
JP2982697B2 (ja) テロップ表示装置
JP2001202082A (ja) 映像信号編集装置および方法
JP4387543B2 (ja) 動画像作成装置及びその制御方法及び記憶媒体
JP4077525B2 (ja) マルチメディア情報再生装置およびマルチメディア情報記録装置
JP3294526B2 (ja) カラオケ装置
JP2009253342A (ja) 情報処理装置および方法
KR101562041B1 (ko) 듀엣 모드의 미디어 콘텐츠 제작 방법 및 이에 사용되는 미디어 콘텐츠 제작 장치
WO2003050746A1 (fr) Processeur de donnees multimedia
JP2004064679A (ja) 番組制作方法
JP6478626B2 (ja) 記録装置およびその制御方法、プログラム
JP2006048901A (ja) マルチメディア情報再生装置およびマルチメディア情報記録装置
TWI252042B (en) Image processing device with an audio real-time integrating function
KR20110133654A (ko) 사용자 맞춤형 애니메이션 저작 서비스 제공방법 및 그 시스템
Jackson et al. Android UI Design Considerations: Styles, Screen Density Targets and New Media Formats
JP2004221712A (ja) 情報処理装置および情報処理方法、プログラム、並びにデータ構造および記録媒体

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

DPEN Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed from 20040101)
121 Ep: the epo has been informed by wipo that ep was designated in this application
ENP Entry into the national phase

Ref document number: 2006136515

Country of ref document: US

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 10542902

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 20048028016

Country of ref document: CN

122 Ep: pct application non-entry in european phase
WWP Wipo information: published in national office

Ref document number: 10542902

Country of ref document: US