WO2001093206A1 - Dispositif de montage d'animation, procede de montage d'animation, programme de montage d'animation, et support enregistre contenant un programme informatique de montage d'animation - Google Patents

Dispositif de montage d'animation, procede de montage d'animation, programme de montage d'animation, et support enregistre contenant un programme informatique de montage d'animation Download PDF

Info

Publication number
WO2001093206A1
WO2001093206A1 PCT/JP2001/004292 JP0104292W WO0193206A1 WO 2001093206 A1 WO2001093206 A1 WO 2001093206A1 JP 0104292 W JP0104292 W JP 0104292W WO 0193206 A1 WO0193206 A1 WO 0193206A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
moving image
parameter
animation
parameters
Prior art date
Application number
PCT/JP2001/004292
Other languages
English (en)
French (fr)
Inventor
Hiroaki Zaima
Tadahide Shibao
Original Assignee
Sharp Kabushiki Kaisha
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Kabushiki Kaisha filed Critical Sharp Kabushiki Kaisha
Priority to JP2002500339A priority Critical patent/JP3813579B2/ja
Priority to EP01930250A priority patent/EP1302900A4/en
Priority to AU56795/01A priority patent/AU5679501A/en
Priority to US10/296,906 priority patent/US7071942B2/en
Publication of WO2001093206A1 publication Critical patent/WO2001093206A1/ja

Links

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation

Definitions

  • Moving image editing device moving image editing method, moving image editing program, recording medium storing computer program for moving image editing processing
  • the present invention relates to a moving image editing apparatus for editing (creating / modifying) a moving image using specified data, a moving image editing method used in the moving image editing device, a moving image editing program, and a moving image editing program.
  • the present invention relates to a recording medium on which a computer program for image editing processing is recorded. Background art
  • animation creation devices that can create animations (moving images) using computer graphics have been developed.
  • an animation is created based on data (animation defining data) defining the shape and motion of an object in an image.
  • the animation-specified data corresponding to the type of component or operation of the device to be designed (object) is selected. Is set so that it can be entered interactively.
  • Japanese Patent Application Laid-Open No. Hei 9-167725 (published Japanese Patent Publication, published date: June 24, 1997)” includes its own animation-specific data.
  • a CAD system that can use natural language (a language composed of expressions used in general sentences) is disclosed.
  • This system analyzes sentences composed of natural language input as animation-specific data, and recognizes the words that make up the sentences and the relevance of the words. Then, animation is created by selecting animation commands related to the shape and motion of the object according to the recognized words.
  • the command is an instruction language (language for the playback engine) for driving the animation playback engine.
  • an instance-based program is used to create an instance based on an object-oriented program. Need to be newly created and registered.
  • An object of the present invention is to provide a moving image editing apparatus capable of easily performing a moving image editing process.
  • a moving image editing apparatus converts a moving image using specified data including parameters for specifying the state of an object in the moving image.
  • An input unit for receiving a user's instruction in a moving image editing device to be edited, an extracting unit for extracting a variation parameter relating to a change in an object state in a moving image from the specified data, and an extracted variation It is characterized in that it has a correction unit that corrects parameters in accordance with a user's instruction and updates specified data using the corrected fluctuation parameters.
  • This editing device is a device for editing moving images (animation etc.) using computer graphics.
  • a moving image is created based on data (regulated data) that defines the shape and motion of an object (a display object; a character appearing in the image; a character) in the image.
  • the editing apparatus is set so as to edit a moving image using the specified data.
  • the extraction unit is set so as to extract, from the specified data, a variation parameter relating to a change in the state of an object in a moving image.
  • the parameters for defining the color etc. are described.
  • the parameters of the object include those that change in relation to the state change of the object in the moving image (such as the position of the object) and those that do not change regardless of the state change (such as the name of the object).
  • the parameter that changes is extracted from the specified data as a variation parameter.
  • the correction unit corrects the extracted variation parameters based on the user's instruction. Further, the correction unit is set to update the specified data of the moving image using the corrected variation parameter. As a result, the moving image can be edited as instructed by the user. In this manner, the editing apparatus is set so as to selectively extract only the variation parameters from the prescribed data. As a result, moving images can be edited more easily than in the case of directly editing all specified data.
  • FIG. 1 is a flowchart showing the operation flow of the animation editing device according to one embodiment of the present invention.
  • FIG. 2 is an explanatory diagram showing the configuration of the above-described animation editing device.
  • ⁇ FIG. 3 is an explanatory diagram showing an example of XML data used in the animation editing device shown in FIG. 4A is an explanatory diagram showing an animation corresponding to the XML data shown in FIG. 3, and FIGS. 4B to 4D are frame images corresponding to the XML data shown in FIG.
  • FIG. 4 is an explanatory diagram showing data.
  • FIG. 5 is an explanatory diagram showing a display screen of a display unit in the animation editing device shown in FIG. -FIG. 6 is an explanatory diagram showing a display example of a variation parameter screen on the display screen shown in FIG.
  • FIG. 7 is an explanatory diagram showing another display example of the variable parameter screen on the display screen shown in FIG.
  • FIG. 8 is an explanatory diagram showing a reproduction timer displayed on the variable parameter screen on the display screen shown in FIG.
  • FIG. 9 is an explanatory diagram showing a part of a display example of a variable parameter screen on the display screen shown in FIG.
  • FIG. 10 is an explanatory diagram showing an edition obtained by editing the animation shown in FIG. 4 (a).
  • FIG. 11 is an explanatory diagram showing XML data corresponding to the animation shown in FIG. '
  • FIG. 12 is an explanatory diagram showing another animation obtained by editing the animation shown in FIG. 4 (a).
  • FIG. 13 is an explanatory diagram showing XML data corresponding to the animation shown in FIG.
  • FIG. 14 is an explanatory diagram showing still another animation obtained by editing the animation shown in FIG. 4 (a).
  • FIG. 9 is an explanatory diagram showing difference information.
  • FIG. 16 is an explanatory diagram showing XML data corresponding to the animation shown in FIG.
  • FIG. 17 is an explanatory diagram showing still another animation obtained by editing the animation shown in FIG. 4 (a).
  • El 18 is an explanatory diagram showing XML data according to the animation shown in FIG.
  • FIG. 19 is an explanatory diagram showing an example of frame image data.
  • FIG. 20 is an explanatory diagram showing the data structure of the frame image data shown in FIG.
  • FIG. 21 is an explanatory diagram showing an example of SVG data.
  • FIG. 22 is an explanatory diagram illustrating an example of SMIL data. BEST MODE FOR CARRYING OUT THE INVENTION
  • the animation editing device edits an animation based on data (animation specification data) corresponding to the shape and motion characteristics of an object in an image. (Create / Modify) ⁇ It is a device for reproduction.
  • an animation is a moving image obtained by displaying a plurality of still images (still image data) continuously (in succession) for a predetermined time ⁇ , and then editing the animation.
  • the device is configured to edit the animation by editing the still image data used for the animation. I have.
  • the present animation editing apparatus is set so that text data (XML data) in XML (Extensible Markup Language) format can be used as an animation specification data.
  • XML data text data
  • XML Extensible Markup Language
  • XML data is text data (data defined by a character code set), but is data that can be processed directly by the device (or application software used in the device). It works. Therefore, it can be said that the data is easy to handle for both users and devices.
  • elements (parameters) that constitute data are set so that tags with names indicating their contents can be attached. Therefore, the user can easily obtain the data contents by reading the XML data.
  • the present animation editing device has an input unit 101, a control unit 102, a display unit 103, an internal data storage unit 104, a text editing unit 105, and a graphic.
  • An editing unit 106, a conversion dictionary 107, an animation reproducing unit 109, and a fluctuation parameter extracting unit 110 are provided. .
  • Input unit (input unit, object designating unit) 101 is a keyboard and mouse (both not shown) suitable for text input for inputting and transmitting user's instructions to the animation editing device. Input device provided.
  • the input unit 101 is provided with a reading device for reading a recording medium such as an FD (Floppy Disc), a CD (Compact Disk), an MO (Magnetic-optical Disk), and a DVD (Digital Versati 1 e Disc). (Not shown), and also has a function of reading XML data (animation rules data; rules data) recorded in these.
  • the display unit 103 is a monitor having a display screen composed of an LCD (Liquid Crystal Display) or a CRT (Cathode-Ray Tube), and capable of displaying XML data, frame image data described later, animation, and the like. It is.
  • the display screen of the display unit 103 will be described later.
  • the internal data storage unit 104 is configured by a storage medium such as a RAM (Random Access Memory) and a hard disk. Then, it stores (stores) the XML data input and edited via the input unit 101 and the frame image data described later. Note that the internal data storage unit 104 is set so as to store the XML data and the frame image data in association with each other.
  • a storage medium such as a RAM (Random Access Memory) and a hard disk.
  • the conversion dictionary 107 includes a storage medium such as a ROM (Read Only Memory), a RAM, and a hard disk. Then, the grammar of the XML data (parameters) and the grammar of the image data (the instruction code of the animation playback unit (playback engine) 109) are stored in a one-to-one correspondence.
  • the conversion dictionary 107 is a correspondence table for converting the XML data into the instruction code of the reproduction engine.
  • the image data is data composed of a playback engine instruction code (a code for displaying an image). Further, in the present embodiment, the expression “display of image data overnight” is referred to as “display of an image according to image data”. We will use it in this sense.
  • the text editing unit (correction unit, specified data display unit) 105 stores the XML data stored in the internal data storage unit 104 into the user input to the input unit 101. Editing is performed according to instructions. Also, the text editor
  • FIG. 3 is an explanatory diagram showing an example of XML data.
  • the example shown in this figure is for reproducing the animation shown in FIG. 4 (a).
  • the circle object 801 and the rectangle object 802 are set at the respective reference points (the center F 1 of the circle object 801, the corner P of the rectangle object 802). 2) is changed so that E1 to E3 and K-1 to K3 change.
  • the XML data shown in Fig. 3 is composed of a plurality of frames (key frames) 1 to 3 corresponding to ⁇ 1 to ⁇ 3 ( ⁇ 1 to ⁇ 3).
  • Each frame 1 to 3 contains the playback time (time) of each frame, the type of object (object; display object) to be displayed as an animation (circle, rectangle), and each object.
  • the values (position, radius, height, width) that define the shape and position of are described as parameters between tags.
  • a two-digit line number is attached to the left end for explanation.
  • the tag is a symbol defined by ku (parameter name)> and kuno (parameter name)> in the XML data of FIG. 3.
  • Frames 1 to 3 contain the position of the center 1 in the circle object 80 1 at times 0, 1, and 4 (in X and ⁇ coordinates).
  • the values indicating the position) and the radius, the position of the corner P2 (the position in the X and Y coordinates), the width and the height in the rectangular object 802, and the values indicating the width and height are determined by the shape of each object. It is shown as a parameter defining the position.
  • the color of the object in addition to the type, shape, position, etc., can be set as a parameter.
  • the tags on the first, first, second, third, second, third and third lines in the XML data indicate (separation) of the frame ', and the frame tag using the frame number as a parameter It has become.
  • the text data sandwiched between these frame tags constitutes the parameters of each object in each of frames 1 to 3.
  • the number between the time tags on the second line is a parameter indicating the playback time in frame 1 (how many seconds after the start of the animation) .
  • the circle tags on the third and sixth lines indicate that the contents of the second to fifth lines are parameters of the circle object 801. That is, the position tag on the fourth line describes the X coordinate and the Y coordinate at the center F 1 of the circle object 81. In the radius tag on the fifth line, the radius (cm) of the circle object 81 is shown.
  • the rectangle tag on the 7 • 10th line indicates that the contents of the 8th to 9th lines are parameters of the rectangle object 802. That is, the X coordinate • Y coordinate at the corner P 2 of the rectangular object 800 2 is described in the position of the eighth line.
  • the height tag and the width tag of the ninth line indicate the height (cm) and width (cm) of the rectangular object 8002.
  • the text editing unit 105 shown in FIG. 2 creates still image data (frame image data) corresponding to each frame of the XML data using the conversion dictionary 107 and stores the internal data. It also has a function to store it in the unit 104.
  • the text editing unit 105 is set to generate frame image data according to the tag of the XML data according to the conversion dictionary 10 #. It should be noted that the text editing unit 105 does not reflect evenings not described in the conversion dictionary 107 in frame image data.
  • the text editing unit 105 is configured to, when editing the XML data, refer to the conversion dictionary 107 according to the editing result and correct the frame image data. .
  • the text editing unit 105 refers to the conversion dictionary 107 according to the editing result, and outputs the XML data. It has come to fix overnight.
  • the graphic editing unit (image display unit) 106 displays the frame image data on the display unit 103. Further, the graphic editing unit 106 can also edit the frame image data according to a user's instruction input to the input unit 101.
  • FIG. 4 (b) to 4 (d) are explanatory diagrams showing frame image data corresponding to frames 1 to 3 in the XML data shown in FIG.
  • a circular object 801 and a rectangular object 802 are described in each of frames 1 to 3 of the XML data shown in FIG. It is drawn according to the shape and position parameters.
  • the key-image playback unit (image display unit) 109 shown in FIG. 2 reads the XML data stored in the internal data storage unit 104, and uses the conversion dictionary 107 to create an animation file described later. In this case, the animation data is created, and is reproduced as an animation using the display section 103.
  • the animation data is moving image data corresponding to the contents of the specified animation data such as XML data.
  • the animation playback unit 109 includes a frame image data corresponding to each frame in the XML data and a still image data (intermediate image data) of an intermediate frame for interpolating between the frames. Create Then, the animation playback unit 109 is set so as to create, as an animation data, a data that continuously (sequentially) displays these still image data at predetermined time intervals. . .
  • Variation parameter extraction unit (extraction unit, variation parameter display unit) 11.0 extracts parameters (variation parameters) that change between frames from the XML data and displays them as text data This is displayed in section 103.
  • variation parameter for example, a variation position, a shape, a color, and the like in each object can be exemplified.
  • the process of extracting the variation parameters by the variation parameter overnight extraction unit 110 will be described later in detail.
  • the control unit 102 is composed of a CPU (Central Procedure Signal Unit).
  • the control unit 102 controls the above-described members of the present animation editing apparatus to create and modify (edit) internal data (XML data and frame image data), and to perform animation (animation). De It has a function to create and play back and play back. It is the central part of this animation editing device. -Next, the display screen of the display unit 103 will be described.
  • FIG. 5 is an explanatory diagram showing a display screen 201 of the display unit 103.
  • the display screen 201 is composed of a text edit screen 701, a graphic edit screen 702, a variation parameter screen 703, a control button group 704 ; a thumbnail display section 70 5 and a toolbar 7 0 6.
  • the text edit screen (specified data display section) 701 is a screen for displaying XML data.
  • the input unit 101 (mainly a keyboard) can edit the XML data displayed on the text editing screen 701. ⁇ ,
  • Graphic editing screen (image display section) 702 is a display screen for displaying still image data such as frame image data and animation and animation.
  • the input frame mainly a mouse
  • the variable parameter overnight screen (variable parameter display section) 703 is a display screen for displaying the variable parameters of the object specified on the edit screen 71-70 as text data.
  • the control button group 704 is provided with buttons for playing, fast-forwarding, rewinding (fast-rewinding), stopping, and pausing the image displayed on the graphic editing screen 720.
  • the control button group 704 displays the frame image data to be displayed when the frame image data is displayed on the graphic editing screen 720, and the currently displayed frame image. Buttons for changing to the previous and next frame image data in the image data are also provided.
  • the thumbnail display section 705 is a display screen for displaying thumbnails (thumbnail group) of each frame image data displayed on the graphic editing screen 720.
  • a file bar 706 is an area where various kinds of kits are displayed for editing the frame image data displayed on the graphic editing screen 720.
  • the toolkit is a group of icons (not shown) for drawing a figure (a circle, a rectangle, a line segment, etc.) on the graphic editing screen 720.
  • an icon (not shown) for instructing creation of new frame image data and deletion of frame image data is also displayed in the folder 706.
  • FIG. 4 (a) the center P1 of the circle object 801 moves to E1 to E3, and at the same time, the corner P2 of the rectangular object 802 changes to K1 to K3.
  • the user selects a frame number to be edited (created) using the control buttons 704 or the thumbnail display section 705.
  • frame image data as shown in FIGS. 4 (b) to 4 (d) is created on the graphic editing screen 720. That is, in frames 1 to 3, the circle object 801 is arranged on E1 to E3, and the rectangular object 802 is arranged on K1 to K3.
  • the frame image data of each of the frames 1 to 3 is updated (edited) by the graphic editing unit 106 (see FIG. 2).
  • the text editing unit 105 updates the XML data, and displays the XML data corresponding to the updated frame image data on the text edit screen 701.
  • a dialog is displayed on the graphic editing screen 72 so that the playback time of each frame 1 to 3 (or the time interval between frames) can be input in text.
  • the reproduction time may be designated by the user.
  • thumbnail display section 705 may be provided with a scroll bar for designating (controlling) the reproduction time (or the time interval between frames) of each of the frames 1 to 3.
  • FIG. 6 is an explanatory diagram showing a display example of the variable parameter screen 703 on the display screen 201.
  • the position of the circle object 801 in the animation shown in FIG. 4A is extracted and displayed as the fluctuation parameter information 1001.
  • the variable parameter overnight extraction unit 110 selects the circle tag in the XML file shown in Fig. 3 on the text editing screen 701, or the circle object on the graphic editing screen ⁇ 02. When the object 8 0 1 is selected, attention is paid to the circle object 8 0 1.
  • variation parameter extraction unit 110 detects a variation parameter between the frames 1 to 3 and a difference value between the parameters, and obtains the difference information 1003 composed of text data as variation parameter. It is displayed on the evening screen 703.
  • “1 to 2” in the difference information 1003 in FIG. 6 indicates that it is a column of difference information between frame 1 and frame 2.
  • variable parameter overnight extraction unit 110 is configured to output the animation when the animation is reproduced with the circle tag (or the circle object 801) selected, and during the reproduction of the animation. 7 is selected, as shown in FIG. 7, in addition to the above-mentioned information 1001 ⁇ 1003, the intermediate image data being reproduced (displayed) on the graphic editing screen 7202 is displayed. And frame image data) are set so as to be sequentially displayed on the fluctuation parameter screen 703 as reproduction information 1002.
  • the intermediate image data is the static image data of the intermediate frame for interpolating between the frame image data.
  • “2 to medium” in the difference information 1003 in FIG. 7 indicates that the column is a column of difference information between the frame 2 and the intermediate frame being reproduced.
  • the variable parameter overnight extraction unit 110 shows the temporal relationship between the frames 1 to 3 and the reproduction time, as shown in FIG. May be displayed on the variable parameter overnight screen 703.
  • the playback timer 1 1 1 0 1 has the time axis 1 1 0 1 and the time axis 1 1 0 1
  • the sliders 1 105 indicating the positions T 1 to T 3 of each frame 1 to 3 and the position of the frame being played (including the intermediate frame) on the graphic editing screen 72 are displayed. It is set as follows.
  • FIG. 1 is an explanatory diagram showing a flow of the operation of the key name editing apparatus.
  • the operation shown in this figure is based on the user's input, creates frame image data-XML data, plays an animation based on this, and further, based on the user's input.
  • Q that modifies XML data
  • the user creates an object consisting of a set of points, lines, etc. on the graphic editing screen 702 of the display unit 103 using the input unit 101.
  • 'Place and edit create) the frame image data as shown in Figs. 4 (b) to (d) (S201).
  • control unit 102 controls the graphic editing unit 106 to recognize these still image data as frame image data, and also stores the recognized frame image data in the internal data storage unit. Store it in 104.
  • control unit 102 controls the text editing unit 105 to create XML data corresponding to the frame image data stored in the internal data storage unit 104. It is stored in the evening storage section 104.
  • control unit 102 sends the XML data stored in the internal data storage unit 104 to the animation reproduction unit 109. Then, the animation control unit 109 is controlled to generate an animation data from the XML data, and the animation data is reproduced using the graphic editing screen 720 of the display unit 103. (S202).
  • the user determines whether the reproduced animation is appropriate (S203). When the user determines that the animation is the desired one, the user ends the process.
  • the user informs the control unit 102 via the input unit 101. That is, the user clicks a predetermined part with a mouse or inputs a predetermined instruction (operation) using a keypad.
  • control unit 102 controls the graphic editing unit 106 to display one of the frame image data on the graphic editing screen 720 of the display unit 103.
  • the user selects an object (an object whose shape or motion is desired to be corrected) in the displayed frame image data with respect to the correction position by using the input unit 101 (S204).
  • control unit 102 controls the animation reproduction unit 109 to reproduce the animation (S205), and the variable parameter overnight extraction unit 110 Is controlled to extract the variation parameter in the selected object, and to display it on the variation parameter screen 703 as shown in FIG. 7 (S206).
  • control unit 102 transmits the XML data relating to the selected object to the variable parameter overnight extraction unit 110.
  • variable parameter overnight extractor 110 monitors the change of the parameter in the intermediate frame in the selected object. Then, the changing parameter setting is detected and displayed on the changing parameter setting screen 703. Is set to '
  • the X coordinate of the playback information 1002 relating to the intermediate frame shown in FIG. 7 was edited to the value shown in FIG. 9 on the variable parameter overnight screen 703 in the processing of S208. And This editing changes the moving state between E 2 and E 3 in the circle object 801, as shown in FIG. '
  • the center F1 of the circular object 8001 in the reproduction time of this intermediate frame is set to be located at E4 (see FIG. 10). ing. Then, the above editing changes the position of the circle object 801 at the same reproduction time to E5.
  • control unit 102 controls the text editing unit 105 to generate a key frame corresponding to the edited variation parameter and add the key frame to the XML data (XML data To change). Further, the text editing unit 105 is controlled to generate new frame image data according to the added key frame.
  • FIG. 11 is an explanatory diagram showing a changed portion of the XML data.
  • the XML data after the change is the same as the XML data before the change (Fig. 3) Are identical.
  • frame 3 in the XML file before the change is placed as line 4 on lines 34 to 44 (by adding a new key frame). , The frame number has been updated). Then, a new key frame is inserted as a frame 3 in the lines 13 to 33 '.
  • the newly inserted frame 3 is a key frame at time 3, which is the playback time of the intermediate frame corresponding to the playback information 1002 shown in FIG. 7 (FIG. 9).
  • this frame 3 indicates that the center P 1 of the circle object 81 at time 3 is located at E 5 (see FIG. 10).
  • this frame 3 also shows that the corner P2 of the rectangular object 802 at time 3 is located at K4 (see FIG. 10).
  • This K 4 is the same as the position of the rectangular object 802 at time 3 before the change of the XML data.
  • the position parameters of the circular object 8001 are listed (displayed side by side) as fluctuation parameter information 1001. .
  • the user To copy the moving state of the circle object 801, first, the user must input all the position parameters (variable parameter information 100 shown in FIG. 6) of the circle object 801. 0 1) is temporarily copied. In addition, this copy can be changed by mouse or keyboard. The entire information 1001 is selected (dragged), and a predetermined storage area controlled by the control unit 102 (a clipboard (not shown), etc .; the internal data storage unit 104 may be used) This can be achieved by saving the
  • the user designates a rectangular tag or rectangular object 802 on the text editing screen 701 or the graphic editing screen 702.
  • the position parameters of the rectangular object ⁇ 02 are displayed as the fluctuation parameter data 1001.
  • the position parameters of the circular object 801 temporarily stored are pasted onto the position parameters of the rectangular object 802 displayed as the fluctuation parameter information 1001 (overwriting). Do).
  • the moving state of the rectangular object 802 can be edited in the same manner as the circle object 801.
  • Figure i3 is an explanatory diagram showing the XML data that has undergone this editing process.
  • the edited XML data contains the circle objects described in lines 4, 15, 26, and 26.
  • the position parameter at 801 is overwritten and copied as the position parameter at 802 for the rectangular object on line 8, 19, 30.
  • the difference value of the position parameter of the circle object 801 is represented by the variable parameter. It is listed (displayed side by side) as overnight information 1001. -Therefore, first, the user temporarily copies the entire difference information 1003 of the circular object 8001 shown in FIG. After that, the user designates a rectangular tag or rectangular object 802 on the edit screen 70 1 * 702. As a result, on the variable parameter screen 703, the difference value of the position parameter in the rectangular object 802 is displayed as difference information 1003.
  • the temporarily stored difference value of the circular object 8001 is pasted (overwritten) on the difference value of the rectangular object 8002 displayed as the difference information 1003.
  • the moving state of the rectangular object 802 can be edited so as to move parallel to the circular object 801 (a state of moving from K1 to K5 to K6).
  • the movement vector (movement vector) of the rectangular object 802 can be edited so as to be the same as the movement vector of the circle object 81.
  • FIG. 16 is an explanatory diagram showing the XML data that has been subjected to this editing processing. As shown in this figure, in the edited XML data, the position parameters of the rectangular object 8002 described in the eighth line are shown. The values obtained by adding the difference values shown in Fig. 15 to the data are listed in lines 19 and 30.
  • the difference value can be copied by specifying a frame. For example, if the difference between the positional parameters of the rectangular object 802 is copied from frame 2 onward of the rectangular object 802, an animation as shown in FIG. 17 can be created.
  • the fluctuation parameter extraction unit 110 is set to extract the fluctuation parameters related to the state change of the object during the animation from the XML data. Then, the text editing unit 105 is set so as to correct the extracted fluctuation parameters based on the user's instruction, and to update the XML data using the corrected fluctuation parameters. I have. This allows the animation to be edited as directed by the user.
  • the present animation editing apparatus is set to selectively extract only the variation parameters from the XML data. This makes it easier to edit the animation than when editing the entire XML data directly.
  • an object from which a variation parameter is to be extracted can be specified using the editing screens 71 and 702 (that is, the object related to the object desired by the user). Only the variation parameters can be extracted, which makes it possible to narrow down the extraction amount of the variation parameters, making it easier to edit the animation.
  • the fluctuation parameters extracted by the fluctuation parameter extraction unit 110 are displayed on a fluctuation parameter screen 703. Then, the text editing unit 105 is set so as to correct the variation parameters on the screen 703 according to the user's input, that is, the text editing unit 105 directly modifies the displayed variation parameters. Define commands and instances to make modifications to ' The editing process of the animation can be easily performed as compared with the configuration that performs the animation.
  • the present animation editing apparatus it is set so that the variation parameter displayed on the variation parameter screen 703 is stored (copied), and the variation parameter can be corrected using this. Therefore, the user can modify the change parameter only by instructing to use the stored value.
  • variable parameter extracting unit 110 sequentially changes the value of the variable parameter in the object during the animation. Is set to be displayed. This allows the user to easily follow the changes in the fluctuation parameters, and easily assume the values (parameter values) to be used for correction.
  • the fluctuation parameter extraction unit 110 extracts the fluctuation parameters in the selected object and displays them on the fluctuation parameter screen 703. However, this is not the case when objects are closely related.
  • a character object 604 consisting of a head object 601 and a torso object 602 is placed on a trolley object 603.
  • the frame image data corresponding to the image described above has a data structure (internal data structure) as shown in FIG.
  • character object 604 is a child object of bogie object 603.
  • the head object 601 and the torso object 602 are the child objects of the character object 604.
  • the position parameters (movement) of the bogie object 603 affect the position parameters of the character object 604.
  • the position parameters of the character object 604 affect the position parameters of the head object 601 and the torso object 602. Therefore, when the head object 601 is selected, the variable parameter extracting unit 110 also pays attention to the positional parameters of the character object 604 and the bogie object 603 ( Monitoring) is preferred.
  • variable parameter extraction unit 110 extracts the head object 601 according to the change of the object 603, 604.
  • this change is also displayed on the fluctuation parameter screen 703. It is preferably set to.
  • the object and the tag are associated with each other. For this reason, the tag of the selected object, the tag of the object that affects the object, and the content (content of the parameter) are displayed on the text edit screen 701 or the variable parameter screen. It is easy to display (text display) on 703.
  • the circular object 8001 is placed at the position of FIG. 4 (d) at the time of the current playback (the playback time of the intermediate frame; the time indicated by the slider 111 in FIG. 8). If it is desired to reach, the content of frame 3 in the variable parameter overnight information 1001 may be copied to the reproduction information 1002. This will automatically generate a new keyframe for the current playback time. The result of generating this key frame is Reflected in frame image data and XML data. As a result, desired animation editing can be realized.
  • the extracted variation parameters are displayed as a variation parameter overnight information 1001 in a list on the variation parameter overnight screen 703.
  • the present invention is not limited to this, and only the reproduction information 1002 may be displayed on the variation parameter screen 703.
  • the following processing is performed. That is, all the fluctuation parameters (positions) of the circular object 8001 displayed in the reproduction information 1002 are copied. After that, the variation parameter (position) of the rectangular object 802 is displayed as reproduction information 1002, and the reproduced parameter is overwritten with the copied parameter. .
  • the fluctuation parameter shown in the reproduction information 1002 on the fluctuation parameter screen 703 is corrected. It is also possible. Also, the contents of the reproduction information 1002 can be copied to a part (or all) of the variable parameter information 1001. As a result, the variation parameters in the existing frame can be corrected. In addition, when temporarily storing (copying) the variation parameter overnight information 1001, the content of the variation parameter information 1001 can be corrected immediately before copying.
  • variation parameter extraction unit 110 may be set so as to extract only the variation parameters after the selected frame. Alternatively, only the variation parameters of the selected frame and the frames before and after the selected frame may be extracted. In addition, the variation parameter overnight extraction unit 110 sets the reproduction information 1002 as It may be set so that information other than the variation parameter is displayed and edited.
  • the extracted variation parameters and other parts may be displayed together.
  • the display form such as the character size, color, font, and modification format (typeface and line thickness) in the variable parameters is changed to other parts (XML displayed on the text editing screen 701). Data, etc.) and highlight the variable parameters.
  • variable parameter extraction unit 110 converts the display format of the variable parameter overnight information 1001 on the variable parameter screen 703 into a text (XML data) on the text edit screen 701. It is preferable to set (change) the display mode to be different from that of “Ichigo”. However, it is not necessary to make this setting (change).
  • variation parameter extraction unit 110 may be set so as to extract characteristic information and motion information of the object.
  • the feature information is a variation parameter relating to an object change that does not involve movement of the center position.
  • the motion information is a variation parameter related to a change in an object accompanying the movement of the center position.
  • the feature information is used as shape information and color information such as the coordinate values of the vertices of the polygon, the color in each area, and whether a plurality of points are connected by a curve (for example, a sin function) or a straight line. Is also good.
  • the motion information may be information on a difference when a coordinate value or the like changes between frames.
  • the variation parameter extraction unit 110 indicates the reproduction time (time during reproduction) by the reproduction timer 110.
  • the present invention is not limited to this, and the reproduction time may be presented by a counter.
  • a command for instructing that the same frame be repeatedly reproduced may be described in the XML data. Then, such a command may be extracted by the variation parameter extracting unit 110 and set to be displayed on the variation parameter screen 703.
  • the above-mentioned commands can be edited in the same manner as the variation parameters.
  • the command may be used as information on the relationship between frames, such as performing animation by repeating a specified number of times between specific frames.
  • text data XML data
  • XML Extensible Markup Language
  • the data that can be used as animation definition data in the present animation editing apparatus is not limited to XML data. That is, in the present animation editing apparatus, by changing the contents of the conversion dictionary 107, it is possible to use any data overnight.
  • the conversion dictionary 107 can be easily created (prepared).
  • the text data described in accordance with the strict rules is a tag data that can uniquely grasp the structure of the data and that has a meaning that can be understood by humans (so that the application can be read). It can be said that there is. In addition, it can be said that it is preferable to use text data that can be recognized by the present animation editing device as animation specification data.
  • the specified animation data and changed parameters are displayed on the text edit screen 701 and the variable parameter screen 703. It is preferable to convert these into a format that can be recognized by the user when displaying them.
  • any type of reproduction engine may be used. Also, when changing the playback engine, it is preferable to change the contents of the conversion dictionary 107 as in the case of changing the animation definition data. .
  • the frame image data (internal data) stored in the internal data storage unit 1.04 is a combination of an instruction code and a parameter. Therefore, the instruction code corresponding to the XML data changes depending on the parameter value.
  • the control point in the instruction code is 4 (A circle with four control points is generated). If the radius parameter is 5 cm or more, the instruction code has eight control points (a circle having eight control points is generated).
  • control section 102 is constituted by a CFU.
  • control unit 102, the text editing unit 105, the graphics editing unit 106, the animation playback unit 109, and the fluctuation parameter extraction unit 110 in the present animation editing device are integrated into one. From CPU W 01 93206
  • the storage unit for temporarily storing the contents may be constituted by one storage device.
  • the animation reproduction unit 109 generates an intermediate image between the key frames by interpolation processing based on the key frames to generate the animation data.
  • the present invention is not limited to this, and the animation may be reproduced using only the still image data corresponding to the key frame (frame image data—evening).
  • the animation playback unit 109 creates XML image data corresponding to each frame in the evening and intermediate image data for interpolating between frames.
  • animation data that continuously displays the still image data at predetermined time intervals (one after another) is created as animation data.
  • a degree of freedom may be given to a method of interpreting the XML data in the animation reproducing unit 109.
  • the animation reproduction unit 109 can perform interpolation and filtering more satisfactorily based on the XML data.
  • the animation playback unit 109 may generate intermediate image data indicating that the object exists at an intermediate position (a position between A and B) after 1 second. It is possible.
  • the animation reproduction unit 109 can also create animation data that does not display the state of the object at point B three seconds later.
  • a flag may be set in the XML data to indicate that the animation reproducing unit 109 has a degree of freedom in interpreting the data.
  • the animation reproduction unit 109 prepares a plurality of animation data, and in response to a user's selection instruction with a mouse click or the like, a graphic editing screen 70.
  • the animation displayed in 2 can be changed.
  • the animation reproduction unit 109 can also create an animation animation including a plurality of animation animations. In other words, it is possible to prepare a plurality of animation data and create animation data that displays the data corresponding to the user's first selection instruction.
  • the animation reproducing unit 109 changes the display order of the frame image data in the XML data, or specifies the animation data. It is also possible to create animations that repeatedly display the frame image data.
  • the animation playback unit 109 generates, as animation data, data in which one still image data (frame image data or intermediate image data) is superimposed on another still image data. It can also be created.
  • still image data A is set as the background and the still image data B Can be set as data (A + 'B)'.
  • still image data (A + C) can be created by replacing still image data B with still image data C while still image data A is set as a background.
  • the animation playback unit 109 is configured to perform an animation such that the still image data (A + B) and the still image data (A + C) are continuously displayed as the animation data. Data can also be created.
  • the animation reproduction unit 109 may prepare still image data ( ⁇ + ⁇ ) ⁇ (A + C) in advance. Also, prepare still image data (A + B) and still image data C, display still image data (A + B), and overwrite still image data C on top of this. An animation animation may be created. .
  • the animation data in the present animation editing apparatus includes moving image data obtained by changing still image data to be overlaid on one still image data as a background.
  • the moving image editing apparatus of the present invention uses an XML file as an animation specification file to edit (create / modify) an animation. ).
  • the moving image editing device of the present invention is not limited to animation. It is also possible to edit and reproduce other moving images. That is, the present animation editing apparatus is a preferred embodiment of the moving image editing apparatus of the present invention. '
  • the moving images that can be handled by the moving image editing apparatus of the present invention include, for example, JPEG (Joint Photographic Expert Group) and FNG (Portable N (Etwork Graphics), BMP (Bitmap), etc., and real image data such as MFEG (Motion Picture Expert Group) and AVI (Audio Video Interleaving). 'Or moving image data in which a plurality of moving images are arranged. It is also possible to handle moving image data that is mixed and arranged including animation.
  • the specified data that can be handled by the moving image editing apparatus of the present invention includes Synchronized Multimedia Integration Language (SMIL) data in addition to XML data.
  • SMIL Synchronized Multimedia Integration Language
  • This SMIL data is a subset of XML and is a markup (tagging) language that describes the arrangement (time and layout) of still images, moving images, and music data.
  • the still (moving) image data is displayed in the area surrounded by the coordinates A and B from 3 seconds to 5 seconds after the start, or it is displayed on the still (moving) image data. If you display only half, you can specify what you want.
  • the moving image (music) The part of 2 to 3 seconds in the data is displayed.
  • another moving image (music) data is reproduced after a predetermined time after the moving image (music) data ends. ,, Etc. can also be specified.
  • SMIL data prescribed data is created (display of a moving image) using the concept of an object instead of the concept of a key frame. Then, in the SML data, information indicating the relationship between time and behavior (parameter) of a certain object (information indicating the parameter of the object at each time) is described.
  • the object specifying unit in the moving image editing apparatus of the present invention provides an object from which the variation parameter is to be extracted (an object having a parameter to be changed to the corresponding time). ) Is preferably also possible.
  • SVG Scalable Vector Graphics
  • This SVG data is also a markup language that describes 2D graphics as a subset of XML. Then, similar to the SMIL data, the object or parameter can be easily extracted.
  • FIG. 21 shows an example of this SVG data (this example is excerpted from the SVG specification).
  • the bold part is the part (basic part) describing the shape and position of the rectangle.
  • the portion between the bold characters is the portion where the rectangular parameter is changed (parameter change portion).
  • variable (parameter overnight) X is changed from 300 (from) to .0 (to) in 9 seconds (dur) from 0 seconds (begin). It is shown that the animation is performed and the animation is filled after the animation is completed.
  • other “an imate” tags include animations of other variables between 0 and 9 seconds. Is written.
  • the moving picture editing apparatus of the present invention when a time between 0 and 9 seconds is selected, the above basic portion and parameter change portion are extracted, and x, y, and width of “rect” in the basic portion are extracted.
  • the fact that the variables of height and height have been changed is displayed by changing the color and layout, including the association.
  • a time When a time is selected by the user, it is preferable to display a frame image that will be displayed at the selected time. In this image, it is more preferable to make it easier to identify the object whose parameter is changing overnight by using a frame, a contour changed in color, or the like.
  • the “par” tag means that the time of the “audio” and “img” tags enclosed by the tags advances in parallel. If the start time of the “par” tag is t seconds, the “audio” tag starts playing the “audiol.” File from (t + 6) seconds-the “img” tag is specified by the “id” attribute The “imagel” file is displayed from (t + 10) seconds after the start of the “audio” tag.
  • the moving image editing apparatus of the present invention when using any of the specified data of XML data, SMIL data, and SVG data, if there is a variable indicating the interpolation method in the specified data, the moving image editing apparatus of the present invention creates an intermediate frame. Sometimes it is preferable to extract the above variables.
  • the key that the object moves from point A to point B to point C When there is one frame, the contents of the intermediate frame are different between the case of linear interpolation and the case of curve interpolation. Also, not only the position of the object, but also the temporal interpolation will change.
  • -SVG and SMIL specifications can be browsed and downloaded from the W3C (World Wide Web Consortium) website (SVG; http://www.w3.org/TR/2000 /CR-SVG-20001102/index.html, -SMIL; http://www.w3.org/TR/REC-smi 1 /).
  • W3C World Wide Web Consortium
  • the animation editing processing (animation creation processing) in the present animation editing apparatus shown in FIG. 1 is performed under the control of the control unit 102.
  • An information processing apparatus capable of recording a program for performing the animation editing process on a recording medium and reading the program is provided by the control unit 102 (and the text editing unit 105).
  • the graphic editing unit 106, the animation reproducing unit 109, and the variable parameter—evening extraction unit 110) may be used instead.
  • the arithmetic unit (.? !!! ⁇ ! Micro Processing Unit) of the information processing device reads the program recorded on the recording medium and executes the animation editing process. Therefore, it can be said that this program itself realizes the animation editing process.
  • the information processing device described above includes a portable mobile device and a function expansion board mounted on the computer.
  • ⁇ Function extension unit can be used.
  • the above programs are the program codes (executable programs, intermediate code programs, 'source programs, etc.) of the software that implements the animation editing process.
  • This program may be used alone or in combination with other programs (OS (Operation System), etc.). Further, the program may be such that it is read from a recording medium, then stored in a memory (RAM, etc.) in the apparatus, and then read again and executed.
  • OS Operating System
  • the recording medium for recording the program may be one that can be easily separated from the information processing device, or one that is fixed (attached) to the device. Further, the external storage device may be connected to the device.
  • Such recording media include magnetic tapes such as video tapes and force-setting tapes, magnetic disks such as floppy disks and hard disks, and optical disks such as CD-ROM, MO, MD, DVD and CD-R.
  • Discs magnetic-optical disks
  • IC cards magnetic cards
  • memory cards such as optical cards
  • semiconductor memories such as mask ROM, EP ROM, EEF ROM, and flash ROM can be applied.
  • a recording medium connected to an information processing device via a network (intranet, internet, etc.).
  • the information processing device acquires the program by downloading via the network. That is, the above-described program may be obtained via a transmission medium (a medium that dynamically stores the program) such as a network (connected to a wired line or a wireless line). It is preferable that the program for performing the down-call is previously stored in the device.
  • the thumbnail display section 705 shown in FIG. 5 is a function for displaying thumbnails (thumbnail group) in the frame image data corresponding to the XML data displayed on the editing screen (standard data display section) 701. May be provided.
  • the playback parameters displayed on the fluctuation parameter screen 703 include the time axis 1 1 0 1 and each frame 1 on the time axis 1 1 0 1 Even if it is set so that sliders 1 to 105 indicating the positions of intermediate frames during playback are displayed on the positions T1 to T3 of the Good.
  • the animation editing apparatus of the present invention is applied to an animation editing apparatus that edits an animation using specified data including parameters for specifying the state of an object during the animation.
  • An input unit that receives a user's instruction; an extraction unit that extracts a variation parameter relating to a change in the state of an object during the animation from the specified data; and an extraction unit that extracts the variation parameter.
  • the present invention is directed to a computer program for an animation editing process that edits an animation using a specified date including parameters for specifying the state of an object during the animation.
  • a dynamic transmission medium that extracts fluctuation parameters related to changes in the state of an object during animation from the specified data, and corrects the extracted fluctuation parameters in accordance with user instructions.
  • a transmission medium that fluidly transmits a computer program for animation editing processing, characterized in that the specified data is set to be updated using the modified variable parameters. It can also be expressed as
  • the moving image editing apparatus (the present editing apparatus) according to the present invention provides a moving image editing apparatus that edits a moving image using a definition data including parameters for specifying an object state in the moving image.
  • an input unit that receives a user's instruction
  • an extraction unit that extracts a variation parameter related to a change in the state of an object in a moving image from the specified data
  • an extracted variation parameter It is characterized in that it has a correction unit that corrects according to the user's instructions and updates the specified data using the corrected fluctuation parameters.
  • This editing device is for editing moving images (animation, etc.) using computer graphics.
  • a moving image is created based on data (regulated data) that defines the shape and motion of an object (a display object that appears in the image; a character) in the image. Then, the editing device uses the specified data to Is set to edit.
  • the extraction unit is set to extract, from the specified data, a variation parameter relating to a change in the state of an object in a moving image.
  • the specification data describes parameters for specifying the shape, operation, color scheme, and the like of each object.
  • the parameters of the object include those that change in relation to the change in the state of the object in the moving image (such as the position of the object) and those that do not change regardless of the state change (such as the name of the object). ) And there is.
  • the parameter that changes is extracted from the specified data as a change parameter.
  • the correction unit corrects the extracted variation parameters based on the user's instruction. Further, the correction unit is set to update the specified data of the moving image using the corrected fluctuation parameter. As a result, the moving image can be edited as instructed by the user. In this way, the present editing apparatus is set to selectively extract only the variation parameters from the specified data. ing. As a result, moving images can be edited more easily than when editing is performed directly on all specified data.
  • the present editing apparatus is provided with an object designating unit for designating an object from which a variation parameter is to be extracted based on a user's instruction. It is preferable that the extraction unit is set so as to extract the fluctuation parameters in the object specified by the object specification unit from the specified data. With such a configuration, it is possible to extract only the variation parameters relating to the object desired by the user. Therefore, the extraction amount of the variation parameter can be narrowed, so that the moving image can be edited more easily.
  • the editing apparatus is provided with a specified data display section for displaying specified data. It is preferable that the setting is made so that the user can select one (or a plurality of) objects through the input unit using the displayed specified data.
  • the object designating section designates the object selected in this way as an object from which a variation parameter is to be extracted. With this setting, the user can easily select a desired object.
  • the editing apparatus may include an image display unit that displays an image (moving image or a part of the moving image (still image)) according to the specified data.
  • the displayed image is set so that the user can select one (or a plurality of) objects through the input unit.
  • the object designating unit designates the object selected in this way as an object from which the variation parameters should be extracted. This setting also makes it easy for the user to select an object.
  • the image display unit has a conversion dictionary for generating an image from the prescribed data.
  • this conversion dictionary the grammar of the specified data and the grammar of the image data (data consisting of codes for displaying images) are described in correspondence with each other. this Thereby, it is easy to realize the above configuration.
  • the conversion dictionary is set to be exchangeable, even if the format of the specified data or image data is changed, the image can be easily generated by using the conversion dictionary according to the changed format.
  • the present editing apparatus may be provided with a fluctuation parameter display section for displaying the fluctuation parameter extracted by the extraction section.
  • the correction unit is set so as to correct the variation parameter according to the input of the user and to cause the variation parameter display unit to display the corrected variation parameter.
  • the correction unit is set so as to be able to correct the variation parameter using the storage contents of the storage unit.
  • the user can correct the variation parameter only by instructing the correction unit to use the value stored (copied) in the storage unit. In other words, there is no need to use a keyboard or other input device to input the correction details for each variable parameter.
  • variable parameter overnight display unit sequentially displays the value of the variable parameter overnight in the object in the moving image. It is preferable that it is set so that it is displayed in a static manner. This allows the user to easily follow the changes in the fluctuation parameters, and easily assume the values (parameter values) to be used for correction.
  • the variation parameter display section is set so that the display form is different from the display form of the prescribed data by the prescribed data display section.
  • the display format is-for example, the size, color, font, and modification format (typeface and line thickness) of the character. With this setting, the fluctuation parameter can be highlighted.
  • the present editing apparatus is set so as to use text format data as the default data. This eliminates the need to convert the data to a format that can be recognized by the user when displaying the specified data and the fluctuation parameters that are part of the specified data. Therefore, data can be easily displayed.
  • a moving image editing method (main editing method) is a moving image editing method for editing a moving image using definition data including a parameter for defining an object state in the moving image.
  • This editing method is the editing method used in the above-described main editing apparatus (that is, in the main editing method, in the extraction step, the variation parameter related to the change in the state of the object in the moving image is expressed as It is extracted from the specified data.
  • the extracted variation parameters are corrected based on the user's instruction. Further, in the updating process, the setting is made so that the specified data of the moving image is updated using the corrected moving parameters. As a result, moving images can be edited as instructed by the user.
  • this editing method it is set so that only the variation parameters are selectively extracted from the specified data.
  • moving images can be easily edited as compared with a method in which editing is performed directly on all specified data.
  • the recording medium on which the computer program for the moving image editing process according to the present invention is recorded edits the moving image using specified data including a parameter for specifying an object state in the moving image.
  • This is a recording medium on which a computer program for a moving image editing process to be recorded is recorded.
  • a fluctuation parameter relating to a change in the state of an object in the moving image is extracted from the specified data, and the extracted fluctuation parameter is extracted.
  • the setting is such that evening is corrected according to the instruction of the user, and the specified data is updated using the corrected fluctuation parameter.
  • the internal data storage unit 104 shown in FIG. 2 is composed of a RAM or the like, and is edited by the input unit 101 and stores data necessary for reproducing the animation. It may be used as a storage unit. Further, information such as command codes and parameters of the present animation editing apparatus may be stored in the internal data storage unit 104. .
  • the text editing unit 105 refers to the conversion dictionary 107 to reflect the text change in the internal data storage unit 104, and the internal data storage is performed by the graphic editing unit 106.
  • the storage unit 1.04 is changed, it is controlled by the control unit 102 and refers to the conversion dictionary 107 to display text reflecting the changed contents of the internal data storage unit 104. May be set.
  • the graphic editing unit i 06 is controlled by the control unit 102 and displays the contents of the internal data storage unit 104 on the display unit 103 graphically to enable editing. You may. Further, the graphic editing unit 106 reflects the change of the graphic in the internal data storage unit 104, and when the internal data is changed by the text editing unit 105, the graphic editing unit 106 transmits to the control unit 102. The graphic may be controlled and reflect the changed content of the internal data storage unit 104.
  • the conversion dictionary 107 may be a rule data storage unit in which a correspondence table between a text grammar and a graphic is stored.
  • the animation editing apparatus refers to the conversion dictionary 107 and synchronizes the editing contents of the editing sections 105 and 106 with the internal data storage section 104.
  • a conversion unit may be provided.
  • variation parameter extraction unit 110 includes parameters related to motion. W 01 93206
  • the extracted text data may be extracted and displayed on the display unit 103.
  • the variation parameter extraction unit 110 extracts text data including parameters affecting the specified object (attributes such as position and color) and displays it on the display unit 103. It may be displayed. Also, one or more attributes such as position and color can be specified and extracted. Note that this specification is preferably performed on text data rather than graphically. For text data, the above specification can be easily performed simply by specifying the tag.
  • FIGS. 3 and 4 show a display image in the present animation editing apparatus.
  • the tags of the XML data always correspond one-to-one with the start and end force, and the end evening is prefixed with the name of the start tag. It can be said that there is.
  • FIG. 4 (a) an animation in which the circle object 801 moves from E1 to E3, and at the same time, the rectangular object 802 moves from K1 to K3.
  • the frame may be created with the toolbar 706, and the frame may be selected with the control button group 704 or the thumbnail display section 705.
  • a dialog for inputting the time between frames in text may be launched, or the thumbnail display section 705 may display a frame.
  • a scroll bar or the like for controlling the time between frames may be provided.
  • the text editing screen 700 shown in FIG. 5 may be used to edit the text based on the text (mainly by using the keyboard), and the text editing screen may be displayed.
  • the graphic editing screen 720 is used to edit animations (mainly using a mouse) using the GUI. For example, a graphic may be displayed for the purpose.
  • the variable parameter overnight screen 703 extracts the text part that changes the attribute information such as position information and color with respect to the object specified in the edit screen 701.702. May be displayed.
  • FIG. 6 is a diagram for explaining some regions displayed on the fluctuation parameter overnight screen 703.
  • a portion related to the change in the position of the circle may be extracted and displayed as the variable parameter information 1001, such as the variable parameter information 1001.
  • the interpolation value of the tag extracted as variable parameter information 1001 is displayed in the playback information 1002.
  • the difference between each of the frame displayed in the variation parameter information 1001 and the frame of the reproduction information 1002 may be displayed in the difference information 1003.
  • Fig. 1 can be said to be a diagram showing a rough flow in the present animation editing apparatus.
  • the user places objects such as points and lines on multiple keyframes in the input unit 101, and the control unit 1 ⁇ 2 responds to the input of the input unit 101.
  • the data in the internal data storage unit 104 may be updated based on the editing data of the text editing unit 105 or the graphic editing unit 106.
  • control unit 102 sends the input data of the selected object to the variable parameter overnight extracting unit 110, and the variable parameter overnight extracting unit 110
  • the object when interpolating keyframes It may be set so as to monitor the parameters related to the parameters and display the changing parameters on the display unit 103.
  • the difference value is copied and the rectangle of frame 2 is copied, it moves as ⁇ ,, ' ⁇ ⁇ 1, , 12, ⁇ 13 as shown in Fig.17. Is copied. At this time, if the moving speed is also copied, as shown in Fig. 18, ⁇ 11 is updated so that it is 2. seconds after the start, and ⁇ 13 is updated so that it is 5 seconds after the start.
  • the frame value may be updated ignoring the speed of movement.
  • parameters such as the number of repetitions can be converted in the same way as parameters such as coordinates.However, up to which frame is an ID such as a frame number It is considered that the following is described.
  • a part of a device to be designed is defined by an instance of an object-oriented program, a figure is associated with the instance, and the instance is defined. It can be said that this is an animation generation method that interactively generates an animation method that deforms the display of the figure in conjunction with the operation of the animation.
  • the system is intended for object-oriented programming and is intended for non-expert users It is difficult for 4.9 to create and manipulate models. Also, this publication does not describe a method for specifying a place where a user can easily edit and a method for displaying the place.
  • the device disclosed in Japanese Patent Application Laid-Open No. Hei 9-1167251 analyzes a sentence input in a natural language, acquires words constituting the sentence and their relations, and obtains the acquired words. Is a device that acquires commands for creating animations for each of the above, and generates animations based on the commands.In this device, edited commands can be reused by registering them in a dictionary. For detailed editing, it is necessary to edit the command, but it is difficult to understand compared to editing with text.
  • XML is not only human-readable because it is described in text, but also has a tag indicating the content of the data, so it is a general-purpose data description language in a format that can be processed by applications. Therefore, it can be said that it is possible to express a general day.
  • the object of the present invention is to describe the data in a text-based data description language that can be easily read and edited (typically by a general user), such as XML, and that can support playback engines of different formats. It can be said that it is to create an animation creation device that can reuse part of the data from the file that has been created, or create an animation by easily editing parameters and the like.
  • the image data is data composed of a command code of a reproduction engine.
  • the playback engine records that the figure that was at point A at 0 seconds moves to point B at 3 seconds and to point C after 5 seconds. If after 1 second You can create an intermediate frame with a figure between A and B, or you can hide B at 3 seconds.
  • the playback engine has a certain degree of freedom in interpreting the image data as follows (although there may be a flag indicating whether or not the image data is given a degree of freedom). and c can ring, the instruction code of the playback engine of the animation editing apparatus, but also a case such as this.
  • the animation data is data such that still image data is displayed continuously (one after another) at predetermined time intervals.
  • the animation data includes, for example, still images A, B ; C, where A is set as the background, b is set as the background, and B is displayed on top of the first frame, and A is set as the background. And replace B with C.
  • (A + B) image and (A + C) image may be prepared in advance, but (A + B) image and C image must be prepared (A + B)
  • the animation data includes a moving image obtained by such an image processing method for displaying.
  • the animation is edited by editing the still image data used for the animation.
  • the present animation editing apparatus can make, for example, an animated data of a person watching the television into data that refers to another animation day on a screen displayed on the television. . That is, 1. You can prepare animations of 11 and 2 €; 11 and create an animation that allows you to change which channel's animation is referenced with a mouse click. In addition, the order of the frames, and the frames such as repeating the third to fifth frames twice You can do other things.
  • the types of moving images that can be used in the moving image editing apparatus of the present invention are: real still image data such as JPEG, PNG, BMP, etc .; Multiple arrangements can be made, including animations.
  • SMIL data it is possible to specify the number of seconds after the end of the moving image (music) data before playing another moving image (music) data.
  • the concept of objects is not the concept of keyframes, but the concept of objects, and it is described that a certain object behaves like this after a few seconds. If a time is selected instead of selecting a key frame as described in the embodiment, an object or its parameters can be extracted and extracted for those whose behavior (parameter) is described to change at that time. Data structure). ''
  • Figure 21 shows a data structure that can be extracted using SVG (Scalable Vector Graphics) grammar instead of SMIL grammar (SMIL and SVG are quite similar for animation).
  • SVG Scalable Vector Graphics
  • SVG Scalable Vector Graphics
  • SVG Scalable Vector Graphics
  • the frame image that would be displayed at that time will be displayed, and the changing object will It is desirable to be able to see it in the outline where the color has been changed, etc.), and this bold character and the part sandwiched by it are extracted, and the variables written in bold, y, wi dth, and he i ght are changed. It is preferable to change the color, layout, etc., and display it including the association.
  • the intermediate frame changes between linear interpolation and curve interpolation, and not only the position but also the temporal interpolation. Also changes.
  • the pole is bouncing, if it goes up to the top and if there is a key frame that touches the ground, it will be fastest when touching down and slowest when going up.
  • An interpolation curve for expressing the speed is specified (or there is an attribute that determines the type of interpolation).
  • the present invention can also be expressed as the following first to ninth animation creation devices and a first recording medium.
  • the first animation creation device includes an analysis means for analyzing the text data described in accordance with certain strict rules, and a command (or a command necessary for generating the animation acquired by the analysis means).
  • Acquisition means for acquiring the parameter overnight state; and a text group relating to the components (feature information and motion information) of the animation from the text data based on the command acquired by the acquisition means.
  • Extracting means for extracting the text, a text editing means for editing the text group extracted by the extracting means, and an animation for generating an animation based on the command acquired by the acquiring means.
  • a generation unit for analyzing the text data described in accordance with certain strict rules, and a command (or a command necessary for generating the animation acquired by the analysis means).
  • the second animation creating device (which can correspond to a different animation playback engine) is the first animation creating device, wherein the acquisition means is configured to generate text and animation according to the rule. And a dictionary in which correspondences with commands (or parameter states) are registered.
  • the dictionary is referred to, and the command (or parameter state) is referred to.
  • the third animation creation device (object can be specified) further comprises a designation means for designating any one or more of the animation components in the first animation creation device.
  • the text group related to the specified element is limited from the extraction result by the extraction means.
  • the fourth animation creating device is the same as the first animation creating device, wherein at the time of animation reproduction and editing, the extracted text group is colored according to the constituent elements and the amount of change. In this configuration, the font, size, etc. are changed and displayed.
  • the fifth animation creation device is a configuration in which the first animation creation device dynamically displays a change amount of a component using a counter, a slider, or the like at the time of animation reproduction and editing. It is. Further, the sixth animation creating device is a configuration in which, in the first animation creating device, a graphic display means for graphically displaying an editing result by the text editing means is provided. .
  • the seventh animation creation device is the sixth animation creation device, further comprising: a graphic editing means for graphically editing a graphic displayed on the graphic display means.
  • a graphic editing means for graphically editing a graphic displayed on the graphic display means.
  • the eighth animation creating device is a configuration in which, in the first animation creating device, display means for displaying one or more key frames of the animation is further provided.
  • the ninth animation creating device may be configured to display the text extracted for the animation spanning the plurality of key frames side by side in the eighth animation creating device, and to perform a copy operation collectively. Then, the dictionary can be referred to and copied in accordance with the rules.
  • the first recording medium includes a data storage area in which strict rules are recorded, and input data described in text in accordance with the rules, analyzed in accordance with the rules, and a text constituting the data.
  • Analysis means for acquiring groups and their relationships; acquisition means for acquiring a command (or parameter state) for generating an animation from the text group acquired by the analysis means; Extraction means for extracting a text group related to the components (feature information and motion information) of the animation from the text group, and animation based on the command (or parameter state) acquired by the acquisition means.
  • a program including an instruction for causing a computer to execute the generation means for generating the program.
  • Chromatography is a recording medium readable.
  • the above object is achieved by analyzing means for analyzing text data described according to a strict rule such as XML, and a command (or parameter) required for generating an animation acquired by the analyzing means.
  • Acquisition means for acquiring an evening state
  • an extraction means for extracting a part relating to the components (characteristic information and motion information) of the animation from the text data, and one of the text data extracted by the extraction means.
  • an animation creating apparatus comprising: a text editing unit that edits a part; and an animation generation unit that generates an animation based on the command acquired by the acquisition unit. Is done.
  • the above parsing means is equivalent to a versa in XML.
  • the analysis means since the syntax is based on strict rules, the structure and contents of the sentence can be obtained more easily than analysis of natural language.
  • the analysis means simply reads a text file from above, generates an object corresponding to the evening as internal data according to rules, and inputs the contents of the evening as a parameter value. . Also, the analysis means may be set so as not to convert tags related to functions not present in the playback engine.
  • the acquisition means acquires (or converts) command / parameters for issuing a command to the animation reproduction engine from the internal data.
  • the first to ninth animation creation devices described above have different formats by providing an acquisition means for acquiring a command (or parameter state) necessary for creating an animation acquired by the analysis means. It can correspond to a regeneration engine. Further, a transmitting means for transmitting the input text data via a medium such as a floppy disk, optical communication, or a telephone line; and a receiving means for receiving the text data from another device via the medium are further provided. It is desirable to have.
  • a dictionary (or a dictionary) in which the correspondence between the text according to the rules and the command for generating the animation (or the parameter state) is registered.
  • a server such as a web server
  • Even different animation playback engines can send the version of the rules and the type and version of the playback engine to access the optimal dictionary. It is possible to
  • animation creation devices when an object in an image is selected, text data (source data) relating to the information of the object is not displayed.
  • the animation can be modified by editing the displayed data.
  • the data related to the movement of the selected object can be displayed by using a scroll bar or a power center, or by changing the arrangement method, so that the user can easily specify a portion to be edited. Also, since the input is based on text, it is possible to accurately input the position alignment and the like.
  • an animation that is played across multiple frames you can select objects and display related text side by side, so you can copy or cut and paste them all together. It is possible.
  • an animation that exists in key frames I to 3 can be copied to key frames 7 to 9. In this case, even if there is a time difference between the key frames, 1 and 7, 2 and 8, 3 and 9 may correspond, or if the key frame of 7 is pasted, the time of the copy source will be changed. A key frame may be created accordingly.
  • the editing device (the present editing device) ′ of the present invention is set so as to extract, from the specified data, the fluctuation parameters related to the change in the state of the object in the moving image. Then, it is set so that the extracted fluctuation parameters are corrected based on the user's instruction, and the specified data of the moving image is updated using the corrected fluctuation parameters.
  • the present invention can be suitably used for editing animations using computer graphics.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Processing Or Creating Images (AREA)

Description

明 細 書 動画像編集装置、 動画像編集方法、 動画像編集プログラム、 動画像編集 処理のためのコンピュータープログラムを記録した記録媒体 技術分野
本発明は、 規定データを用いて動画像を編集 (作成 · 修正) するため の動画像編集装置と、 この動画像編集装置において使用されている動画 像編集方法と、 動画像編集プログラムと、 動画像編集処理のためのコン ピュータープログラムを記録した記録媒体とに関するものである。 背景技術
従来、 コンピュータ一グラフィ ッ クスを用いてアニメ一ショ ン (動画 像) を作成できる、 アニメーショ ン作成装置が開発されている。
このようなアニメーショ ン作成装置では、 画像中の物体における形状 や動作を規定するデータ (アニメ規定データ) に基づいて、 アニメーシ ヨ ンを作成するよう になっている。
例えば、 文献① 『特開平 7 — 4 4 7 2 ' 9号公報 (日本国公開特許公報 公開曰 ; 1 9 9 5年 2月 1 4 日) 』 には、 ォブジヱク ト指向プログラム によってアニメーショ ンを作成するための C A Dシステム (設計支援シ ステム) が記載されている。
このシステムでは、 ォブジヱク ト指向プログラムに定められているィ ンスタンス (アニメ規定データの例) を選択することで、 設計対象 (ォ ブジエク ト) となる装置の部品や動作の種類に応じたアニメ規定データ を、 対話的に入力できるように設定されている。
また、 文献② 『特開平 9 - 1 6 7 2 5 1号公報 (日本国公開特許公報, 公開日 ; 1 9 9 7年 6月 2 4 日) 』 には、 アニメ規定データと して、 自 然言語 (一般文章に使用されるような表現からなる言語) を使用できる C A Dシステムが開示されている。
このシステムでは、 アニメ規定データとして入力された自然言語から なる文章を解析し、 文章を構成する語句や、 語句どう しの関連性を認識 するよう になつている。 そして、 認識した語句に応じて、 オブジェク ト の形状や動作に関するアニメーショ ン用のコマン ドを選択することで、 アニメーショ ンを作成するように設定されている。 ここで、 コマン ドと は、 アニメーショ ンの再生エンジンを駆動するための指示言語 (再生ェ ンジン用言語) のこ とである。
しかしながら、 文献①のシステムでは、 オブジェク トの形状変化や動 作を指定するアニメ規定データを、 イ ンスタ ンスとして登録されていな いものに設定したい場合には、 ォブジヱク ト指向プログラムに基づいて イ ンスタンスを新たに作成 ·登録する必要がある。
また、 文献②のシステムにおいても、 ォブジヱク トの形状変化 · 動作 を細かく修正するためには、 新たなコマン ドを生成し、 自然言語に対応 させて登録しておく必要がある。
このように、 これらのシステムでは、 アニメーショ ンにおけるォブジ ヱク トの形状変化や動作をユーザーの所望する状態とするためには、 ィ ンスタ ンスやコマン ドを新たに作成してシステムに登録しなければなら ない。 そして、 登録後、 イ ンスタンスゃ自然言語を用いてデータ入力を 行う こと となる。 このため、 アニメーショ ンの作成 · 修正処理 (編集処理) に関する簡 易化 · 時間短縮を図ることが困難であった。 発明の開示
本発明の目的は、 動画像の編集処理を容易に行う ことの可能な動画像 編集装置を提供するこ とにある。 ,
上記の目的を達成するために、 本発明の動画像編集装置 (本編集装 置) は、 動画像中におけるォブジヱク トの状態を規定するためのパラメ 一夕を含む規定データを用いて動画像を編集する動画像編集装置におい て、 ユーザーの指示を受け付ける入力部と、 上記の規定データから、 動 画像中におけるォブジェク トの状態変化に関わる変動パラメ一タを抽出 する抽出部と、 抽出された変動パラメータを、 ユーザ一の指示に従って 修正するとともに、 修正された変動パラメータを用いて規定データを更 新する修正部とを備えていることを特徴としている。
本編集装置は、 コンピュータ一グラフィ ッ クスを用いて動画像 (ァニ メ一シヨ ン等) を編集するための装置である。
一般に、 動画像は、 画像中のォブジェク ト (画像に登場する表示物 ; キャラクタ) における形状や動作を規定するデータ (規定データ) に基 づ.いて作成されるようになっている。 そして、 本編集装置では、 この規 定データを用いて、 動画像を編集するように設定されている。
特に、 本編集装置では、 抽出部によって、 動画像中におけるオブジェ ク 卜の状態変化に関わる変動パラメータを、 規定データから抽出するよ うに設定されている。
すなわち、 通常、 規定デー夕には、 各ォブジヱク トの形状や動作、 配 色等を規定するためのパラメ一夕が記載されている。 また、 オブジェク トのパラメータには、 動画像中でのォブジェク トの状態変化に関わつて 変化するもの (ォブジュク トの位置等) と、 状態変化に無関係な変化し ないもの (ォブジヱク トの名称等) とがある。 そして、 本編集装置では. 変化する方のパラメータを、 変動パラメ一夕として規定データから抽出' するようになつている。
そして、 修正部が、 ユーザ一の指示に基づいて、 抽出された変動パラ メータを修正する。 さ らに、 この修正部が、 修正された変動パラメータ を用いて、 動画像の規定データを更新するように設定されている。 これ により、 動画像を、 ユーザーの指示通りに編集できるようになつている, このように、 本編集装置では、 規定データから変動パラメータだけを 選択的に抽出するように設定されている。 これによ り、 全規定データに 対して直接的に編集を行う場合に比して、 動画像を容易に編集できるよ うになつている。
本発明のさ らに他の目的、 特徴、 および優れた点は、 以下に示す記載 によって十分わかるであろう。 また、 本発明の利益は、 添付図面を参照 した次の説明で明白になるであろう。 図面の簡単な説明
図 1 は、 本発明の一実施形態にかかるアニメ一ショ ン編集装置の動作 の流れを示すフローチャートである。
図 2は、 上記したアニメーショ ン編集装置の構成を示す説明図である < 図 3は、 図 2に示したアニメーショ ン編集装置において用いられてい る X M Lデータの例を示す説明図である。 図 4 ( a ) は、 図 3 に示した X M Lデータに応じたアニメーショ ンを 示す説明図であり、 図 4 ( b ) 〜 ( d ) は、 同じく図 3 に示した X M L データに応じたフレーム画像データを示す説明図である。
図 5は、 図 2 に示したアニメーショ ン編集装置における表示部の表示 画面を示す説明図である。 - 図 6は、 図 5 に示した表示画面における変動パラメータ画面の表示例 を示す説明図である。
図 7は、 図 5 に示した表示画面における変動パラメ一タ画面の他の表 示例を示す説明図である。
図 8は、 図 5に示した表示画面における変動パラメ一タ画面に表示さ れる再生タイマーを示す説明図である。
図 9は、 図 5に示した表示画面における変動パラメ一タ画面の表示例 の一部を示す説明図である。
図 1 0は、 図 4 ( a ) に示したアニメーショ ンを編集して得られるァ 二メ一シヨ ンを示す説明図である。
図 1 1 は、 図 1 0に示したアニメーショ ンに応じた X M Lデータを示 す説明図である。 '
図 1 2は、 図 4 ( a ) に示したアニメーショ ンを編集して得られる他 のアニメーショ ンを示す説明図である。
図 1 3は、 図 1 2に示したアニメ一シヨ ンに応じた X M Lデータを示 す説明図である。
図 1 4は、 図 4 ( a ) に示したアニメーショ ンを編集して得られる、 さ らに他のアニメ一ショ ンを示す説明図である。
図 1 5は、 図 5に示した表示画面の変動パラメータ画面に表示される. 差分情報を示す説明図である。
図 1 6は、 図 1 4 に示したアニメ一シヨ ンに応じた X M Lデータを示 す説明図である。
図 1 7は、 図 4 ( a ) に示したアニメ一シヨ ンを編集して得られる、 さ らに他のアニメーショ ンを示す説明図である。
El 1 8は、 図 1 7に示したアニメ一シヨ ンに応じた X M Lデータを示 す説明図である。
図 1 9は、 フ レーム画像データの例を示す説明図である。
図 2 0は、 図 1 9 に示したフレーム画像データのデータ構造を示す説 明図である。
図 2 1 は、 S V Gデータの例を示す説明図である。
図 2 2は、 S M I Lデータの例を示す説明図である。 発明を実施するための最良の形態
以下、 実施の形態により、 本発明をさ らに詳細に説明する。 なお、 本 発明は、 この実施形態により何ら限定されるものではない。
本実施の形態にかかるアニメーショ ン編集装置 (本アニメ編集装置) は、 画像中の物体における形状や動作特徴等に応じたデータ (アニメ規 定デ一夕) に基づいて、 アニメ一ショ ンを編集 (作成 · 修正) · 再生す るための装置である。
ここで、 アニメ一シヨ ンとは、 複数の静止画像 (静止画像デ一タ) を. 所定時間每に連続して (次々に) 表示することで得られる動画像である, そして、 本アニメ編集装置では、 アニメーショ ンに使用される静止画像 データを編集することで、 アニメーショ ンを編集するように設定されて いる。
そして、 特に、 本アニメ編集装置では、 アニメ規定デ一夕として、 X M L (Extensible Markup Language) 形式のテキス トデータ (XMLデ ータ) を使用できるように設定されているものである。
XM Lデータは、 テキス トデータ (文字コード用セッ トによって規定 されたデ一夕) でありながら、 装置 (あるいは、 装置において使用され ているアプリケーショ ンソフ ト) によって直接的に処理可能なデータの ように機能するものである。 従って、 ユーザーおよび装置の双方にとつ て、 扱いやすいデータであるといえる。
また、 XM Lでは、 データを構成する要素 (パラメ一タ) に、 それぞ れの内容を示す名前のタグが付けられるように設定されている。 従って. ユーザーは、 XM Lデータを読むことによって、 データ内容を容易に取 得できるようになっている。
なお、 XMLに関する詳細な説明については、 『標準 XML完全解 説』 (技術評論社, 著 ; XML/ S GMLサロン, 公開日 ; 1 9 9 8年 5月 1 5 日) 等に記載されている。
まず、 本アニメ編集装置の構成について説明する。
図 2 に示すように、 本アニメ編集装置は、 入力部 1 0 1 , 制御部 1 0 2 , 表示部 1 0 3, 内部データ記憶部 1 0 4, テキス ト編集部 1 0 5, グラフィ ッ ク編集部 1 0 6 , 変換辞書 1 0 7, アニメーショ ン再生部 1 0 9および変動パラメータ抽出部 1 1 0を備えている。 .
入力部 (入力部, ォブジュク ト指定部) 1 0 1 は、 本アニメ編集装置 にユーザーの指示を入力 .伝達するための、 テキス ト入力に適したキ一 ボードおよびマウス (ともに図示せず) を備えた入力装置である。 また、 この入力部 1 0 1 は、 F D (Floppy Disc ) , C D (Compact Disk) , M O (Magnetic-optical Disk ) , D V D (Digital Versati 1 e Disc) 等の記録媒体を読み取るための読取装置 (図示せず) を備えて おり、 これらに記録されている XMLデータ (アニメ規定デ一夕 ; 規定 データ) を読み取る機能も有している。
表示部 1 0 3は、 L C D (液晶ディスプレイ) や C RT (Cathode-Ra y Tube) からなる表示画面を有するモニタ一であり、 XMLデータや、 後述するフレーム画像データ、 アニメーショ ン等を表示できるものであ る。 なお、 表示部 1 0 3の表示画面については後述する。
内部データ記憶部 1 0 4は、 RAM (Random Access Memory) やハー ドデイスク等の記憶媒体からなるものである。 そして、 入力部 1 0 1 を 介して入力 ·編集された XM Lデータ、 および、 後述するフレーム画像 データ .を保存 (記憶) するものである。 なお、 内部データ記憶部 1 0 4 は、 これら X M Lデータおよびフレーム画像データを、 互いに対応させ て記憶するように設定されている。
変換辞書 1 0 7は、 R O M (Read Only Memory) や RAM, ハードデ イスク等の記憶媒体からなる。 そして、 XM Lデータの文法 (パラメ一 夕) と、 画像データの文法 (アニメーショ ン再生部 (再生エンジン) 1 0 9の命令コード) とを、 1対 1 で対応させて記憶しているものである < すなわち、 変換辞書 1 0 7は、 XM Lデータを、 再生ェンジンの命令コ —ドに変換するための対応表である。
なお、 画像データとは、 再生エンジンの命令コード (画像を表示する ためのコード) からなるデータである。 また、 本実施の形態では、 「画 像デ一夕の表示」 という表現を、 「画像データに応じた画像の表示」 と いう意味で用いること とする。
テキス ト編集部 (修正部, 規定データ表示部) 1 0 5は、 内部デ一夕 記憶部 1 0 4 に記憶された X MLデ一タを、 入力部 1 0 1 に入力される ユーザ—の指示に応じて編集するものである。 また、 テキス ト編集部
0 5は、 編集中の XM Lデータを、 表示部 1 0 3に表示させる機能も有 している。
図 3は、 XM Lデータの例を示す説明図である。 この図に示す例は、 図 4 ( a ) に示すアニメーショ ンを再生するためのものである。 このァ 二メーシヨ ンは、 円ォブジヱク ト 8 0 1および矩形オブジェク ト 8 0 2 を、 それぞれの基準点 (円ォブジヱク ト 8 0 1 の中心 F 1 , 矩形ォブジ ェク ト 8 0 2の角部 P 2 ) が E 1 〜E 3, K- 1 〜K 3 と変化するように. 移動させるものである。
図 3に示す XMLデータは、 Ε 1 〜Ε 3 (Κ 1 〜Κ 3 ) に対応する複 数のフレーム (キーフレーム) 1 〜 3から構成されている。 そして、 各 フ レーム 1 〜 3 には、 各フ レームの再生時間 (時間) と、 アニメ一ショ ンとして表示したい物体 (オブジェク ト ;表示物) の種類 (円, 矩形) と、 各ォブジ ク トの形状 ·位置とを規定する値 (位置, 半径, 高さ, 幅) とが、 タグに挟まれたパラメ一夕として記載されている。 なお、 こ の図に示す XM Lデ一夕の例では、 説明のために、 左端に 2桁の行番号 を付している。
ここで、 タグとは、 図 3の XM Lデータにおいて、 く (パラメータの 名称) >, くノ (パラメータの名称) >によって規定された記号である, 例えば、 図 3 に示すように、 各フ レーム 1 〜 3には、 時間 0, 1 , 4 での、 円オブジェク ト 8 0 1 における中心 Ρ 1 の位置 (X · Υ座標での 位置) および半径を示す値と、 矩形オブジェク ト 8 0 2 における角部 P 2の位置 (X · Y座標での位置) , 幅および高さを示す値とが、 各ォブ ジェク トの形状 ·位置を規定するパラメ一タとして示されている。
なお、 本アニメ編集装置では、 種類, 形状, 位置等の他に、 オブジェ ク トの色もパラメ一夕として設定できるようになつている。
また、 図 3では、 X M Lデータにおける 1, 1 1 , 1 2 , 2 2, 2 3 3 3行目のタグは、 フ レーム 'の (区切り) を示しており、 フレーム番号 をパラメータとするフ レームタグとなっている。 そして、 これらのフレ ームタグに挟まれたテキス トデータが、 各フレーム 1〜 3における、 各 オブジェク トのパラメ一夕となっている。
例えば、 フレーム 1 では、 2行目の時間タグに挟まれた数字が、 フ レ ーム 1 における再生時間 (アニメーショ ンの開始から何秒後に表示され るか) を示すパラメ一タとなっている。 - また、 3 · 6行目の円タグは、 2〜 5行目の内容が、 円オブジェク ト 8 0 1 のパラメータであることを示している。 すなわち、 4行目の位置 タグには、 円ォブジェク ト 8 0 1 の中心 F 1 における X座標 . Y座標が 記述されている。 また、 5行目の半径タグには、 円ォブジヱク ト 8 0 1 の半径 ( c m ) が示されている。
さ らに、 7 · 1 0行目の矩形タグは、 8〜 9行目の内容が、 矩形ォブ ジェク ト 8 0 2のパラメータであることを示している。 すなわち、 8行 目の位置夕グには、 矩形ォブジヱク ト 8 0 2の角部 P 2 における X座標 • Y座標が記述されている。 また、 9行目の高さタグおよび幅タグには. 矩形ォブジヱク ト 8 0 2 の高さ ( c m ) および幅 ( c m ) が示されてい る。 また、 図 2に示すテキス ト編集部 1 0 5は、 変換辞書 1 0 7を用いて、 X M Lデータの各フレームに応じた静止画像のデータ (フレーム画像デ —タ) を作成し、 内部データ記憶部 1 0 4に記憶させる機能も有してい る。
すなわち、 テキス ト編集部 1 0 5は、 変換辞書 1 0 Ίに従って、 X M Lデータのタグに応じたフレーム画像データを生成するように設定され ている。 なお、 テキス ト編集部 1 0 5は、 変換辞書 1 0 7に記載されて いない夕グについては、 フレーム画像データに反映しないようになって いる。
また、 テキス ト編集部 1 0 5は、 X M Lデータを編集したときには、 編集結果に応じて変換辞書 1 0 7を参照し、 フレーム画像データを修正 するように設定されている。 .
さ らに、 テキス ト編集部 1 0 5は、 後述するグラフィ ッ ク編集部 1 0 6によってフレーム画像データが編集されたときに、 編集結果に応じて 変換辞書 1 0 7 を参照し、 X M Lデ一夕を修正するようになつている。
グラフィ ッ ク編集部 (画像表示部) 1 0 6は、 フレーム画像デ一夕を 表示部 1 0 3に表示させるものである。 さ らに、 グラフィ ック編集部 1 0 6は、 入力部 1 0 1 に入力されるユーザーの指示に応じて、 フレーム 画像データを編集することもできる。
図 4 ( b ) 〜 ( d ) は、 図 3に示した X M Lデ一タにおける、 フレー ム 1 〜 3 に応じたフレーム画像データを示す説明図である。 この図に示 すように、 各フレーム画像データでは、 円ォプジヱク ト 8 0 1およぴ矩 形ォブジェク ト 8 0 2が、 図 3に示した X M Lデータの各フレーム 1 〜 3に記載されている形状 ·位置パラメータに従って描画されている。 図 2 に示すァ二-メーシヨ ン再生部 (画像表示部) 1 0 9は、 内部デー 夕記憶部 1 0 4に記憶されている X M Lデータを読み込み、 変換辞書 1 0 7を用いて後述するアニメーシヨ ンデータを作成し、 表示部 1 0 3 を' 用いて、 アニメ一ショ ンとして再生するものである。
なお、 アニメーショ ンデータとは、 X M Lデータ等のアニメ規定デー 夕の内容に応じた動画像データである。 すなわち、 アニメーショ ン再生 部 1 0 9は、 X M Lデータにおける各フレームに応じたフレ一ム画像デ —夕と、 各フレーム間を補間するための中間フレームの静止画像デ一夕 (中間画像データ) とを作成する。 そして、 アニメーショ ン再生部 1 0 9は、 これらの静止画像データを所定時間毎に連続して (次々に) 表示 するようなデー夕を、 アニメーショ ンデ一夕として作成するように設定 されている。 .
変動パラメータ抽出部 (抽出部, 変動パラメータ表示部) 1 1 .0は、 X M Lデ一夕から、 各フレーム間において変化しているパラメ一夕 (変 動パラメータ) を抽出して、 テキス トデータとして表示部 1 0 3に表示 するものである。
なお、 変動パラメ一タとしては、 例えば、 各ォブジヱク トにおける変 動する位置, 形状, 色等を挙げることができる。 また、 変動パラメ一夕 抽出部 1 1 0による変動パラメータの抽出処理については、 後に詳細に 説明する。
制御部 1 0 2は、 C P U ( Centra l Proces s i ng Un i t ) から構成され ている。 そして、 この制御部 1 0 2は、 本アニメ編集装置における上記 した各部材を制御して、 内部データ (X M Lデータおよびフレーム画像 デ一タ) の作成 · 修正 (編集) と、 アニメーショ ン (アニメーショ ンデ 一夕) の作成 · 再生とを実行させる機能を有するものであり、 本アニメ 編集装置の中枢部である。 - 次に、 表示部 1 0 3 の表示画面について説明する。
図 5は、 表示部 1 0 3 の表示画面 2 0 1 を示す説明図である。 この図 に示すように、 表示画面 2 0 1 は、 テキス ト編集画面 7 0 1 , グラフィ ッ ク編集画面 7 0 2 , 変動パラメータ画面 7 0 3 , 制御ボタン群 7 0 4 ; サムネィル表示部 7 0 5およびツールバー 7 0 6 を備えている。
テキス'ト編集画面 (規定データ表示部) 7 0 1 は、 X M Lデータの表 示画面である。 そして、 入力部 1 0 1 (主にキーポ一ド) によって、 テ キス ト編集画面 7 0 1 に表示されている X M Lデ一タを編集できるよう になっている。■ 、
. グラフイ ツ ク編集画面 (画像表示部) 7 0 2は、 フレーム画像デー夕 等の静止画像データ、 および、 アニメーショ ンを表示するための表示画 面である。 また、 グラフイ ツ ク編集画面 7 0- 2では、 入力部 1 0 1 (主 にマウス) を用いて、 表示されているフレ一ム画像デー夕を G U I ( Gr aph i cal User I n te rface ) によって編集できるように設定されている。 変動パラメ一夕画面 (変動パラメータ表示部) 7 0 3 は、 編集画面 7 0 1 - 7 0 において指定されたォブジェク トの変動パラメータを、 テ キス トデー夕として表示するための表示画面である。
制御ボタン群 7 0 4 は、 グラフイツ ク編集画面 7 0 2 に表示されるァ 二メーシヨ ンの、 再生, 早送り, 巻き戻し (早戻し) , 停止, 一時停止 を行うためのボタンを備えている。 また、 制御ボタン群 7 0 4 には、 グ ラフイ ツ ク編集画面 7 0 2 にフ レーム画像データが表示されている場合 に、 表示されるフ レーム画像データを、 現在表示されているフレーム画 像データにおける前後のフレーム画像データに変更するためのボタンも 備えられている。
サムネィル表示部 7 0 5は、 グラフイ ツ ク編集画面 7 0 2に表示され る各フレーム画像データにおけるサムネイル (サムネイル群) を表示す るための表示画面である。
ッ一ルバ一 7 0 6は、 グラフィ ック編集画面 7 0 2に表示されている フレーム画像データを編集するための、 各種のッ一ルキッ 卜の表示され た領域である。 ここで、 ツールキッ ト とは、 図形 (円, 四角形, 線分 等) をグラフイ ツ ク編集画面 7 0 2上で描画するためのアイコン群 (図 示せず) のことである。
また、 ッ一ルバ一 7 0 6には、 新たなフ レーム画像データの作成や、 フ レーム画像データの削除を指示するためのアイコン (図示せず) も表 示されている。
ここで、 表示画面 2 0 1 の使用例について説明する。 例えば、 図 4 ( a ) のように、 円オブジェク ト 8 0 1 の中心 P 1 が E 1〜 E 3 と移動 し、 それと同時に矩形ォブジェク ト 8 0 2の角部 P 2が K 1〜K 3 と移 動するようなアニメーショ ンを作成する場合、 ユーザーは、 制御ボタン 群 7 0 4あるいはサムネイル表示部 7 0 5 を用いて、 編集 (作成) する フレーム番号を選択する。
そして、 ツールバー 7 0 6のツールキッ トを用いて、:グラフィ ッ ク編 集画面 7 0 2上で、 図 4 ( b ) 〜 ( d ) に示すようなフレーム画像デ一 タを作成する。 すなわち、 フレーム 1〜 3において、 円オブジェク ト 8 0 1 を E 1〜 E 3に、 矩形ォブジェク ト 8 0 2 を K 1〜K 3にそれぞれ 配置する。 上記のような処理により、 各フレーム 1 〜 3のフレーム画像デ一夕が- グラフィ ッ ク編集部 1 0 6 (図 2参照) によつて更新 (編集) される。 そして、 この更新に応じて、 テキス ト編集部 1 0 5が、 X M Lデ一夕を 更新するとともに、 テキス ト編集画面 7 0 1 に、 更新後のフレーム画像 データに対応する X M Lデータを表示する。
なお、 フレーム画像データの作成時、 グラフィ ッ ク編集画面 7 0 2内 に、 各フ レーム 1 〜 3の再生時間 (あるいはフ レーム間の時間間隔) を テキス トで入力できるようなダイァログを表示し、 再生時間をユーザ一 に指定してもらうようにしてもよい。
また、 サムネイル表示部 7 0 5に、 各フレーム 1 〜 3の再生時間 (あ るいはフレーム間の時間間隔) を指定 (制御) するための、 スクロール バ一を備えるようにしてもよい。
次に、 変動パラメータ抽出部 1 1 0における変動パラメータの抽出処 理について説明する。
図 6は、 表示画面 2 0 1 における変動パラメ一タ画面 7 0 3の表示例 を示す説明図である。. この図に示す例では、 図 4 ( a ) に示したアニメ ーショ ンにおける円ォブジェク ト 8 0 1 の位置が、 変動パラメータ情報 1 0 0 1 として抽出されて表示されている。
変動パラメ一夕抽出部 1 1 0は、 テキス ト編集画面 7 0 1 において、 図 3に示した X M Lデ一夕における円タグが選択されたとき、 あるいは グラフィ ッ ク編集画面 Ί 0 2において円ォブジェク ト 8 0 1 が選択され たときに、 円オブジェク ト 8 0 1 に着目する。
そして、 円ォブジェク ト 8 0 1 における、 各フレーム 1 〜 3において 変動するパラメータ (図 4 ( a ) の例では中心 F 1 の位置) を検索 · 抽 W 01 93206
1 6 出し、 テキス トデータからなる変動パラメータ情報 1 0 0 1 として変動 パラメータ画面 7 0 3 に表示するようになつている。
さ らに、 変動パラメ一夕抽出部 1 1 0は、 各フレーム 1 ~ 3間での変 動パラメ-—夕の差分値を検出し、 テキス トデータからなる差分情報 1 0 0 3 として.変動パラメ一夕画面 7 0 3に表示するようになつている。 こ こで、 図 6 の差分情報 1 0 0 3 における 「 1 〜 2」 は、 フレーム 1 とフ レーム 2 との間における差分情報の欄であることを示している。
また、 変動パラメ一夕抽出部 1 1 0は、 円タグ (あるいは円オブジェ ク ト 8 0 1 ) の選択された状態でアニメーショ ンが再生されたとき、 お よび、 アニメーショ ンの再生中に円夕グが選択されたときには、 図 7に 示すように、 上記の情報 1 0 0 1 · 1 0 0 3に加えて、 グラフィッ ク編 集画面 7 0 2 において再生中 (表示中) の中間画像データ (およびフレ —ム画像データ) における変動パラメータの値を、 再生情報 1 0 0 2 と して変動パラメータ画面 7 0 3に逐次的に表示するように設定されてい る。
なお、 上記したように、 中間画像データとは、 フレーム画像データ間 を補間するための中間フレームの静止函像データのことである。 また、 図 7の差分情報 1 0 0 3における 「 2〜中」 は、 フレーム 2 と再生中の 中間フレームとの間における差分情報の欄であることを示している。 また、 変動パラメ一夕抽出部 1 1 0は、 アニメ一ショ ンの再生時にお ける抽出処理の際には、 各フ レーム 1 〜 3の時間的な関係や再生時間を 示すために、 図 8に示すような再生タイマ一 1 1 0 0 を、 変動パラメ一 夕画面 7 0 3 に表示するようにしてもよい。
この再生タイマ一 1 1 0 0には、 時間軸 1 1 0 1、 時間軸 1 1 0 1上 での各フレーム 1 〜 3の位置 T 1 〜T 3、 および、 グラフイ ツク編集画 面 7 0 2において再生中のフレーム (中間フレームを含む) の位置を示 すスラィダー 1 1 0 5が表示されるように設定されている。
次に、 本アニメ編集装置の動作について説明する。
図 1 は、 本ァ.ニメ編集装置の動作の流れを示す説明図である。 なお、 この図に示す動作は、 ユーザ一の入力に基づいてフレーム画像デ一夕 - X M Lデータを作成し、 これに基づいてアニメ一シヨ ンを再生し、 さ ら に、 ユーザーの入力に基づいて X M Lデータを修正する、 という もので ある Q
図 1 に示すように、 ユーザーは、 入力部 1 0 1 を用いて、 表示部 1 0 3のグラフィ ッ ク編集画面 7 0 2上に、 点や線等の集合からなるォブジ ェク トを作成 ' 配置して、 図 4 ( b ) 〜 ( d ) に示すようなフ レーム画 像データを編集 (作成) する ( S 2 0 1 ) 。
これに応じて、 制御部 1 0 2は、 グラフイ ツ ク編集部 1 0 6 を制御し て、 これらの静止画像データをフレーム画像データとして認識させると ともに、 認識したフレーム画像データを内部データ記憶部 1 0 4 に記憶 させる。
また、 このとき、 制御部 1 0 2は、 テキス ト編集部 1 0 5を制御して 内部データ記憶部 1 0 4記憶されたフレーム画像データに応じた X M L データを作成させ、 同様に内部デ一夕記憶部 1 0 4 に記憶させる。
次に、 制御部 1 0 2 は、 内部データ記憶部 1 0 4 に記憶されている X M Lデータを、 アニメ一ショ ン再生部 1 0 9に送る。 そして、 アニメ一 シヨ ン再生部 1 0 9 を制御して、 X M Lデータからアニメーショ ンデ一 夕を作成させ、 表示部 1 0 3のグラフイツク編集画面 7 0 2を用いて再 生させる ( S 2 0 2 ) 。
その後、 ユーザーは、 再生されたアニメ一シヨ ンの適否を判断する ( S 2 0 3 ) 。 そして、 ュ一ザ一は、 アニメーショ ンが所望のものであ ると判断した場合には、 処理を終了する。
一方、 アニメーショ ンに修正したい箇所のある場合には、 ユーザ一は. 入力部 1 0 1 を介してその旨を制御部 1 0 2に伝達する。 すなわち、 ュ 一ザ一は、 マウスで所定の部位をク リ ッ クするか、 キーポ一ドによって 所定の指示 (操作) を入力する。
これに応じて、 制御部 1 0 2は、 グラフィッ ク編集部 1 0 6 を制御し て、 フレーム画像デー夕の 1 つを表示部 1 0 3のグラフイ ツ ク編集画面 7 0 2 に表示させる。
その後、 ユーザ一は、 表示されたフ レーム画像データにおける、 修正 箇所に関するオブジェク ト (形状や動きを修正したいオブジェク ト) を. 入力部 1 0 1 を用いて選択する ( S 2 0 4 ) 。
'次に、 制御部 1 0 2は、 アニメ一ショ ン再生部 1 0 9を制御してァニ メ一ショ ンを再生させるとともに ( S 2 0 5 ) 、 変動パラメ一夕抽出部 1 1 0 を制御して、 選択されたォブジェク トにおける変動パラメータを 抽出させ、 図 7に示すように、 変動パラメータ画面 7 0 3に表示させる ( S 2 0 6 ) 。
なお、 S 2 0 6では、 制御部 1 0 2が、 選択されたオブジェク トに関 する X M Lデータを、 変動パラメ一夕抽出部 1 1 0 に伝達する。 これに 応じて、 変動パラメ一夕抽出部 1 1 0が、 選択されたオブジェク トにお ける中間フ レームでのパラメ一夕の変化を監視する。 そして、 変動して いるパラメ一夕を検出して、 変動パラメ一夕画面 7 0 3 に表示するよう に設定されている。 '
次に、 ユーザーは、 制御ボタン群 7 0 4 の停止ボタンを用いて、 編集 したい場面でアニメ一ショ ンを停止させる ( S 2 0 7 ) 。 そして、 変動 パラメ一夕画面 7 0 3に表示されている変動パラメ一夕情報 1 0 0 1 , 再生情報 1 0 0 2あるいは差分情報 1 0 0 3 を編集することによって、 変動パラメ一夕の値を編集 (修正) し ( S 2 0 8 ) 、 S 2 0 2に戻る。
ここで、 変動パラメータの編集例について説明する。
例えば、 図 7に示した中間フレームに関する再生情報 1 0 0 2の X座 標を、 S 2 0 8の処理において、 変動パラメ一夕画面 7 0 3上で図 9に 示すような値に編集したとする。 この編集は、 図 1 0に示すように、 円 オブジェク ト 8 0 1 における E 2 · E 3の間の移動状態を変更するもの である。 '
すなわち、 図 7に示した再生情報 1 0 0 2では、 この中間フレームの 再生時間における円オブジェク ト 8 0 1 の中心 F 1 が、 E 4 (図 1 0参 照) に位置するように設定されている。 そして、 上記の編集は、 同様の 再生時間における円オブジェク ト 8 0 1 の位置を、 E 5に変更するもの である。
上記の編集が行われると、 制御部 1 0 2は、 テキス ト編集部 1 0 5を 制御し、 編集された変動パラメータに応じたキーフレ一ムを作成させて XM Lデータに加えさせる (X M Lデータを変更させる) 。 さ らに、 テ キス ト編集部 1 0 5を制御して、 追加したキ一フ レームに応じた、 新た なフレーム画像デ一タを作成させる。
図 1 1 は、 XM Lデータの変更部分を示す説明図である。 変更後の X M Lデータは、 変更前の X M Lデータ (図 3 ) と、 1 ~ 2 2行目までは 同一である。 そして、 図 1 1 に示す変更部分では、 変更前の X M Lデ一 夕におけるフレーム 3が、 フ レーム 4 として、 3 4〜 4 4行目に酉 置さ れている (新たなキーフレームの追加によって、 フレーム番号が更新さ れている) 。 そして、 1 3〜 3 3 '行目に、 新たなキーフレームがフレー ム 3 と して挿入されている。
新たに揷入されたフレーム 3は、 図 7 (図 9 ) に示した再生情報 1 0 0 2に応じた中間フレームの再生時間である時間 3のキーフレームであ る。 また、 このフ レーム 3は、 時間 3での円オブジェク ト 8 0 1 の中心 P 1 が、 E 5 (図 1 0参照) に配置されることを示している。
さ らに、 このフ レーム 3は、 時間 3の矩形ォブジェク ト 8 0 2の角部 P 2が、 K 4 (図 1 0参照) に配置されることも示している。 この K 4 は、 X M Lデータの変更前の時間 3における、 矩形オブジェク ト 8 0 2 の位置と同一である。
次に、 図 4 ( a .) に示すアニメ一シヨ ンを図 1 2に示すように編集す る例、 すなわち、 矩形オブジェク ト 8 0 2の移動状態を、 円ォブジェク ト 8 0 1 と同一の状態に編集する例 (移動状態の複写に関する例) につ いて説明する。
図 6あるいは図 7に示すように、 変動パラメ一夕画面 7 0 3では、 円 ォブジェク ト 8 0 1 の位置パラメ一タが、 変動パラメータ情報 1 0 0 1 として一覧表示 (並べて表示) されている。
そこで、 円オブジェク ト 8 0 1 の移動状態を複写したい場合には、 ま ず、 ユーザーは、 円オブジェク ト 8 0 1 の全ての位置パラメ一タ (図 6 に示した変動パラメ一タ情報 1 0 0 1 の全体) を一時的にコピーする。 なお、 このコピーは、 マウスあるいはキーボードによって、 変動パラ メ一夕情報 1 0 0 1 の全体を選択 ( ドラッグ) し、 制御部 1 0 2 の制御 する所定の記憶領域 (ク リ ップボード (図示せず) 等; 内部データ記憶 部 1 0 4でもよい) に保存することによって実現できる。
その後、 ュ一ザ一は、 テキス ト編集画面 7 0 1 あるいはグラフィ ッ ク 編集画面 7 0 2上で、 矩形タグあるいは矩形ォブジヱク ト 8 0 2 を指定 する。 これによ り、 変動パラメータ画面 7 0 3において、 矩形オブジェ ク ト δ 0 2の位置パラメ一夕が、 変動パラメ一夕情報 1 0 0 1 として表 示される。
そして、 一時的に記憶している円オブジェク ト 8 0 1 の位置パラメ一 タき、 変動パラメータ情報 1 0 0 1 として表示されている矩形オブジェ ク ト 8 0 2の位置パラメータ上に張り付ける (上書きする) 。 これによ り、 矩形ォブジヱク ト 8 0 2の移動状態を、 円オブジェク ト 8 0 1 と同 様に編集できる。
図 i 3は、 この編集処理を施された X M Lデータを示す説明図である, この図に示すように、 編集後の X M Lデータでは、 4, 1 5, 2 6行目 に記載の円オブジェク ト 8 0 1 の位置パラメ一夕が、 8 , 1 9 , 3 0行 目の矩形オブジェク ト 8 0 2の位置パラメ一夕として上書き複写されて いる。
次に、 図 4 ( a ) に示したアニメーショ ンを図 1 4 のように編集する 例、 すなわち、 矩形オブジェク ト 8 0 2の移動状態を、 円ォブジヱク ト 8 0 1 と平行移動するような状態に編集する例 (移動べク トルの複写に 関する例) について説明する。
図 6 (あるいは図 7 ) に示すように、 変動パラメ一タ画面 7 0 3では 円オブジェク ト 8 0 1 における位置パラメータの差分値が、 変動パラメ 一夕情報 1 0 0 1 として一覧表示 (並べて表示) されている。 - そこで、 まず、 ユーザーは、 図 1 5に示す円ォブジヱク ト 8 0 1 の差 分情報 1 0 0 3の全体を、 一時的にコピーする。 その後、 ユーザ一は、 編集画面 7 0 1 * 7 0 2上で、 矩形タグあるいは矩形ォブジヱク ト 8 0 2 を指定する。 これによ り、 変動パラメ一タ画面 7 0 3において、 矩形 オブジェク ト 8 0 2 における位置パラメ一夕の差分値が、 差分情報 1 0 0 3 として表示される。
そして、 一時的に記憶している円ォブジヱク ト 8 0 1 の差分値を、 差 分情報 1 0 0 3 として表示されている矩形オブジェク ト 8 0 2 の差分値 上に張り付ける (上書きする) 。 これにより、 矩形オブジェク ト 8 0 2 の移動状態を、 円オブジェク ト 8 0 1 と平行移動するような状態 (K 1 →K 5→K 6 と移動する状態) に編集できる。 すなわち、 矩形ォブジヱ ク ト 8 0 2の移動べク トル (動きのべク トル) を、 円ォブジェク ト 8 0 1 の移動べク トルと同様とするように編集できる。
図 1 6は、 この編集処理を施された X M Lデータを示す説明図である, この図に示すように、 編集後の X M Lデータでは、 8行目に記載の矩形 オブジェク ト 8 0 2の位置パラメ一タに図 1 5に示した差分値を加えた 値が、 1 9 , 3 0行目に記載されている。
また、 差分値の複写を、 フレームを指定して行うこともできる。 例え ば、 矩形オブジェク ト 8 0 2における位置パラメ一夕の差分値を、 矩形 オブジェク ト 8 0 2のフレーム 2以降に複写すると、 図 1 7に示すよう なアニメ一ショ ンを作成できる。
また、 このとき、 矩形オブジェク ト 8 0 2の移動速度 (速さ) を円ォ ブジェク ト 8 0 1 と同様とする場合には、 図 1 8のように、 K 1 1 を開 始から t秒後の位置、 K 1 3 を開始から 5秒後の位置とするように編集 すればよい。 また、 必ずしも移動速度を考慮しなく てもよい。
以上のよう に、 本アニメ編集装置では、 変動パラメータ抽出部 1 1 0 によって、 アニメーショ ン中におけるォブジヱク トの状態変化に関わる 変動パラメ一夕を、 X M Lデータから抽出するように設定されている。 そして、 テキス ト編集部 1 0 5が、 ユーザ一の指示に基づいて、 抽出さ れた変動パラメータを修正し、 修正された変動パラメ一タを用いて、 X M Lデータを更新するように設定されている。 これによ り、 アニメーシ ヨ ンを、 ユーザ一の指示通りに編集できるようになつている。
このように、 本アニメ編集装置では、 X M Lデータから変動パラメ一 夕だけ.を選択的に抽出するように設定されている。 これによ り、 X M L データの全体に対して直接的に編集を行う場合に比して、 アニメ—ショ ンを容易に編集できるようになつている。
また、 本アニメ編集装置では、 編集画面 7 0 1 · 7 0 2 を用いて、 変 動パラメータを抽出すべきオブジェク トを指定できるようになつている ( すなわち、 ユーザ一の所望とするオブジェク トに関する変動パラメ一夕 だけを抽出できる。 これによ り、 変動パラメ一夕の抽出量を絞るこ とが 可能となり、 アニメーショ ンをよ り容易に編集できる。
また、 本アニメ編集装置では、 変動パラメータ抽出部 1 1 0 によって 抽出された変動パラメータを、 変動パラメ一タ画面 7 0 3で表示するよ うになつている。 そして、 テキス ト編集部 1 0 5が、 画面 7 0 3上の変 動パラメ一夕をユーザーの入力に従って修正するように設定されている, すなわち、 表示された変動パラメ一タに対して直接的に修正を施せるた め、 コマン ドやイ ンスタ ンスを定義 ' 選択することでパラメ一夕を変更 する構成に比して、 アニメ一ショ ンの編集処理を容易に行える。
また、 本アニメ編集装置では、 変動パラメータ画面 7 0 3 に表示され た変動パラメ一夕を記憶 (コピー) し、 これを用いて、 変動パラメ一タ の修正を行えるように設定されている。 従って、 ユーザ一は、 記憶され た値を用いるように指示するだけで、 変 ¾パラメ―夕を修正できる。
また、 上記したグラフィ ッ ク編集画面 7 0 2 によってアニメーシ ョ ン を再生させる場合、 変動パラメ一タ抽出部 1 1 0が、 アニメーシ ョ ン中 のォブジェク トにおける変動パラメ一夕の値を、 逐次的に表示するよう に設定されている。 これによ り、 ユーザーは、 変動パラメ一夕の変遷を たどれるので、 修正に用いるべき値 (パラメ一タ値) を容易に想定でき る。
なお、 本実施の形態では、 変動パラメータ抽出部 1 1 0 が、 選択した ォブジヱク トにおける変動パラメ一タを抽出して変動パラメータ画面 7 0 3 に表示する と している。 しかしながら、 オブジェク ト どう しが密接 に関係している場合には、 これに限らない。
例えば、 図 1 ' 9 に示すよう に、 頭ォブジヱク ト 6 0 1 および胴体ォブ ジェク ト 6 0 2 で構成されているキャラクタオブジェク ト 6 0 4 が、 台 車オブジェ ク ト 6 0 3 に載置されているような画像に応じたフ レーム画 像データは、 図 2 0 に示すようなデータ構造 (内部データ構造) を有し ている。
すなわち、 このフ レーム画像デ一夕では、 キャラク タオブジェク ト 6 0 4が、 台車オブジェ ク ト 6 0 3の子オブジェク ト となっている。 さ ら に、 頭ォブジェク ト 6 0 1 および胴体ォブジェク ト 6 0 2 が、 キャラク タォブジェ ク ト 6 0 4 の子ォブジュク ト となっている。 この場合、 台車ォブジェク ト 6 0 3 の位置パラメ一夕 (動き) は、 キ ャラク タオブジェク ト 6 0 4 の位置パラメータに影響を与える。 また、 キャラク タォブジヱク ト 6 0 4 の位置パラメ一タは、 頭ォブジェク ト 6 0 1 および胴体才ブジヱク ト 6 0 2の位置パラメータに影響を与える。 従って、 頭オブジェク ト 6 0 1 が選択された場合、 変動パラメ一夕抽 出部 1 1 0 は、 キャラ ク タオブジェク ト 6 0 4 および台車オブジェク ト 6 0 3 の位置パラメ一夕についても着目 (監視) するこ とが好ま しい。 そして、 変動パラメ一タ抽出部 1 1 0は、 頭オブジェ ク ト 6 0 1 自身 には変化のない場合でも、 オブジェク ト 6 0 3 · 6 0 4 の変化に応じて 頭ォブジェク ト 6 0 1 の位置パラメ一タが変化した場合 (オブジェク ト 6 0 3 - 6 0 4 の変化が頭ォブジェク ト 6 0 1 に影響した塲合) には、 この変化についても変動パラメータ画面 7 0 3 に表示するように設定さ れている ことが好ま しい。
なお、 オブジェク ト とタグ (X M Lデータのタグ) とは、 互いに対応 づけられている。 このため、 選択されたオブジェク 卜のタグ、 および、 そのオブジェク トに影響を与えるオブジェク トのタグと、 その内容 (パ ラメータの内容) とを、 テキス ト編集画面 7 0 1 あるいは変動パラメ一 タ画面 7 0 3 に表示 (テキス ト表示) することは容易である。
また、 図 7 において、 現在再生されている時間 (中間フレームの再生 時間 ; 図 8のスライダー 1 1 0 5 に示されている時間) に、 図 4 ( d ) の位置に円ォブジヱク ト 8 0 1 を到達させたい場合には、 変動パラメ一 夕情報 1 0 0 1 におけるフ レーム 3 の内容を再生情報 1 0 0 2 にコピー すればよい。 これによ り、 自動的に、 現在の再生時間に関するキーフ レ —ムが新たに生成される。 そして、 このキーフ レームの生成結果は、 フ レーム画像データおよび X M Lデータに反映される。 これによ り、 所望 のアニメーショ ン編集を実現できる。 また、 本実施の形態では、 抽出した変動パラメータを、 変動パラメ一 夕情報 1 0 0 1 として変動パラメ一夕画面 7 0 3に一覧表示するとして いる。 しかしながら、 これに限らず、 変動パラメータ画面 7 0 3には、 再生情報 1 0 0 2だけを表示するようにしてもよい。
この場合、 例えば、 矩形ォブジヱク ト 8 0 2の移動状態を円ォブジヱ ク ト 8 0 1 と同様としたい場合には、 以下の処理を行う。 すなわち、 再 生情報 1 0 0 2 に表示される円ォブジヱク ト 8 0 1 の全変動パラメ一タ (位置) をコピ一する。 その後、 矩形ォブジヱク ト 8 0 2の変動パラメ 一夕 (位置) を再生情報 1 0 0 2 として表示させ、 この再生情報 1 0 0 2に、 コピーしたパラメータを上書き複 する。 .
また、 本実施の形態では、 変動パラメータ画面 7 0 3 における再生情 報 1 0 0 2 に示された変動パラメータを修正する例を示したが、 変動パ ラメ一夕情報 1 0 0 1 を修正することも可能である。 また、 再生情報 1 0 0 2 の内容を、 変動パラメ一タ情報 1 0 0 1 の一部 (あるいは全部) にコピーすることもできる。 これにより、 既存のフレームにおける変動 パラメ一タを修正できる。 また、 変動パラメ一夕情報 1 0 0 1 を一時的 に記憶する (コピーする) 際には、 変動パラメータ情報 1 0 0 1 の内容 をコピー直前に修正することもできる。
また、 変動パラメータ抽出部 1 1 0は、 選択されたフ レーム以降の変 動パラメータだけを抽出するように設定されていてもよい。 また、 選択 されたフレームとその前後のフレ一ムの変動パラメ一タだけを抽出して もよい。 また、 変動パラメ一夕抽出部 1 1 0は、 再生情報 1 0 0 2 とし て変動パラメ一夕以外の情報を表示し、 これを編集できるように設定し てもよい。
また、 抽出した変動パラメータとそれ以外の部分とを、 ともに表示す るようにしてもよい。 この場合、 変動パラメ一夕における文字のサイズ, 色, フォン ト, 修飾形式 (書体や線の太さ) 等の表示形態を、 他の部分 (テキス ト編集画面 7 0 1 に表示されている X M Lデータ等) と変更し、 変動パラメータを強調表示することが好ましい。
すなわち、 変動パラメ一タ抽出部 1 1 0は、 変動パラメ一タ画面 7 0 3 における変動パラメ一夕情報 1 0 0 1 の表示形態を、 テキス ト編集画 面 7 0 1 におけるテキス ト (X M Lデ一夕) の表示形態とは異なるよう に設定 (変更) することが好ましい。 しかしながら、 必ずしもこの設定 (変更) を行う必要はない。
また、 変動パラメータ抽出部 1 1 0は、 ォブジ ク トの特徴情報や動 き情報を抽出するように設定されていてもよい。 ここで、 特徴情報とは- 中心位置の移動を伴わないようなォブジ ク トの変化に関わる変動パラ メータである。 また、 動き情報とは、 中心位置の移動を伴うオブジェク トの変化に関わる変動パラメータである。
また、 特徴情報を、 多角形の頂点のそれぞれの座標値やそれぞれの領 域における色、 複数の点を曲線 (例えば s i n関数) でつなぐのか直線 でつなぐのか等の形状情報や色についての情報としてもよい。 また、 動 き情報を、 座標値等がフレーム間で変化した場合の差分についての情報 と してもよい。
また、 本実施の形態では、 変動パラメータ抽出部 1 1 0が、 再生タイ マ一 1 1 0 0 によって再生時間 (再生中の時間) を示すとしている。 し かしながら、 これに限らず、 カウンタによつて再生時間を提示してもよ い。
また、 X M Lデータに、 同一のフレームを繰り返して再生することを 指示するコマン ドを記載するようにしてもよい。 そして、 変動パラメ一 夕抽出部 1 1 0 によって、 このようなコマン ドを抽出させて、 変動パ'ラ メータ画面 7 0 3 に表示きせるように設定してもよい。
このよう にすれば、 上記のようなコマン ド (コマン ドのパラメータ) を、 変動パラメ一夕と同様に編集できる。 また、 コマン ドを、 特定のフ レーム間を指定回数だけ繰り返してアニメーショ ンさせる等の、 フ レー ムの関係等についての情報としてもよい。 ' また、 本実施の形態では、 アニメ規定データ と して、 X M L ( EXtens i b l e Markup Language ) 形式のテキス トデータ (X M Lデータ) を使用 する と している。 しかしながら、 本アニメ編集装置においてアニメ規定 データ として使用できるデータは、 X M Lデータに限らない。 すなわち 本アニメ編集装置では、 変換辞書 1 0 7の内容を変更することで、 どの ようなデ一夕でも使用することが可能である。
特に、 本アニメ編集装置では、 アニメ規定データと して、 厳密な規則 に従つて記述されたテキス トデータを用いることが好ま しい。 このよう なデータを用いれば、 変換辞書 1 0 7 を容易に作成 (準備) できる。
ここで、 厳密な規則に従って記述されたテキス トデータとは、 一意に データの構造を把握でき、 (アプリケーショ ンが読み込めるように) 人 間が見ても意味がわかるようなタグの付けられたものである といえる。 また、 アニメ規定データとして、 本アニメ編集装置に認識可能なテキス トデータを用いることが好ま しいといえる。 W 01 93206
2 9 また、 テキス トデー夕を用.いれば、 テキス ト編集画面 7 0 1 や変動パ ラメ一タ画面' 7 0 3 にアニメ規定デ一タゃ変動パラメ一タを表示する際、 ユーザーに認知できる形式のデータに変換する必要がない。 従って、 デ ―タの表示を容易に行えるという利点がある。
また、 アニメ規定デ一タと してテキス トデ一タを用いない場合には、 テキス ト編集画面 7 0 1 や変動パラメータ画面 7 0 3 にアニメ規定デ一 夕や変動パラメ一夕を表示す.る際、 これらをユーザ一に認知できる形式 に変換して表示するこ とが好ま しい。
また、 本アニメ編集装置のアニメーショ ン再生部 1 0 9 としては、 ど のような形式の再生エンジンを用いてもよい。 また、 再生エンジンを変 更する場合には、 アニメ規定データを変更する場合と同様に、 変換辞書 1 0 7の内容を変更することが好ま しい。 .
また、 内部データ記憶部 1 . 0 4 に記憶されるフレーム画像データ (内 部データ) は、 命令コードとパラメータの組み合わせである。 従って、 パラメ一タ値によって、 X M Lデータと対応する命令コードは変化する < 例えば、 円ォブジェ ク トにおいては、 半径パラメ一夕の値が 5 c m未 満の場合、 命令コー ドにおける制御点が 4つとなる ( 4 つの制御点を有 する円が生成される) 。 また、 半径パラメータが 5 c m以上の場合、 命 令コー ドの制御点は 8つとなる ( 8つの制御点を有する円が生成され る) 。
また、 本実施の形態では、 制御部 1 0 2が C F Uから構成されている としている。 しかしながら、 本アニメ編集装置における制御部 1 0 2 , テキス ト編集部 1 0 5 , グラフイ ツ ク編集部 1 0 6 , アニメーショ ン再 生部 1 0 9および変動パラメータ抽出部 1 1 0 を、 1 つの C P Uから構 W 01 93206
3 0 ' 成してもよい。
また、 同様に、 本アニメ編集装置における内部データ記憶部 1 0 4、 変換辞書. 1 0 7、 および、 変動パラメータ情報 1 0 0 1 , 再生情報 1 0 0 2 , 差分情報 1 0 0' 3の内容を一時的に記憶するための記憶部を、 1 つの記憶装置から構成してもよい。
また、—本アニメ編集装置では、 アニメーショ ン再生部 1 0 9が、 キー フレームに基づいて、 補間処理によってキーフレーム間の中間的な画像 を生成し、 アニメーショ ンデータを作成するとしている。 しかしながら これに限らず、 キ一フレームに応じた静止画像デ一夕 (フレーム画像デ —夕) だけを用いて、 アニメーショ ンを再生するようにしてもよい。
また、 本実施の形態では、 アニメ一ショ ン再生部 1 0 9が、 X M Lデ —夕における各フ レームに応じたフ レーム画像データと、 各フレーム間 を補間するための中間画像データとを作成し、 これらの静止画像デ一夕 を所定時間毎に連続して (次々に) 表示するようなデータを、 アニメ一 シヨ ンデータとして作成するとしている。
これに加えて、 本アニメ編集装置では、 アニメーショ ン再生部 1 0 9 における X M Lデータの解釈方法に自由度を与えるようにしてもよい。 これにより、 アニメ一ショ ン再生部 1 0 9は、 X M Lデ一タに基づいて. 補間やフィルタ リ ングをより良好に行えることとなる。
この構成では、 例えば、 0秒のとき A地点にあったォブジ ク トが、 3秒後のとき B地点、 5秒後に C地点へと移動するというようなことが X M Lデータ(こ記録されている場合、 アニメ一ショ ン再生部 1 0 9は、 1秒後にオブジェク トが中間的な位置( Aと B との間の位置) に存在す ることを示す中間画像デ一タを作成することが可能である。 また、 アニメーシ ョ ン再生部 1 0 9 は、 オブジェク トが B地点にある 3秒後の状態を表示させないような、 アニメーショ ンデータを作成する こともできる。 また、 X M Lデータに、 アニメーショ ン再生部 1 0 9側 によるデータ解釈に自由度を与えることを示すフラグを立てるよう にし てもよい。 '
さ らに、 アニメ一ショ ン再生部 1 0 9 は、 複数のァニメ一ショ ンデー 夕を用意しておき、 マウスク リ ツ ク等によるユーザ一の選択指示に応じ て、 グラフィ ッ ク編集画面 7 0 2 に表示するアニメ一ショ ンを変更する こともできる。
また、 アニメーショ ン再生部 1 0 9 は、 複数のアニメ一ショ ンデ一夕 を含むようなアニメ一ショ ンデ一夕を作成することもできる。 すなわち- 複数のアニメ一ショ ンデータを用意しておき、 ユーザ一め選択指示に応 じた方のデー夕を表示するようなアニメーショ ンデータを作成するこ と もできる。
また、 アニメーショ ン再生部 1 0 9 は、 X M Lデータに基づいてァニ メーショ ンデ一夕を作成する ときに、 X M Lデ一タにおけるフ レーム画 像デ一タの表示順序を変更したり、 特定のフレーム画像データを繰り返 し表示したりするアニメーショ ンを作成することもできる。
また、 アニメーショ ン再生部 1 0 9 は、 アニメーショ ンデータと して. 1 つの静止画像データ (フレーム画像データあるいは中間画像デ一夕) に、 他の静止画像データを重ねて表示するようなデー夕を作成するこ と もできる。
例えば、 静止画像データ A , B , Cを用いて、 静止画像データ Aを背 景に設定して静止画像データ Bをその上に重ねたものを 1 つの静止画像 デ一タ (A+'B) として設定'できる。 また、 このとき、 静止画像デ一夕 Aを背景としたまま、 静止画像データ Bを静止画像データ Cに差し替え てなる静止画像データ (A+ C) を作成することもできる。
また、 アニメーショ ン再生部 1 0 9は、 アニメーショ ンデ一夕として- 静止画像デ一夕 (A+ B) と静止画像データ (A+C ) とを連続して表 示するようなアニメ一ショ ンデ一タを作成することもできる。
このようなアニメーショ ンデータを作成する場合、' アニメ一ショ ン再 生部 1 0 9は、 静止画像データ (Α+Β) · ( A+ C ) をあらかじめ用 意しておいてもよい。 また、 静止画像データ (A+B) と静止画像デー タ Cとを用意しておいて、 静止画像データ (A + B) を表示した後、 こ の上に静止画像データ Cを上書きするようなアニメ一ショ ンデ一夕を作 成するようにしてもよい。 .
すなわち、 本アニメ編集装置におけるアニメーショ ンデータは、 1つ の静止画像データを背景として、 この上に重ねる静止画像データを変更 してゆく ことで得られる動画像データも含むものである。
また、 本実施の形態では、 本発明の動画像編集装置を、 XMLデ一夕 をアニメ規定デ一夕として用い、 アニメーショ ンを編集 (作成 · 修正) •再生するための装置 (本アニメ編集装置) として示している。
しかしながら、 本発明の動画像編集装置は、 アニメーショ ンに限らず. 他の動画像の編集 · 再生も行う ことが可能である。 すなわち、 本アニメ 編集装置は、 あく までも、 本発明の動画像編集装置における、 好適な一 実施形態である。 '
本発明の動画像編集装置において取り扱える動画像としては、 例えば. J P E G (Joint Photographic Expert Group ) や FN G (Portable N etwork Graphics ) 、 BMP (Bitmap) 等のデータ形式を有する実静止 画像データ、 および、 MF E G (Motion Picture Expert Group ) や A V I (Audio Video Interleaving) 等の実動画像データを、 各フ レーム に 1つま'たは複数配置してなる動画像データを挙げられる。 .また、 これ にアニメーショ ンを含めて混在配置させた動画像データを取り扱う こと も可能である。
また、 本発明の動画像編集装置において取り扱える規定データと して は、 XMLデ一夕の他に、 S M I L (Synchronized Multimedia Integr at ion Language) データを挙【; f られる。
この S M I Lデ一タは、 XM Lのサブセッ トで静止画像, 動画像, 音 楽データの配置 (時間およびレイアウ ト) を記述するマ一グアップ (タ グ付け) 言語である。
この S M I Lデータを用いる場合、 静止 (動) 画像データを、 開始か ら 3秒後から 5秒後まで座標 A, Bで囲まれる領域に表示する、 あるい は、 静止 (動) 画像データの上半分だけを表示するといつた指定を行え る。 さ らに、 動画像 (音楽).デ一タにおける 2〜 3秒の部分を表示する. あるいは、 動画像 (音楽) データが終わってから所定時間後に別の動画 像 (音楽) データを再生する、 といった指定も行える。
このように、 S M I Lデータでは、 キーフレームという概念ではなく オブジェク ト という概念を用いて規定データの作成 (動画像の表示) を 行うようになっている。 そして、 S M I Lデ一夕には、 あるオブジェク トにおける、 時間と挙動 (パラメータ) との関係を示す情報 (各時間に おけるオブジェク トのパラメ一夕を示す情報) が記述されている。
このため、 S M I Lデータに基づいた動画像を編集する場合には、 ュ 3 A
—ザ一は、 時間を選択することとなる ς そして、 本発明の動画像編集装 置が、 選択された時間において挙動が変化する と記述されているォブジ ェク ト (あるいはそのパラメ一タ) を抽出するようになっている ( S M I Lデータは、 このような抽出を容易に行えるようなデータ構造となつ ている) 。 '
従づて、 本発明の動画像編集装置におけるオブジェク ト指定部は、 ュ 一ザ一による時間の選択指示に基づいて、 変動パラメータを抽出すべき オブジェク ト (該当時間に変更するパラメータを有するオブジェク ト) を指定するこ と も可能であることが好ま しい。
また、 規定データと して、 S V G (Scalable Vector Graphics) デー 夕を用いるこ ともできる。 この S V Gデータも、 XM Lのサブセッ トで. 2次元グラフィ ッ クを記述するマークアツプ言語である。 そして、 S M I Lデータと同様に、 ォブジヱク トあるいはパラメ一タの抽出を容易に 行える ものである。
図 2 1 に、 この S V Gデ一タの例を示す (この例は、 S V Gの仕様書 から抜粋したものである) 。
この図に示すデ一夕において、 太字の部分が、 矩形の形と位置とを記 述した部分 (基本部分) である。 また、.太字で挟まれた部分が、 矩形の パラメータを変更している部分 (パラメータ変更部分) である。
パラメータ変更部分における最初の 『animate 』 タグには、 変数 (パ ラメ一夕) Xを、 0秒 (begin ) からの 9秒間 (dur ) で 3 0 0 (fro m ) から.0 (to) までアニメーショ ンさせ、 アニメ一ショ ンの終了後に そのまま (fill) にする、 という ことが示されている。 また、 他の 『an imate 』 タグには、 他の変数に関して 0〜 9秒の間にアニメーショ ンす ることが書かれている。
そして、 本発明の動画像編集装置では、 0〜 9秒の間の時間が選択さ れた場合、 上記の基本部分およびパラメータ変更部分が抽出され、 基本 部分における 『rect』 の x, y , width , heightの変数が変更されてい- ることを、 色やレイァゥ トなどを変更して関連づけも含めて表示するよ うになっている。
なお、 ユーザーによって時間が選択されたとき、 選択された時間に表 示されるであろうフレーム画像を表示することが好ましい。 そして、 こ の画像内で、 パラメ一夕の変化しているォブジヱク トを、 枠や色を変え た外郭等を利用して識別し易くすることがさ らに好ま しい。
次に、 S M I Lデータの例を図 2 2 に示す。 このデ一夕において 『pa r 』 タグは、 タグで囲んだ 『audio 』 『img 』 タグの時間が平行して進 むことを意味している。 『par 』 タグの開始時間を t秒とした場合、 . 『audio 』 タグは ( t + 6 ) 秒から 『audiol.』 ファイルの演奏を開始し- 『img 』 タグは" id" 属性で指定された 『audio 』 タグ開始の 4秒後の ( t + 1 0 ) 秒から 『imagel』 フアイルの表示を行う。 この場合、 本発 明の動画像編集装置 (エディ ター) では、 『img 』 タグの " begin " 属 性を 『beg.in="10s" 』 と変換して表示するようになっている。 このとき- タイムシートなどのグラフィカルな表示を用いてもよい。
また、 XM Lデータ, S M I Lデータ, S V Gデータのいずれの規定 データを用いる場合でも、 規定データ中に補間方法を示す変数がある場 合、 本発明の動画像編集装置は、 中間フ レームを作成するときに、 上記 の変数を抽出するようになっていることが好ましい。
例えば、 A地点— B地点— C地点のようにォブジュク トが移動するキ 一フ レームのある場合、 直線的に補間する場合と曲線的に補間す.る場合 とでは、 中間フ レームの内容は異なったものとなる。 .また、 ォブジェク トの位置だけでなく、 時間的な補間についても変わってく る。
すなわち、 ボールがバウンドするような動画像データを作成する際、 最も上に上がった状態 (最上状態) を示すキーフレームと、 接地してい る状態 (接地状態) を示すキーフレームとがあるとする。 この場合、 ボ —ルの速度は、 接地状態で最も速く、 最上状態で最も遅くなる。 従って- この場合には、 規定データにおいて、 速度を表現するための補間曲線が 指定される (あるいは、 補間の種類を決定する属性が規定データに盛り 込まれる) ことが好ま しい。 そして、 本発明の動画像編集装置において. このような補間曲線 (あるいは属性) を抽出し、 これに基づいて中間フ レームを作成することが好ま しい。 - また、 S V Gおよび S M I Lの仕様書は、 W 3 C (World Wide Web Consortium) のホームページで閲覧およびダウンロードを行う ことが可 能である ( S V G;http://www. w3. org/TR/2000/CR-SVG-20001102/index. html, -S M I L ; http://www.w3. org/TR/REC-smi 1/) 。
また、 本実施の形態では、 図 1 に示した本アニメ編集装置におけるァ ニメ一ショ ンの編集処理 (アニメーショ ンの作成処理) を、 制御部 1 0 2の制御によ り行う としている。
しかしながら、 これに限らず、 アニメーショ ン編集処理を行うための プログラムを記録媒体に記録し、 このプログラムを読み込むことのでき る情報処理装置を、 制御部 1 0 2 (およびテキス ト編集部 1 0 5, グラ フイ ツク編集部 1 0 6 , アニメーショ ン再生部 1 0 9および変動パラメ —夕抽出部 1 1 0 ) に代えて用いるようにしてもよい。 この構成では、 情報処理装置の演算装置 (。?!!ゃ^!尸 (Micro Pr ocessing Unit ) ) が、 記録媒体に記録されているプログラムを読み出 し、 アニメーショ ン編集処理を実行する。 従って、 このプログラム自体 が、 アニメ一ショ ン編集処理を実現するといえる。
ここで、 上記の情報処理装置と しては、 一般的なコンピュータ一 (ヮ ―クステ一ショ ンゃパソコン) の他に、 携帯用のモバイル装置や、 コン ピューターに装着される、 機能拡張ボー ドゃ機能拡張ュニッ トを用いる ことができる。
また、 上記のプログラムとは、 アニメ一ショ ン編集処理を実現するソ フ ト ウエアのプログラムコー ド (実行形式プログラム, 中間コードプ口 グラム, 'ソースプログラム等) のことである。 このプログラムは、 単体 で使用されるものでも、 他のプログ.ラム (O S (Operation System) 等) と組み合わせて用いられるものでもよい。 また、 このプログラムは. 記録媒体から読み出された後、 装置内のメモリ (RAM等) にいつたん 記憶され、 その後再び読み出されて実行されるようなものでもよい。
また、 プログラムを記録させる記録媒体は、 情報処理装置と容易に分 離できるものでもよいし、 装置に固定 (装着) されるものでもよい。 さ らに、 外部記憶機器と して装置に接続するものでもよい。
このような記録媒体と しては、 ビデオテープや力セッ トテープ等の磁 気テープ、 フロッ ピーディスクやハー ドディスク等の磁気ディスク、 C D— ROM, MO, MD, DVD, C D— R等の光ディ スク (光磁気デ イスク) 、 I Cカード, 光力一 ド等のメモリ カー ド、 マスク ROM, E P ROM, E E F ROM, フラッシュ R 0 M等の半導体メモリなどを適 用できる。 W 01 93206
3 8 また、 ネッ トワーク (イ ン トラネッ ト · イ ンタ一ネッ ト等) を介して 情報処理装置と接続されている記録媒体を用いてもよい。 この場合、 情 報処理装置は、 ネッ トワークを介するダウンロー ドによ りプログラムを 取得する。 すなわち、 上記のプログラムを、 ネッ トワーク (有線回線あ るいは無線回線に接続されたもの) 等の伝送媒体 (流動的にプログラム を保持する媒体) を介して取得するよう にしてもよい。 なお、 ダウン口 一ドを行うためのプログラムは、 装置内にあらかじめ記憶されているこ とが好ま しい。
また、 図 5 に示したサムネイル表示部 7 0 5 は、 編集画面 (規定デー 夕表示部) 7 0 1 に表示されている X M Lデータに応じたフレーム画像 データにおけるサムネイル (サムネイル群) を表示する機能を有してい てもよい。
また、 変動パラメータ画面 7 0 3 に表示される再生夕イマ一 1 1 0 0 (図 8 に参照) には、 時間軸 1 1 0 1 、 時間軸 1 1 0 1上での各フ レー ム 1〜 3の位置 T 1 ~ T 3、 および、 グラフィ ッ ク編集画面 7 0 2 にお いて再生中の中間フ レームの位置を示すスライダ一 1 1 0 5が表示され るよう に設定されていてもよい。
また、 本発明のアニメーショ ン編荸装置を、 アニメーショ ン中におけ るォブジヱ ク トの状態を規定するためのパラメ一ダを含む規定データを 用いてアニメ一ショ ンを編集するアニメーショ ン編集装置において、 ュ —ザ一の指示を受け付ける入力部と、 上記の規定データから、 アニメ一 ショ ン中におけるォブジヱク トの状態変化に関わる変動パラメ一夕を抽 出する抽出部と、 抽出された変動パラメ一タを、 ユーザーの指示に従つ て修正する とと もに、 修正された変動パラメ一夕を用いて規定デ一夕を 更新する修正部とを備えているものである、 と表現することもできる。 また、 本発明を、 アニメーショ ン中におけるオブジェク 卜の状態を規 定するためのパラメ一夕を含む規定デー夕を用いてアニメ一ショ ンを編 集するアニメーショ ン編集処理のためのコンピュータープログラムを流 動的に伝送する伝送媒体であって、 上記の規定データから、 アニメーシ ョ ン中におけるォブジヱク トの状態変化に関わる変動パラメ一タを抽出 し、 抽出された変動パラメータを、 ユーザーの指示に従って修正し、 修 正された変動パラメ一タを用いて規定データを更新するように設定され ていることを特徴とするアニメ一ショ ン編集処理のためのコンピュータ 一プログラムを流動的に伝送する伝送媒体である、 と表現するこ ともで きる。
以上のように、 本発明の動画像編集装置 (本編集装置) は、 動画像中 におけるォブジヱ トの状態を規定するためのパラメ一タを含む規定デ 一夕を用いて動画像を編集する動画像編集装置において、 ユーザーの指 示を受け付ける入力部と、 上記の規定データから、 動画像中におけるォ ブジエク トの状態変化に関わる変動パラメータを抽出する抽出部と、 抽 出された変動パラメータを、 ユーザーの指示に従って修正するとともに 修正された変動パラメ一夕を用いて規定デ一タを更新する修正部とを備 えていることを特徴と している。
本編集装置は、 コンピューターグラフィ ッ クスを.用いて動画像 (ァニ メーショ ン等) を編集するための装置である。 一般に、 動画像は、 画像 中のオブジェク ト (画像に登場する表示物 ; キャラクタ) における形状 や動作を規定するデータ (規定データ) に基づいて作成されるようにな つている。 そして、 本編集装置では、 この規定データを用いて、 動画像 を編集するように設定されている。
特に、 本編集装置では、 抽出部によって、 動画像中におけるォブジュ ク トの状態変化に関わる変動パラメータを、 規定データから抽出するよ うに設定されている。
すなわち、 通常、 規定データには、 各ォブジヱク トの形状や動作、 配 色等を規定するためのパラメータが記載されている。 また、 オブジェク トのパラメータには、 動画像中でのオブジェク トの状態変化に関わって 変化するもの (ォブジ ク トの位置等) と、 状態変化に無関係な変化し ないもの (オブジェク トの名称等) とがある。 そして、 本編集装置では. 変化する方のパラメ一タを、 変動パラメ一夕として規定データから抽出 するよう になつている。
そして、 修正部が、 ユーザーの指示に基づいて、 抽出された変動パラ メータを修正する。 さ らに、 この修正部が、 修正された変動パラメ一夕 を用いて、 動画像の規定デ一タを更新するように設定されている。 これ によ り、 動画像を、 ュ一ザ一の指示通りに編集できるようになっている, このよう に、 本編集装置では、 規定データから変動パラメータだけを 選択的に抽出するように設定されている。 これにより、 全規定デー夕に 対して直接的に編集を行う場合に比して、 動画像を容易に編集できるよ うになつている。
また、 本編集装置には、 ユーザーの指示に基づいて、 変動パラメータ を抽出すべきォブジヱク トを指定するための、 オブジェク ト指定部を備 えることが好ま しい。 そして、 上記の抽出部が、 オブジェク ト指定部に よつて指定されたォブジェク トにおける変動パラメ一夕を、 規定デ一夕 から抽出するように設定されていることが好ましい。 このように構成すれば、 ユーザーの所望とするォブジヱク 卜に関する 変動パラメ一夕だけを抽出できる。 従って、 変動パラメ一夕の抽出量を 絞れるので、 動画像を、 よ り容易に編集できる。
また、 上記の構成では、 本編集装置に、 規定データを表示する規定デ 一夕表示部を備えることが好ましい。 そして、 表示された規定データを 用いて、 ユーザーが、 オブジェク トの 1つ (あるいは複数) を、 入力部 を介して選択できるように設定されていることが好ましい。
さ らに、 上記のォブジヱク ト指定部が、 このように選択されたォブジ ェク トを、 変動パラメータを抽出すべきォブジヱク 卜 として指定するよ うになつていることが好ましい。 このように設定すれば、 ユーザ一は、 所望のオブジェク トを容易に選択できる。
また、 上記の構成では、 本編集装置に、 規定データに応じた画像 (動 画像あるいは動画像の一部 (静止画像) ) を表示する画像表示部を備え るようにしてもよい。 この場合、 表示.された画像を用いて、 ユーザーが. オブジェク トの 1 つ (あるいは複数) を、 入力部を介して選択できるよ うに設定されていることが好ま しい。 、
そして、 オブジェク ト指定部が、 このように選択されたォブジヱク ト を、 変動パラメ一夕を抽出すべきォブジヱク ト として指定するようにな つていることが好ましい。 このように設定することによつても、 ユーザ 一によるォブジェク トの選択を容易とすることが可能となる。
また、 この場合、 上記の画像表示部は、 規定データから画像を生成す るための変換辞書を有していることが好ましい。 この変換辞書は、 規定 データの文法と、 画像データ (画像を表示するためのコードからなるデ —夕) の文法.とが、 互いに対応されて記載されているものである。 これ により、 上記の構成を実現することが容易となる。
'また、 変換辞書を交換可能に設定すれば、 規定データあるいは画像デ 一夕の形式を変更した場合でも、 変更後の形式に応じた変換辞書を用い ることで、 画像生成を容易に行える。 '
また、 本編集装置に、 抽出部によって抽出された変動パラメータを表 示するための、 変動パラメ一タ表示部を備えるようにしてもよい。 この 場合、 上記の修正部は、 変動パラメータをユーザ一の入力に従って修正 するとともに、 変動パラメータ表示部に、 修正後の変動パラメ一タを表 示させるように設定されていることが好ましい。
これによ り、 表示された変動パラメータに対して直接的に修正を施せ るため、 コマン ドやイ ンスタ ンスを定義 ·選択するこ とでパラメータを 変更する構成に比して、 動画像の編集処理を容易に行える。
また、 この場合、 上記変動パラメータ表示部にいったん表示された変 動パラメ—タを記憶する.記憶部を備えることが好ましい。 そして、 修正 部が、 この記憶部の記憶内容を用いて、 変動パラメ一夕を修正できるよ うに設定されていることがさ らに好ましい。
このよう にすれば、 ユーザ一は、 修正部に対し、 記憶部に記憶 (コピ 一) された値を用いるように指示するだけで、 変動パラメータを修正で きる。 すなわち、 キーボード等の入力機器を用いて個々の変動パラメ一 夕の修正内容を入力する必要がない。
これによ り、 特に修正量 (修正すべき変動パラメータの量) の多い場 合に、 変動パラメ一タを非常に容易に修正できる。
また、 任意のォブジェク トにおける全変動パラメ一タを記憶しておき. これらを用いて、 他のオブジェク トの変動パラメ一夕として用いること もできる。 このようにすれば、 異なるォブジェク トの変動パラメ一夕を、 非常に容易に同一とすることが可能となる。
また、 上記した画像表示部によって動画像 (規定データに基づいた動 画像) を表示させる場合、 変動パラメ一夕表示部は、 動画像中のォブジ ヱク トにおける変動パラメ一夕の値を、 逐次的に表示するように設定さ れていることが好ま しい。 これにより、 ユーザ一は、 変動パラメ一夕の 変遷をたどれるので、 修正に用いるべき値 (パラメータ値) を、 容易に 想定することが可能となる。
また、 変動パラメ一タ表示部は、 変動パラメータを表示する際、 その 表示形態を、 規定データ表示部による規定データの表示形態と異なる形 態とするように設定されていることが好ましい。 ここで、 表示形態とは- 例えば、 文字のサイズ, 色, フォン ト, 修飾形式 (書体や線の太さ) 等 のことである。 このように設定すれば、 変動パラメ一タを強調表示でき る。
また、 本編集装置では、 規定デ一夕として、 テキス ト形式のデータを 用いるように設定されていることが好ましい。 これによ り、 規定データ や、 その一部である変動パラメータを表示する際、 ュ一ザ一に認知でき る形式のデータに変換する必要がない。 従って、 データの表示を容易に 行える。
また、 本発明の動画像編集方法 (本編集方法) は、 動画像中における ォブジヱク トの状態を規定するためのパラメ一夕を含む規定データを用 いて動画像を編集する動画像編集方法において、 上記の規定データから 動画像中におけるォブジヱグトの状態変化に関わる変動パラメ一夕を抽 出する抽出工程と、 抽出された変動パラメ一夕を、 ユーザ一の指示に従 W 01 93206
4 4 つて修正する修正工程と、 修正された変動パラメ一タを用いて規定デー タを更新する更新工程とを含んでいることを特徴としている。
本編集方法は、 上記した本編集装置に用いられている編集方法である ( すなわち、 本編集方法では、 抽出工程において、 動画像中におけるォブ ジェク トの状態変化に関わる変動パラメ一夕を、 規定データから抽出す るようになっている。
そして、 修正工程において、 ュ一ザ一の指示に基.づいて、 抽出された 変動パラメータを修正する。 さらに、 更新工程において、 修正された変 動パラメータを用いて、 動画像の規定デ一タを更新するように設定され ている。 これにより、 動画像を、 ユーザーの指示通りに編集できるよう になっている。
このよう に、 本編集方法では、 規定デ一夕から変動パラメータだけを 選択的に抽出するように設定されている。 これによ り、 全規定デー夕に 対して直接的に編集を行う方法に比して、 動画像を容易に編集できる。
また、 本発明にかかる動画像編集処理のためのコンピュ一タープログ ラムを記録した記録媒体は、 動画像中におけるオブジェク トの状態を規 定するためのパラメータを含む規定データを用いて動画像を編集する動 画像編集処理のためのコ ンピュータープログラムを記録した記録媒体で あって、 上記の規定データから、 動画像中におけるォブジヱク トの状態 変化に関わる変動パラメータを抽出し、 抽出された変動パラメ一夕を、 ユーザ一の指示に従って修正し、 修正された変動パラメータを用いて規 定データを更新するように設定されていることを特徴としている。
このような記録媒体を、 パーソナルコンピュー夕一等の一般的な情報 処理装置における制御装置に読み込ませることによ り、 上記した本編集 装置や本編集方法を容易に実現できる。
また、 図 2に示した内部データ記憶部 1 0 4 を、 R A M等で構成され- 入力部 1 0 1 によって編集され、 アニメ一ショ ンの再生に必要なデ一.タ が記憶されるテキス.トデ一夕記憶部としてもよい。 また、 内部データ記 憶部 1 0 4に、 本アニメ編集装置の命令コ一ドゃパラメ一タなどの情報 を記憶させてもよい。 .
また、 テキス ト編集部 1 0 5は、 テキス トの変更を変換辞書 1 0 7を 参照して内部デ 夕記憶部 1 0 4 に反映し、 グラフイツ ク編集部 1 0 6 によつて内部デー夕記憶部 1. 0 4が変更されると制御部 1 0 2 に制御さ れて変換辞書 1 0 7 を参照して内部データ記憶部 1 0 4の変更内容を反 映したテキス トを表示するものとして設定されていてもよい。
また、 グラフィ ッ ク編集部 i 0 6は、 制御部 1 0 2によつて制御され 表示部 1 0 3 に内部データ記憶部 1 0 4の内容をグラフィックで表示し て編集可能とするものであってもよい。 さらに、 グラフィッ ク編集部 1 0 6はグラフィ ッ クの変更を内部デ一夕記憶部 1 0 4に反映し、 テキス ト編集部 1 0 5によって内部データが変更されると制御部 1 0 2に制御 されて内部データ記憶部 1 0 4の変更内容を反映したグラフィ ックを表 示するものであってもよい。
また、 変換辞書 1 0 7は、 テキス トの文法とグラフィ ックとの対応テ —ブルが記憶された規則データ用記憶部であってもよい。 また、 本ァニ メ編集装置に、 変換辞書 1 0 7を参照して、 編集部 1 0 5 · 1 0 6の編 集内容を内部データ記憶部 1 0 4 と同期させるテキス ト · グラフィ ッ ク 変換部を設けてもよい。
また、 変動パラメータ抽出部 1 1 0は、 動きに関わるパラメータを含 W 01 93206
4 6 んだテキス トデータを抽出して表示部 1 0 3 に表示させるものであって もよい。 さ らに、 変動パラメ一夕抽出部 1 1 0 を、 指定されたォブジェ ク ト (位置や色等の属性) に影響を与えるパラメータを含むテキス トデ —タを抽出して表示部 1 0 3 に表示するものであってもよい。 また、 位 置や色等の属性だけを、 1 ないし複数指定して抽出することもできる。 なお、 この指定は、 グラフィカルに指定するよ り も、 テキス トデータ上 で行う ことが好ま しい。 テキス トデータであれば、 タグを指定するだけ で、 上記の指定を容易に行える。
また、 図 3および図 4 は、 本アニメ鼷集装置における表示ィメージを 示しているといえる。 また、 本実施の形態 (図 3等) において、 X M L デ一タのタグは、 必ず始めと終わり力 1対 1 で対応しており、 終わりの 夕グは始ま りのタグの名前の前に/が付いているといえる。
また、 図 4 ( a ) のように、 円オブジェク ト 8 0 1 が E 1 〜 E 3 と移 動し、 それと同時に矩形ォブジェク ト 8 0 2が K 1 〜K 3 と移動するよ うなアニメーショ ンを作成する場合、 ツールバ一 7 0 6 によってフ レー ムを作成していき、 制御ボタン群 7 0 4 またはサムネィル表示部 7 0 5 でフ レームを選ぶようにしてもよい。 また、 図 4 ( b ) 〜 ( d ) に示す ようなフ レームの作成時にフ レーム間の時間をテキス トで入力するよう なダイアログを立ち上げてもよいし、 サムネィル表示部 7 0 5 にフ レー ム間の時間を制御するためのスクロールバ一などを用意してもよい。
また、 図 5 に示したテキス ト編集画面 7 0 1 は、 テキス トによってァ 二メーシヨ ンを (主にキーポー ドを用いて) 編集するためにテキス トデ 一夕が表示されるものであってもよい。 また、 グラフィ ッ ク編集画面 7 0 2 は、 G U I によってアニメーショ ンを (主にマウスを用いて) 編集 するためにグラフィ ックが表示されるものであってもよい。 また、 変動 パラメ一夕画面 7 0 3は、 編集画面 7 0 1 . 7 0 2で指定されたォブジ ェク トに関して.位置情報や色などの属性情報に変化を与えるテキス ト部 分を抽出して表示させるものでもよい。
図 6は、 変動パラメ一夕画面 7 0 3に表示されるいくつかの領域につ いての説明のための図'であるともいえる。 また、 フレ一ム 1〜 3のいず れかにおいて、 テキス ト編集画面 7 0 1 なら円タグを、 グラフィ ッ ク編 集画面 7 0 2なら円のグラフィ ッ クを選択することにより、 図 6のよう に円の位置変化に関わる部分が変動パラメ一タ情報 1 0 0 1 のように各 フレームの円に関する変動パラメ一夕が抽出されて表示されてもよい。 また、 図.7に示すように、 アニメーショ ン再生時に現在表示されてい る中間フ レームにおいて、 変動パラメ一タ情報 1 0 0 1 として抽出され たタグの補間値が再生情報 1 0 0 2 に表示され、 変動パラメータ情報 1 0 0 1 に表示されたフレ一ムおよび再生情報 1 0 0 2の各フ レームの差 分を差分情報 1 0 0 3 に表示するようにしてもよい。
また、 図 1 は、 本アニメ編集装置における大まかな流れを示している 図であるといえる。 また、 S 2 0 1 では、 ユーザーが入力部 1 0 1 で複 数のキーフレームに点や線等のオブジェク トを配置し、 制御部 1 ◦ 2は 入力部 1 0 1.の入力に対して、 テキス ト編集部 1 0 5あるいはグラフィ ッ ク編集部 1 0 6の編集デ一-夕を元に、 内部データ記憶部 1 0 4のデー タを更新するようにしてもよい。
また、 図 1 の S 2 0 6において、 制御部 1 0 2は、 選択したオブジェ ク トについての入力データを変動パラメ一夕抽出部 1 1 0に送り、 変動 パラメ一夕抽出部 1 1 0はキーフレームを補間する際の前記ォブジヱク トに関するパラメータを監視し、 表示部 1 0 3 に変化するパラメータを 表示するよう に設定されていてもよい。
また、 図 7 に示した変動パラメータ情報 1 0 0 1 のように変動パラメ 一夕が並んでいな ό場合、 再生情報 1 0 0 2 に表示しているオブジェク トの内容を全てコ ピーするという メニューを設けることで、 移動状態の 複写を実現できる。 また、 変動パラメ一タ情報 1 0 0 1 ように、 変動パ ラメ一タを並べて表示する場合は、 編集処理を行ってからコピーするこ と も可能である。
また、 差分値をコピ一する対象と して、 フ レーム 2の矩形をコピーし た場合、 図 1 7のよう に Κ Ι , ' Κ Ι 1, Κ 1 2, Κ 1 3 という ように動 きのベク トルがコピーされる。 このと き、 動く速さ もコピーする場合、 図 1 8のよう に、 Κ 1 1 は開始から 2.秒後、 Κ 1 3 は開始から 5秒後の 位置となるよう に更新する。 動きの速さを無視してフレームの値を更新 してもよい。
また、 フ レーム間の繰り返しなどのコマン ドについては、 繰り返し回 数などのパラメ一夕について座標などのパラメ一夕と同様に変換できる が、 どのフ レームまでというのはフ レーム番号のような I Dになり う る ものが記述されている と考えられる。
また、 特開平 7 _ 4 4 7 2 9号公報の方法は、 設計対象装置の部品を オブジェク ト指向プログラムのィ ンスタンスで定義するとともに、 該ィ ンスタ ンスに図形を対応付け、 該イ ンス夕ンスの動作に連動して該図形 の表示を変形させるアニメ一シヨ ンメ ソッ ドを対話的に生成するアニメ —ショ ン生成方法であるともいえる。 また、 このシステムは、 オブジェ ク ト指向プログラミ ングを対象としており、 熟練者でない一般ユーザー 4. 9 がモデルの生成 · 操作を行う ことは困難である。 また、 この公報には、 ユーザーが容易に編集する場所を特定する方法やその表示方法について は記載されていない。
. また、 特開平 9 一 1 6 7 2 5 1号公報の装置は、 自然言語で入力され た文章を解析し、 該文章を構成する語およびそれらの関連を獲得し、 前 記獲得された語の夫々についてアニメーショ ン作成のためのコマン ドを 獲得し、 前記コマン ドに基づいてアニメーショ ンを生成する装置である また、 この装置では、 辞書に登録することで編集したコマン ドを再利用 できるが、 詳細な編集についてはコマンドを編集する必要があるが、 テ キス トでの編集と比較して理解が困難である。
また、 X M Lは、 テキス トで記述されているため人間が可読であるだ けでなく、 データに内容を示すタグをつけているため、 アプリケーショ ンが処理できる形式で汎用的なデ一タ記述言語で、 一般的なデ一夕を確 実に表現できるものであるといえる。
また、 本発明の目的は、 X M Lに代表されるような (一般のユーザ一 が) 簡単に読んで編集でき、 フォーマッ トの異なる再生エンジンにも対 応できるテキス トベース.のデータ記述言語で記述されたファィルからデ ―タの一部を再利用したり、 パラメ一夕などを簡単に編集してアニメ一 ショ ンを作成できるアニメ一ショ ン作成装置を作ることであるともいえ る。
また、 本実施の形態では、 画像データとは、 再生エンジンの命令コ一 ドからなるデータであるとしている。 ここで、 再生エンジンは、 0秒の とき A地点にあった図形が、 3秒のとき B地点、 5秒後に C地点へと移 動するというようなことが画像デ一夕に記録されている場合、 1秒後の Aと Bの間の位置に図形がある中間フレームも作れるし、 3秒の B地点 は表示させないこともできる。 つま り、 再生ェンジン側で画像デ一タを ど.のように解釈するかに诌由度があって (画像データに自由度を与える かどうかのフラグがある場合もあるが) 補間やフィルタ リ ングができる c そして、 本アニメ編集装置における再生エンジンの命令コードとは、 こ のような場合も含むものである。 - また、 本実施の形態では、 アニメーショ ンデータを、 静止画像データ を所定時間毎に連続して (次々に) 表示するようなデータであるとして いる。 ここで、 アニメーショ ンデータは、 例え 、 例えば静止画 A , B ; Cがあって、 Aを背景に設定 bて Bを上に重ねて表示したものを 1枚目 のフ レームとして、 Aは背景にしたまま Bを Cに差し替えるという場合. あらかじめ (A + B ) 画像と (A + C ) 画像を用意してもよいが、 (A + B ) 画像と C画像を用意しておいて (A + B ) 画像を表示してから C 画像の領域を上書きするような動画像データも含むものである。 すなわ ち、 アニメーショ ンデータには、 このような表示を行う画像の処理方法 で得られた動画像も含まれる。
また、 本実施の形態では、 そして、 アニメ一ショ ンに使用される静止 画像データを編集することで、 アニメーショ ンを編集するとしている。 これに加えて、 本アニメ編集装置では、 例えばテレビを見ている人のァ ニメデ一タを、 テレビに表示される画面に別のアニメデー夕を参照する ようなデータとすることが可能である。 すなわち、 1 。 11と 2 €; 11との アニメを用意しておいて、 マウスク リ ッ クなどでどちらの c hのアニメ を参照するか変更できるようなアニメ も作成できる。 また、 フ レームの 順序や、 3から 5枚目までのフレームを 2回繰り返すといったフ レーム の内容以外のこともできる。
また、 本発明の動 ®像編集装置において使用できる動画像の種類は、 J P E Gや P N G、 B M Pなどのような実静止画像データや、 M P E G や A V I などの実動画像データを各フレームに 1 つまたは複数配置した もので、 アニメーショ ンも含めて混在して配置可能である。 また、 S M I Lデータでは、 動画像 (音楽) データが終わってから何秒後に別の動 画像 (音楽) データを再生するといつた指定が可能である。 また、 S M I Lでばキーフレームという概念ではなく、 ォブジヱク ト という概念で 行われており、 あるオブジェク トは何秒後から何秒後にこのような挙動 をするといつたことが記述されているため、 本実施の形態に示したよう なキーフレームを選択するのではなく時間を選択するとその時間に挙動 (パラメータ) が変化すると記述されているものに関してォブジヱク ト またはそのパラメ一夕を抽出できる し抽出できるようなデータ構造なの で) 。 ' '
図 2 1 に、 S M I Lの文法ではなく S V G (Scal ab l e Vector Graphi cs) の文法で、 抽出可能であるというデータ構造を示す ( S M I L と S V Gはアニメ一ショ ンに関してはかなり似通つている) 。 このデ一夕を 用いる場合、 0から 9秒の間の時間が選択されたとき (このときその時 間に表示されるであろうフレーム画像が表示され、 変化しているォブジ ェク トは枠や色を変えた外郭などでわかるようにしておく ことが望まし い) 、 この太字とそれで挟まれた部分が抽出され、 太字で書いた の , y , wi dth, he i ght の変数が変更されていることを色やレイアウ ト などを変更して関連づけも含めて表示させることが好ましい。
また、 中間フレームを作成時に補間方法を指定する変数がある場合、 これも抽出するように設定されていることが好ましい。 例えば、 A, B , C地点へと図形が移動するキーフ レームがあつた場合に、 直線的に補間 するのと曲線的に補間するのとでは中間フレームは変わり、 位置だけで なく時間的な補間についても変わる。 つま り、 ポールがバウン ドするよ うなものの場合、 最も上に上がったときと接地しているキ一フレームが あった場合、 接地するときが最も速く、 上に上がったときが最も遅いの で、 その速度を表現するための補間曲線が指定される (も しく は補間の 種類を沬定する属性がある) 。
また、 本発明を、 以下の第 1 〜第 9のアニメ一ショ ン作成装置、 およ び、 第 1 の記録媒体として表現することもできる。
すなわち、 第 1 のアニメーショ ン作成装置は、 一定の厳密な規則に従 つて記述されたテキス トデータを解析する解析手段と、 前記解析手段で 獲得されたアニメ一ショ ン生成に必要なコマン ド (あるいはパラメ一夕 状態) を獲得する獲得手段と、 前記獲得手段で獲得された前記コマン ド に基づいて前記テキス トデ一夕から該アニメ一ショ ンの構成要素 (特徴 情報および動き情報) に関するテキス ト群を抽出する抽出手段と、 前記 抽出手段で抽出された該テキス ト群を編集するテキス ト編集手段と、 前 記獲得手段で獲得された前記コマン ドに基づいてアニメーショ ンを生成 するアニメ一ショ ン生成手段とを備えている構成である。
また、 第 2のアニメーショ ン作成装置 (異なるアニメーショ ン再生ェ ンジンに対応可能) は、 第 1 のアニメーショ ン作成装置において、 前記 獲得手段は、 前記規則に従ったテキス ト とアニメ一ショ ン生成のための コマン ド (あるいはパラメータ状態) との対応付けが登録された辞書を 更に備え、 前記辞書を参照し、 コマン ド (あるいはパラメ一夕状態) の W
5 3 獲得を行う構成である。
また、 第 3のアニメーショ ン作成装置 (ォブジュク トを指定可能) は、 第 1 のアニメーショ ン作成装置において、 前記アニメーショ ン構成要素 のうち、 任意の 1 ないし複数の要素を指定する指定手段を更に備え、 前 記抽出手段による抽出結果から指定された要素に関するテキス ト群を限 定する構成である。
また、 第 4のアニメ一ショ ン作成装置は、 第 1 のアニメ一ショ ン作成 装置において、 アニメーショ ン再生および編集時に、 前記抽出されたテ キス ト群を、 構成要素や変化量に応じて色、 フォン ト、 サイズ等を変更 して表示させることを特徴とする構成である。
また、 第 5のアニメ一ショ ン作成装置は、 第 1 のアニメーショ ン作成 装置において、 アニメ一ショ ン再生および編集時に、 構成要素の変化量 をカウンタやスライダー等により動的に変化を表示する構成である。 また、 第 6のアニメーショ ン作成装置は、 第 1 のアニメ一ショ ン作成 装置において、 前記テキス ト編集手段による編集結果をグラフィカルに 表示するグラフィック表示手段を備える構成である。.
また、 第 7のアニメ ショ ン作成装置は、 第 6 のアニメ一ショ ン作成 装置において、 前記グラフイ ツク表示手段に表示されるグラフィ ッ クを グラフィカルに編集するグラフィ ッ ク編集手段を更に備え、 前記グラフ ィ ッ ク編集手段による編集結果を前記テキス トデータに反映する構成で ある。
また、 第 8のアニメーショ ン作成装置は、 第 1 のアニメーショ ン作成 装置において、 該アニメ一ショ ンの 1 ないし複数のキーフレームを表示 する表示手段を更に備える構成である。 また、 第 9のアニメーショ ン作成装置は、 第 8のアニメ一ショ ン作成 装置において、 前記複数のキーフレームにまたがったアニメーショ ンに 関して抽出されたテキス トを並べて表示し、 まとめてコピ一操作を行う と前記辞書を参照し、 規則に従った形でコピーできる構成である。
また、 第 1 の記録媒体は、 厳密な規則について記録されたデータ記憶 領域と、 該規則に従ってテキス トで記述された入力デ一タを該規則に従 つて解析し、 該データを構成するテキス ト群とそれらの関係を獲得する 解析手段と、 前記解析手段で獲得されたテキス 卜群からアニメーショ ン 生成のためのコマン ド (あるいはパラメータ状態) を獲得する獲得手段 と、 前記解析手段で獲得されたテキス ト群から、 該アニメーショ ンの構 成要素 (特徴情報および.動き情報) に関するテキス ト群を抽出する抽出 手段と、 前記獲得手段で獲得されたコマン ド (あるいはパラメータ状 態) に基づいてアニメーショ ンを生成する生成手段とをコンピューター に実行させる命令を含むプログラムを格納したことを特徴とする、 コン ピューターが読み取り可能な記録媒体である。
本発明によれば、 前述の目的は、 X M Lのような厳密な規則に従って 記述されたテキス トデータを解析する解析手段と、 前記解析手段で獲得 されたアニメーショ ン生成に必要なコマン ド (あるいはパラメ一夕状 態) を獲得する獲得手段と、 前記テキス トデータかち該アニメーショ ン の構成要素 (特徴情報および動き情報) に関する部分を抽出する抽出手 段と、 前記抽出手段で抽出された該テキス トデータの一部を編集するテ キス ト編集部と、 前記獲得手段で獲得された前記コマン ドに基づいてァ ニメーショ ンを生成するアニメーショ ン生成手段とを備えることを特徴 とするアニメーショ ン作成装置によつて達成される。 上記の解析手段とは、 X M Lでいう ところのバーサに相当するもので ある。 .厳密なルールに従った構文を用いているので、 その文章の構造と その内容については自然言語などの解析に比べ簡単に取得できる。 解析 手段は、 例えば、 単純にテキス トファイルを上から読んでいって、 ルー ルに従い夕グに対応するオブジェク トを内部データとして生成し、 夕グ の中身をパラメータ値として入力するという作業を行う。 また、 解析手 段は、 再生ェンジンにない機能にかかわるタグについては変換しないよ うに設定されていてもよい。 また、 獲得手段とは、 アニメ一ショ ン再生 ェンジンに命令を出すためのコマンドゃパラメータなどを内部デ一夕か ら取得 (もしく は変換) するものである。
上記した第 1 〜第 9 のアニメーショ ン作成装置では、 解析手段で獲得 されたアニメ一ショ ン作成に必要なコマンド (あるいはパラメ一タ状 態) 獲得する獲得手段を備えることで、 フォーマッ トが異なる再生ェ ンジンに対応しうる。 また、 入力されたテキス トデータをフロッ ピ一デ イスク、 光通信、 電話回線などのメディアを介して送信する送信手段と. 他の装置から該メディアを介してテキス トデータを受信する受信手段と を更に備えているのが望ましい。
なお、 第 1 〜第 9のアニメ一ショ ン作成装置では、 規則に従ったテキ ス ト とアニメーショ ン生成のためのコマン ド (あるいはパラメ一夕状 態) との対応付けが登録された辞書 (第 2のアニメ一ショ ン作成装置に 備えられている辞書) を、 W e bなどのネッ トワーク上のサーバに用意 し、 テキス トデータに U R Lや規則のバ一ジョ ン情報などを記載してお き、 異なるアニメ一ショ ン再生ェンジンでも規則のバ一ジョ ンゃ再生ェ ンジンの種類およびパージョ ンを送信することで、 最適な辞書にァクセ スすることが可能である。
また、 第 1 〜第 9のアニメーショ ン作成装置では、 画像中のォブジヱ ク トを選択すると、 そのォプジヱク トの情報に関するテキストデー夕 (ソースデ一タ) が表示ざれる。 そして、 表示されたデータを編集する ことで、 アニメーショ ンを修正できる。
すなわち、 選択したォブジェク トの動きに関わるデータを、 スクロー ルバ一や力ゥンタを.用いたり、 並べ方を変更して表示することでユーザ 一が編集する箇所の特定を容易にする。 また、 テキス トによる入力であ るため位置合わせなどを正確に入力できる。
また、 複数のフレームにまたがつて再生されるアニメーショ ンにおい て、 オブジェク トを選択することでそれに関わるテキス トを並べて表示 でき 'るので、 まとめてコピ一あるいはカッ ト、 およびペース トすること が可能である。 例えば、 キーフレ一ム I〜 3に存在するアニメーショ ン を、 キーフレーム 7〜 9にコピーできる。 この場合、 キーフレーム間の 時間の違いがあっても、 1 と 7、 2 と 8、 3 と 9が対応するようにして もよいし、 7のキ一フレームにペース トするとコピー元の時間に応じて キーフレームを作成するようにしてもよい。
なお、 発明を実施するための最良の形態の項に記載した具体的な実施 態様または実施例は、 あく までも、 本発明の技術内容を明確にするため のものである。 従って、 本発明は、 これらのような具体例に限定して狭 義に解釈されるべきものではない。 すなわち、 本発明は、 本発明の精神 と次に記載する特許請求事項との範囲内で、 種々変更して実施できるも のである。 産業上の利用の可能性 ―
以上のように、 本発明の編集装置 (本編集装置)'では、 動画像中にお けるオブジェク トの状態変化に関わる変動パラメ一夕を、 規定データか ら抽出するように設定されている。 そして、 ユーザーの指示に基づいて 抽出された変動パラメ一タを修正し、 修正された変動パラメ一夕を用い て、 動画像の規定データを更新するように設定されている。 これにより 動画像を、 ユーザーの指示通りに編集できる。 従って、 コ ンピュータ一 グラフィ ッ クスを用いたアニメ一ショ ンの編集に好適に利用できる。

Claims

請 求 の 範 囲
1 . 動画像中におけるォブジヱク トの状態を規定するためのパラメ一 タを含む規定デ一タを用いて動画像を編集する動画像編集装置において- ユーザ一の指示を受け付ける入力部と、
上記の規定デ一夕から、 動画像中におけるォブジヱク トの状態変化に 関わる変動パラメータを抽出する抽出部と、
抽出された変動パラメ一タを、 ユーザ一の指示に従って修正するとと もに、 修正された変動パラメ一夕.を用いて規定デー夕を更新する修正部 とを備えていることを特徴とする動画像編集装置。
2 . ユーザ一の指示に基づいて、 変動パラメ一タを抽出すべきォブジ ェク トを指定するオブジェク ト指定部を備え、
上記抽出部は、 オブジェク ト指定部によって指定されたオブジェク ト における変動パラメ一夕を抽出するように設定されていることを特徴と する請求項 1 に記載の動画像編集装置。
3 . 規定データを表示する規定データ表示部を備え、
上記ォブジヱク ト指定部は、 表示された規定データに示されているォ ブジェク トに対するユーザ一の選択指示に応じて、 変動パラメ一タを抽 出すべきォブジェク トを指定するように設定されていることを特徴とす る請求項 2に記載の動画像編集装置。
4 .. 規定データに応じた画像を表示する画像表示部を備え、
上記ォブジヱク ト指定部は、 表示画像中のォブジヱク トに対するユー ザ一の選択指示に応じて、 変動パラメ一夕を抽出すべきォブジヱク トを 指定するように設定されていることを特徴とする請求項 3に記載の動画
5 . 上記画像表示部は、 規定データから画像を生成するための変換辞 書を有しているこ とを特徴とする請求項 4 に記載の動画像編集装置。
6 . 上記抽出部によって抽出された変動パラメ一タを表示する変動パ ラメータ表示部を備え、
上記修正部は、.変動パラメ一タをユーザーの入力に従って修正すると ともに、 変動パラメータ表示部に、 修正後の変動パラメータを表示させ るように設定されていることを特徴とする請求項 4 に記載の動画像編集
7 . 上記変動パラメ一タ表示部にいったん表示された変動パラメ一タ を記憶する記憶部を備えており、
上記修正部は、 この記憶部の記憶内容を用いて、 変動パラメータを修 正できるように設定されていることを特徴とする請求項 6に記載の動画
8 . 上記画像表示部は、 規定データに基づいて動画像を表示できるよ うに設定されており、
上記変動パラメータ表示部は、 動画像中のオブジェク トにおける変動 パラメータの値を、 逐次的に表示するように設定されていることを特徴 とする請求項 6に記載の動画像編集装置。
9 . 上記変動パラメータ表示部は、 規定データ表示部による規定デー 夕の表示形態と異なる表示形態で、 変動パラメ一夕を表示するように設. 定されていることを特徴とする請求項 6に記載の動画像編集装置。
1 0 . 上記規定データが、 テキス ト形式のデータであることを特徴と する請求項 6 に記載の動画像編集装置。
1 1 . 上記動画像がアニメーショ ンであることを特徴とする請求項 1 に記載の動画像編集装置。
1 2 . 動画像中におけるオブジェク トの状態を規定するためのパラメ 一タを含む規定デ一タを用いて動画像を編集する動画像編集方法におい て、
上記の規定データから、 動画像中におけるォブジュク トの状態変化に 関わる変動パラメ一夕を抽出する抽出工程と、
抽出された変動パラメ一タを、 ユーザーの指示に従って修正する修正 工程と、
修正された変動パラメータを用いて規定データを更新する更新工程と を含んでいることを特徴とする動画像編集方法。
1 3 . 動画像中におけるオブジェク トの状態を規定するためのパラメ ―夕を含む規定デー夕を用いて動画像を編集する動画像編集方法におい て、
上記の規定データから、 動画像中におけるォブジェク 卜の状態変化に 関わる変動パラメ一夕を抽出する抽出工程と、
抽出された変動パラメ一夕を、 ユーザーの指示に従って修正する修正 工程と、
修正された変動パラメ一タを用いて規定デ一タを更新する更新工程と を、 コンピューターに実行させることを特徴とする動画像編集方法。
1 4 . 動画像中におけるォブジヱク トの状態を規定するためのパラメ 一タを含む規定データを用いて動画像を編集する動画像編集装置のコン ピューターを、
上記の規定データから、 動画像中におけるォブジヱク トの状態変化に 関わる変動パラメータを抽出する抽出部と、
抽出された変動パラメ一夕を、 ュ ザ一の指示に従って修正するとと もに、 修正された変動パラメ一タを用いて規定デ一タを更新する修正部 として機能させることを特徴とする動画像編集プログラム。
1 5 . 動画像中におけるォブジヱク小の状態を規定するためのパラメ 一夕を含む規定データを用いて動画像を編集する動画像編集処理のため のコ ン ピュータープログラムを記録した記録媒体であって、
. 上記の規定データから、 動画像中におけるオブジェク トの状態変化に 関わる変動パラメ一夕を抽出し、
抽出された変動パラメ一夕を、 ユーザーの指示に従って修正し、 修正された変動パラメータを用いて規定データを更新するように設定 されていることを特徴とする動画像編集処理のためのコンピュータ一プ 口グラムを記録した記録媒体。
補正書の請求の範囲
[ 2 0 0 1年 1 0月 1 7曰 (1 7 . 1 0 . 0 1 ) 国際事務局受理:新しい請求の範囲
1 6— 2 0が加えられた;他の請求の範囲は変更なし。 ( 2頁) ] 関わる変動パラメ一タを抽出する抽出部と、
抽出された変動パラメータを、 ユーザーの指示に従って修正するとと もに、 修正された変動パラメ一タを用いて規定デ一夕を更新する修正部 として機能させること'を特徴とする動画像編集プログラム。
1 5 . 動画像中におけるォブジヱク トの状態を規定するためのパラメ 一夕を含む規定デ一タを用いて動画像を編集する動画像編集処理のため のコ ンビュ一タ一プログラムを記録した記録媒体であって、
上記の規定データから、 動画像中におけるォブジヱク 卜の状態変化に 関わる変動パラメ一夕を抽出し、
抽出された変動パラメ一夕を、 ユーザ一の指示に従って修正し、 修正された変動パラメ一タを用いて規定デ一タを更新するように設定 されていることを特徴とする動画像編集処理のためのコ.ンピュータ一プ ログラムを記録した記録媒体。
1 6 . (追加) 上記規定データが、 複数の静止画像に対応する複数の フ レームから構成されており、 上記画像表示部は、 規定データの各フレームに応じた静止画像のデ一 夕であるフ レ一ム画像データと、 各フレーム間を補間するためめ中間フ レームの静止画像デ一夕である中間画像データとを作成し、 これらフ レ ーム画像データおよび中間画像デ一タを所定時間毎に連続して表示する ような動画像デ一タを作成し、 動画像として表示するように設定されて いることを特徴とする請求項 4 に記載の動画像編集装置。
1 7 . (追加) 上記抽出部によって抽出された変動パラメータを表示 する変動パラメータ表示部を備え、
上記抽出部が、 指定されたォブジヱク トにおける変動パラメ一夕を抽出して変動パラ メ一夕情報として変動パラメ一夕表示部に表示させるとともに、
抽出した変動パラメ一タにおける上記各フレーム間での差分値を検出 し、 差分情報として変動パラメ一タ表示部に表示させるように設定され ていることを特徴とする請求項 1 6に記載の動画像編集装置。
1 8 . (追加) 上記抽出部は、 指定されたォブジヱク トに関する、 上 記画像表示部によつて表示されている中間画像データおよびフ レーム画 像データでの変動パラメ一夕の値を、 再生情報として上記変動パラメ一 夕表示部に逐次的に表示させるように設定されていることを特徴とする 請求項 1 7に記載の動画像編集装置。
1 9 . (追加) 上記修正部が、 上記変動パラメ一夕情報, 再生情報あ るいは差分情報に対するユーザーの修正指示に応じて、 規定デーダを修 正するように設定されている'ことを特徴とする請求項 1 8に記載の動画
2 0 . (追加.) 上記規定データが、 オブジェク トにおける、 時間とパ ラメ一夕との関係を示す情報から構成されており、
上記ォブジヱク ト指定部が、 ユーザーによる時間の選択指示に基づい て、 該当時間に変化するパラメータを有するォブジヱク トを、 変動パラ メータを抽出すべきオブジェク ト として指定するように設定されている ことを特徴とする請求項 2に記載の動画像編集装置。
PCT/JP2001/004292 2000-05-31 2001-05-22 Dispositif de montage d'animation, procede de montage d'animation, programme de montage d'animation, et support enregistre contenant un programme informatique de montage d'animation WO2001093206A1 (fr)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2002500339A JP3813579B2 (ja) 2000-05-31 2001-05-22 動画像編集装置、動画像編集プログラム、コンピュータ読み取り可能な記録媒体
EP01930250A EP1302900A4 (en) 2000-05-31 2001-05-22 ANIMATION MOUNTING DEVICE, ANIMATION MOUNTING METHOD, ANIMATION MOUNTING PROGRAM, AND RECORDED MEDIUM CONTAINING ANIMATION MOUNTING COMPUTER PROGRAM
AU56795/01A AU5679501A (en) 2000-05-31 2001-05-22 Device for editing animation, method for editing animation, program for editing animation, recorded medium where computer program for editing animation is recorded
US10/296,906 US7071942B2 (en) 2000-05-31 2001-05-22 Device for editing animating, method for editin animation, program for editing animation, recorded medium where computer program for editing animation is recorded

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2000163286 2000-05-31
JP2000-163286 2000-05-31

Publications (1)

Publication Number Publication Date
WO2001093206A1 true WO2001093206A1 (fr) 2001-12-06

Family

ID=18667062

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2001/004292 WO2001093206A1 (fr) 2000-05-31 2001-05-22 Dispositif de montage d'animation, procede de montage d'animation, programme de montage d'animation, et support enregistre contenant un programme informatique de montage d'animation

Country Status (5)

Country Link
US (1) US7071942B2 (ja)
EP (1) EP1302900A4 (ja)
JP (1) JP3813579B2 (ja)
AU (1) AU5679501A (ja)
WO (1) WO2001093206A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007509436A (ja) * 2003-10-23 2007-04-12 マイクロソフト コーポレーション ベクトルグラフィックスのためのマークアップ言語およびオブジェクトモデル
JP2013156962A (ja) * 2012-01-31 2013-08-15 Axell Corp 動画表示処理方法及びその方法を実現する画像表示装置
KR101360592B1 (ko) 2012-11-09 2014-02-10 이상호 애니메이션 생성방법 및 장치
JP2014067346A (ja) * 2012-09-27 2014-04-17 Kyocera Document Solutions Inc 画像処理プログラム、電子機器、画像形成装置
JP7505205B2 (ja) 2020-02-28 2024-06-25 カシオ計算機株式会社 情報処理装置、情報処理方法、サーバ装置およびプログラム

Families Citing this family (63)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003150972A (ja) * 2001-11-16 2003-05-23 Monolith Co Ltd 画像プレゼンテーション方法および装置
US20050066279A1 (en) * 2003-07-23 2005-03-24 Lebarton Jeffrey Stop motion capture tool
WO2005050477A1 (en) * 2003-11-18 2005-06-02 Nokia Corporation Method, subject terminal device, target terminal device, data content server, system and computer programs for maintaining and updating data contents
US20050253849A1 (en) * 2004-05-13 2005-11-17 Pixar Custom spline interpolation
JP4218590B2 (ja) * 2004-05-26 2009-02-04 ソニー株式会社 画像処理システム、情報処理装置および方法、画像処理装置および方法、記録媒体、並びにプログラム
US7813621B2 (en) * 2004-07-06 2010-10-12 Magnum Semiconductor, Inc. Synchronized streaming layer with presentation layer
US20060214947A1 (en) * 2005-03-23 2006-09-28 The Boeing Company System, method, and computer program product for animating drawings
US7739611B2 (en) * 2005-04-25 2010-06-15 Aol Inc. User interface with connectable elements
US20060259869A1 (en) * 2005-04-25 2006-11-16 Hewitt Joseph R Providing a user interface
US9141402B2 (en) 2005-04-25 2015-09-22 Aol Inc. Providing a user interface
TW200703043A (en) * 2005-07-13 2007-01-16 Li-Chih Lu Data file editing system for computer system
WO2007043826A1 (en) 2005-10-13 2007-04-19 Lg Electronics Inc. Method and apparatus for encoding/decoding
WO2007043829A1 (en) * 2005-10-13 2007-04-19 Lg Electronics Inc. Method and apparatus for encoding/decoding
US20070162854A1 (en) * 2006-01-12 2007-07-12 Dan Kikinis System and Method for Interactive Creation of and Collaboration on Video Stories
JP4305483B2 (ja) 2006-09-12 2009-07-29 ソニー株式会社 映像信号生成装置,映像信号受信装置及び映像信号生成・受信システム
US20080177776A1 (en) * 2007-01-22 2008-07-24 Stallings Richard W Animation object shell system and method
US20080250314A1 (en) * 2007-04-03 2008-10-09 Erik Larsen Visual command history
CN101802867B (zh) * 2007-07-18 2012-11-21 新加坡南洋理工大学 提供图形数据以及显示图形数据的方法
US20090079744A1 (en) * 2007-09-21 2009-03-26 Microsoft Corporation Animating objects using a declarative animation scheme
US20090282443A1 (en) * 2008-05-07 2009-11-12 Samsung Electronics Co., Ltd. Streaming method and apparatus using key frame
KR101515859B1 (ko) * 2008-12-05 2015-05-06 삼성전자 주식회사 디스플레이장치 및 그 컨텐츠 리스트 표시 방법
US20110113315A1 (en) * 2008-12-31 2011-05-12 Microsoft Corporation Computer-assisted rich interactive narrative (rin) generation
US20110119587A1 (en) * 2008-12-31 2011-05-19 Microsoft Corporation Data model and player platform for rich interactive narratives
US9092437B2 (en) * 2008-12-31 2015-07-28 Microsoft Technology Licensing, Llc Experience streams for rich interactive narratives
US9582506B2 (en) * 2008-12-31 2017-02-28 Microsoft Technology Licensing, Llc Conversion of declarative statements into a rich interactive narrative
US9672646B2 (en) * 2009-08-28 2017-06-06 Adobe Systems Incorporated System and method for image editing using visual rewind operation
US20120036483A1 (en) * 2010-08-09 2012-02-09 Infineon Technologies Ag Device, method for displaying a change from a first picture to a second picture on a display, and computer program product
US8468465B2 (en) 2010-08-09 2013-06-18 Apple Inc. Two-dimensional slider control
US20120089933A1 (en) * 2010-09-14 2012-04-12 Apple Inc. Content configuration for device platforms
US8364687B2 (en) * 2010-11-29 2013-01-29 Red Hat, Inc. Systems and methods for binding multiple interpolated data objects
US20130097552A1 (en) * 2011-10-18 2013-04-18 Microsoft Corporation Constructing an animation timeline via direct manipulation
US8806339B2 (en) * 2012-02-06 2014-08-12 Apple Inc. User interface control for media editing application
TWI606418B (zh) * 2012-09-28 2017-11-21 輝達公司 圖形處理單元驅動程式產生內插的圖框之電腦系統及方法
USD754717S1 (en) 2013-05-15 2016-04-26 Tencent Technology (Shenzhen) Company Limited Display screen portion with animated graphical user interface
USD753666S1 (en) 2013-05-15 2016-04-12 Tencent Technology (Shenzhen) Company Limited Display screen portion with graphical user interface
USD762704S1 (en) 2013-05-15 2016-08-02 Tencent Technology (Shenzhen) Company Limited Display screen portion with animated graphical user interface
USD737316S1 (en) * 2013-05-15 2015-08-25 Tencent Technology (Shenzhen) Company Limited Display screen with animated graphical user interface
AU2015279544B2 (en) 2014-06-27 2018-03-15 Apple Inc. Electronic device with rotatable input mechanism for navigating calendar application
EP3195098A2 (en) 2014-07-21 2017-07-26 Apple Inc. Remote user interface
KR102156223B1 (ko) 2014-08-02 2020-09-15 애플 인크. 상황 특정 사용자 인터페이스
US10452253B2 (en) 2014-08-15 2019-10-22 Apple Inc. Weather user interface
EP4209872A1 (en) 2014-09-02 2023-07-12 Apple Inc. Phone user interface
JP2017527033A (ja) 2014-09-02 2017-09-14 アップル インコーポレイテッド ユーザ入力を受信するためのユーザインタフェース
US10254948B2 (en) 2014-09-02 2019-04-09 Apple Inc. Reduced-size user interfaces for dynamically updated application overviews
DE112014007242T5 (de) * 2014-12-12 2017-09-28 Mitsubishi Electric Corporation Informationsverarbeitungsvorrichtung; wiedergabeverfahren für bewegte bilder und wiedergabeprogramm für bewegte bilder
US10055121B2 (en) 2015-03-07 2018-08-21 Apple Inc. Activity based thresholds and feedbacks
WO2016144385A1 (en) 2015-03-08 2016-09-15 Apple Inc. Sharing user-configurable graphical constructs
US9916075B2 (en) 2015-06-05 2018-03-13 Apple Inc. Formatting content for a reduced-size user interface
EP3337583B1 (en) 2015-08-20 2024-01-17 Apple Inc. Exercise-based watch face
DK201770423A1 (en) 2016-06-11 2018-01-15 Apple Inc Activity and workout updates
DK179412B1 (en) 2017-05-12 2018-06-06 Apple Inc Context-Specific User Interfaces
CN108399654B (zh) * 2018-02-06 2021-10-22 北京市商汤科技开发有限公司 描边特效程序文件包的生成及描边特效生成方法与装置
US11327650B2 (en) 2018-05-07 2022-05-10 Apple Inc. User interfaces having a collection of complications
US11340778B2 (en) 2019-05-06 2022-05-24 Apple Inc. Restricted operation of an electronic device
US11131967B2 (en) 2019-05-06 2021-09-28 Apple Inc. Clock faces for an electronic device
US11960701B2 (en) 2019-05-06 2024-04-16 Apple Inc. Using an illustration to show the passing of time
US10852905B1 (en) 2019-09-09 2020-12-01 Apple Inc. Techniques for managing display usage
US11372659B2 (en) 2020-05-11 2022-06-28 Apple Inc. User interfaces for managing user interface sharing
DK202070624A1 (en) 2020-05-11 2022-01-04 Apple Inc User interfaces related to time
EP4133371A1 (en) 2020-05-11 2023-02-15 Apple Inc. User interfaces for managing user interface sharing
US11694590B2 (en) 2020-12-21 2023-07-04 Apple Inc. Dynamic user interface with time indicator
US11720239B2 (en) 2021-01-07 2023-08-08 Apple Inc. Techniques for user interfaces related to an event
US11921992B2 (en) 2021-05-14 2024-03-05 Apple Inc. User interfaces related to time

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02216588A (ja) * 1989-02-17 1990-08-29 Hitachi Ltd 対話型スクリプト・アニメーション生成方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3345473B2 (ja) * 1993-08-03 2002-11-18 株式会社日立製作所 アニメーション生成方法
US6442523B1 (en) * 1994-07-22 2002-08-27 Steven H. Siegel Method for the auditory navigation of text
WO1998006043A1 (en) * 1996-08-02 1998-02-12 New York University A method and system for scripting interactive animated actors
US5764241A (en) * 1995-11-30 1998-06-09 Microsoft Corporation Method and system for modeling and presenting integrated media with a declarative modeling language for representing reactive behavior
JPH09167251A (ja) 1995-12-14 1997-06-24 Canon Inc アニメーション生成装置及びその方法
US5867175A (en) * 1996-05-24 1999-02-02 Microsoft Corporation Method and apparatus for scriping animation
EP1122951B1 (en) * 1998-09-08 2003-11-19 Sharp Kabushiki Kaisha Time-varying image editing method and time-varying image editing device
JP4010761B2 (ja) 1999-10-20 2007-11-21 株式会社日立国際電気 動画像情報の編集方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02216588A (ja) * 1989-02-17 1990-08-29 Hitachi Ltd 対話型スクリプト・アニメーション生成方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007509436A (ja) * 2003-10-23 2007-04-12 マイクロソフト コーポレーション ベクトルグラフィックスのためのマークアップ言語およびオブジェクトモデル
JP2013156962A (ja) * 2012-01-31 2013-08-15 Axell Corp 動画表示処理方法及びその方法を実現する画像表示装置
JP2014067346A (ja) * 2012-09-27 2014-04-17 Kyocera Document Solutions Inc 画像処理プログラム、電子機器、画像形成装置
KR101360592B1 (ko) 2012-11-09 2014-02-10 이상호 애니메이션 생성방법 및 장치
JP7505205B2 (ja) 2020-02-28 2024-06-25 カシオ計算機株式会社 情報処理装置、情報処理方法、サーバ装置およびプログラム

Also Published As

Publication number Publication date
EP1302900A1 (en) 2003-04-16
US7071942B2 (en) 2006-07-04
EP1302900A4 (en) 2007-12-12
AU5679501A (en) 2001-12-11
US20030164847A1 (en) 2003-09-04
JP3813579B2 (ja) 2006-08-23

Similar Documents

Publication Publication Date Title
WO2001093206A1 (fr) Dispositif de montage d&#39;animation, procede de montage d&#39;animation, programme de montage d&#39;animation, et support enregistre contenant un programme informatique de montage d&#39;animation
US20070083851A1 (en) Template-based multimedia editor and editing method thereof
CN100440356C (zh) 记录交互内容版本信息的信息存储介质的记录与重现方法
EP1376406A2 (en) A system and process for creating an interactive presentation employing multi-media components
JP4827275B2 (ja) 電子書籍表示装置およびコンピュータ・プログラムを記録した記録媒体
KR20040083350A (ko) 복합 미디어 콘텐츠의 변환 장치 및 변환 방법과 복합미디어 콘텐츠 변환 프로그램
JP2011145747A (ja) スタイル要素を用いた画面表示の選択した表示領域をコピーアンドペーストする方法、システム及びプログラム
JP4514671B2 (ja) コンテンツ編集装置、コンピュータ読み取り可能なプログラム及びそれを記録した記録媒体
WO2022227329A1 (zh) 媒体文件生成、播放方法及设备
JP2001238172A (ja) 映像構造編集装置、構造要素再構成装置およびその装置の各手段としてコンピュータを実行させるプログラムを記録したコンピュータ読み取り可能な記録媒体
JP4660374B2 (ja) 記録再生システム、記録装置、再生装置、記録媒体、記録再生方法、記録方法、再生方法、プログラム、および記録媒体
JPWO2002023350A1 (ja) 表示画面に付加情報を重畳表示する技術
KR101886067B1 (ko) 웹 브라우저 독립적인 전자문서 제공장치
JP4719743B2 (ja) グラフ処理装置
JP2003015941A (ja) 文書のデータ構造、記憶媒体及び情報処理装置
KR20030034410A (ko) 엠펙-4 컨텐츠를 위한 비아이에프에스 언어 생성 방법 및그 시스템
JP2005285076A (ja) 映像情報制作方法
JP2003099424A (ja) 文書のデータ構造、記憶媒体及び情報処理装置
JP2012252370A (ja) 情報処理装置、情報処理方法及びプログラム
JP2001195604A (ja) 動画像情報の編集方法
KR102026994B1 (ko) 비디오 모션객체를 정의하는 마크업 언어 시스템
CN100418151C (zh) 以交互模式处理标记文档的方法和设备
WO2007004699A1 (ja) ダイジェスト化装置、ダイジェスト化システム、ダイジェスト化プログラムプロダクト、およびダイジェスト化プログラムを記録したコンピュータ読取り可能な記録媒体
WO2014042053A1 (ja) 電子書籍制作装置、ビューワ装置、電子書籍システム及び電子書籍制作方法
JP3767311B2 (ja) データ放送番組編集装置

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AU BR CA CN IN JP KR NO US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE TR

DFPE Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed before 20040101)
121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 10296906

Country of ref document: US

ENP Entry into the national phase

Ref country code: JP

Ref document number: 2002 500339

Kind code of ref document: A

Format of ref document f/p: F

WWE Wipo information: entry into national phase

Ref document number: 2001930250

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 2001930250

Country of ref document: EP