WO2001093207A1 - Procede et dispositif pour la production d'animation, et support enregistre comportant un programme enregistre - Google Patents

Procede et dispositif pour la production d'animation, et support enregistre comportant un programme enregistre Download PDF

Info

Publication number
WO2001093207A1
WO2001093207A1 PCT/JP2001/004472 JP0104472W WO0193207A1 WO 2001093207 A1 WO2001093207 A1 WO 2001093207A1 JP 0104472 W JP0104472 W JP 0104472W WO 0193207 A1 WO0193207 A1 WO 0193207A1
Authority
WO
WIPO (PCT)
Prior art keywords
animation
image
previously described
additional
additional object
Prior art date
Application number
PCT/JP2001/004472
Other languages
English (en)
French (fr)
Inventor
Tadahide Shibao
Original Assignee
Sharp Kabushiki Kaisha
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Kabushiki Kaisha filed Critical Sharp Kabushiki Kaisha
Priority to US10/296,713 priority Critical patent/US7095413B2/en
Priority to AU2001260634A priority patent/AU2001260634A1/en
Priority to EP01934380A priority patent/EP1296289A4/en
Publication of WO2001093207A1 publication Critical patent/WO2001093207A1/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2213/00Indexing scheme for animation
    • G06T2213/08Animation software package

Definitions

  • the present invention relates to an animation creation method and an animation creation device for automatically creating an animation, an animation creation program, and a computer-readable recording medium storing the animation creation program.
  • Animation creation method, animation creation device, and animation creation program that automatically generates characters and animations that express facial expressions and human movements on applications such as computers And a computer-readable recording medium recording the same.
  • the present invention can automatically generate a character motion corresponding to the added object only by selecting an object to be added to the character animation. They can also automatically create an animation of the added object, an animation creation method that functions as an authoring tool, and an animation creation device, and The present invention relates to an animation creation program and a computer-readable recording medium on which the program is recorded.
  • Background art With the character animation authoring tool, a type of animation creation program, a series of meaningful movements and expressions are divided into animation parts to create animation pieces by joining together animation parts. The method is adopted.
  • the above-described conventional animation creation device which discloses an animation creation device, specifically includes an animation pad that divides a series of actions and facial expressions of a person (character) into a plurality of frames, and an animation.
  • the storage unit has attribute values of the parts.
  • the above-described conventional animation creation device has an input unit for creating an animation according to a story by selecting and connecting animation parts in accordance with a progress step of the story.
  • attribute values representing features such as the operation and expression of each part are stored and stored in a database (hereinafter referred to as a database). , "DB")
  • DB database
  • the desired attribute value is entered in the step of progressing the story, and the animation parts are selected and connected.
  • An object of the present invention is to provide an animation creation method and an animation creation method capable of creating a synthesized animation in which an object is added to a previously described animation image in a simple operation in a short time.
  • An object of the present invention is to provide an animation creating device, an animation creating program, and a computer-readable recording medium recording the program.
  • a second pre-created animation is input by inputting an editing instruction to an image of a previously described animation (including a previously described animation) including a first object.
  • a previously described animation including a previously described animation
  • the animation creation technology for adding an object when the user selects the second object, the first object included in the previously described animation is added to the second object.
  • the above object is achieved by automatically creating an action animation that performs a corresponding action.
  • the present invention particularly includes, in order to create this motion animation, 10 control objects for controlling the motion of the first object in the second object.
  • control information for controlling the movement or change of the form of the parts constituting the first object is provided.
  • the animation creation method of the present invention provides the first object by inputting an edit instruction (an instruction to edit the animation by the user) 15.
  • a method for creating wherein a step of selecting a second object, and using the image of the previously described animation, the 120th object performs an operation corresponding to the selected second object.
  • Performing includes a step of creating a motion animation, and a step of combining the motion animation with the image of the animation of the second object. It is characterized a call.
  • the user is allowed to enter a pre-defined key including the first object.
  • the first object automatically generates an operation animation that performs an operation corresponding to the second object. It can be combined with the image of the animation of 2 objects. Therefore, the user does not have to search for the animation of the first object corresponding to the second object or to newly create the animation.
  • it is possible to create a composite animation with a simple operation by adding the image of the animation of the second object to the image of the previously described animation, and reduce the time spent on animation creation be able to.
  • the user needs to create the animation in the previously created animation image. Needs to find the animation of the first object according to the second object, or create a new animation of the first object according to the second object . Therefore, the operation of the user becomes complicated, and it takes a long time to complete the communication. .
  • the “animation image” includes not only a moving image of an animation but also an image of a representative frame of the animation.
  • the animation creation method of the present invention provides an animation instruction in advance by inputting an editing instruction to a previously described animation image including the first object.
  • the user simply selects the second object to be added to the image of the previously described animation including the first object, and the first object is changed to the second object. It is possible to automatically generate an action animation that performs an action according to the object, and combine it with the image of the animation of the second object. Therefore, the user does not have to search for the animation of the first object corresponding to the second object or to newly create the animation. As a result, it is possible to create a composite animation in which the animation image of the second object is added to the previously described animation image with a simple operation, thereby reducing the time required for creating the animation. Can be.
  • the behavior of the first object can be changed according to the content of the second object related to the first object, so that one second object can be used. Can be used to create multiple animations. Therefore, various animations can be easily created.
  • the result of combining the motion animation and the image of the animation in the second object is a combined animation. It is preferable that the method further includes a step of outputting as an option. Further, in a preferred embodiment of the animation creation method of the present invention, in order to achieve the above-mentioned object, control information for controlling an image of the animation of the second object and the operation of the first object is provided.
  • the step of preparing a plurality of types of object data including, for example, a step of preparing a database composed of a plurality of types of object data, and the step of selecting the second object includes the steps of reducing the above-mentioned object data.
  • the step of selecting at least one type and generating the motion animation is characterized in that the motion of the first object is controlled based on the control information.
  • the user prepares a plurality of types of object data including an image of the animation of the second object and control information for controlling the operation of the first object.
  • the object data is prepared by preparing a plurality of types of object data including an animation image of the first object and control information for controlling the operation of the first object. If the information is distributed to users through a communication network such as a network, a new second object can be used.
  • a communication network such as a network
  • the data format of the object data is made public to the user, or if dedicated software for editing the object data is prepared separately, the user can create new object data. It is also possible to add Becomes
  • control information is information indicating a movement or a change in form of a part constituting the first object.
  • animation representing human movement, for example, changes in facial expressions and movements of limbs, can be realized with a relatively small amount of information.
  • the above animation creation method further includes a step of displaying an icon representing the second object, and in the step of selecting the first object, the user points one of the displayed icons to the point of the user. It is preferable that the second object be automatically selected by making a selection with an input device such as a device. This allows the user to easily select the second object.
  • the step of displaying the icon representing the second object it is preferable to display only the icon representing the second object that can be added to the image of the previously described animation.
  • the animation creation method of the present invention outputs a animation obtained as a result of synthesizing the action animation and the animation image of the second object as an animation file. Holding), selecting a third object different from the second object, and using the animation file stored in the storage device to convert the first object into the selected second object. Generating a second action animation that performs an action in response to the first object and the third object; and combining the second action animation with the image of the third object animation. It is preferable to further have a step of
  • the animation obtained by synthesizing the motion animation and the second object is output (held) as an animation file.
  • the user can confirm the animation in the process of synthesis with only the object added.
  • an animation image of the second object is compared with an image of the previously described animation.
  • a step of inputting position information indicating a position to be added is further included.
  • the step of generating the motion animation V is characterized in that the motion animation is changed by the above-described position report.
  • an animation image of a second object is added to an image of a previously described animation image.
  • the method further includes a step of inputting position information indicating a position to be added, and the step of selecting a second object is characterized in that the second object is changed according to the position information. .
  • a plurality of different types of second objects can be selected by simply changing the position information input by the user, and a plurality of different types of composite games can be created. Therefore, various animations can be easily created.
  • a plurality of different objects are sequentially selected as a second object in a step of selecting a second object, and a second step is performed in a step of generating a motion animation.
  • the operation of the first object may be controlled based on the order of selecting objects.
  • the parts constituting the first object included in the original image data are changed according to the input position (input position) of the second object.
  • control information for controlling movement and form can be selected.
  • the animation creation device of the present invention provides a pre-written animation image including a first object by inputting an editing instruction to the previously described animation image.
  • the first object generates an operation animation that performs an operation according to the selected second object, and an operation animation generation unit that generates the operation animation and the second object. It is characterized by having an animation composition section for composing an animation image.
  • the user can select the second object to be added to the previously described animation image including the first object in the object selection unit, and the operation animation generation is performed.
  • a motion animation in which the first object performs a motion corresponding to the second object is automatically generated, and in the animation synthesizing section, the motion animation generates the motion animation of the second object.
  • the user does not need to search for the animation of the first object corresponding to the second object or perform an operation for creating a new object, and the image of the previously described animation is added to the image of the previously described animation.
  • a composite animation can be created by adding the image of the animation of the second object.
  • the animation creation program of the present invention achieves the above object. For example, when a user's editing instruction is input, a composite animation in which a second object created in advance is added to an image of a previously described animation including a first object.
  • a computer-readable recording medium on which an animation creation program for creating an animation is created, and when a second object is selected by a user, the second object is selected by using a previously described animation image.
  • the first object generates a motion animation that performs a motion corresponding to the selected second object, and then the motion animation and the image of the second object's animation are generated. It is characterized by being synthesized.
  • a computer readable recording medium of the present invention is characterized by recording the above animation creation program.
  • the animation creating program when the second object is selected by the user, the animation creating program causes the first object to perform an operation corresponding to the second object. Is automatically generated and combined with the image of the animation of the second object. Therefore, the user does not need to operate the animation of the first object according to the second object or perform the operation of creating a new object, and the second animation can be added to the image of the already-described animation. You can create a composite animation by adding an image of the animation of the object. Therefore, according to the above configuration, it is possible to create a composite animation in which the animation image of the second object is added to the image of the previously described animation by a simple operation. The time spent can be reduced. Still other objects, features, and strengths of the present invention will be made clear by the description below. Also, refer to the attached drawings for the advantages of the present invention. The following explanation will become clear.
  • FIG. 1 is a schematic block diagram showing an embodiment of an animation creating apparatus according to the present invention.
  • FIG. 2 is a schematic diagram showing an example of an object used in the animation creation method according to the present invention.
  • FIG. 3 is a diagram showing an example of the data structure of the previously described animation image data used in the animation creation method according to the present invention.
  • FIG. 4 is a diagram showing an example of the data structure of additional object data used in the animation creation method according to the present invention.
  • FIG. 5 is a flowchart showing an embodiment of the animation creating method according to the present invention.
  • FIG. 6 is a diagram showing an example of a display screen displayed by the animation creation program according to the present invention.
  • FIG. 7 is a flowchart showing an operation procedure of the user in the state of the execution of the animation creating method according to the present invention.
  • FIGS. 8 (a) and 8 (b) are diagrams showing an example of an animation character image used in the animation creation method according to the present invention, and FIG. 8 (a) is a character image.
  • Fig. 8 (b) is a partially enlarged view showing the left hand part of the above-mentioned character.
  • FIG. 9 is a diagram showing another example of the data structure of the previously described animation image data used in the animation creation method according to the present invention.
  • FIG. 10 is a diagram showing an example of a data structure of additional object data used in the animation creating method according to the present invention.
  • FIG. 11 is a diagram showing an example of a data structure of parts data included in previously described animation image data used in the animation creation method according to the present invention.
  • FIG. 12 is an explanatory diagram for explaining a method of creating a vector animation of an operation object in the animation creation method according to the present invention.
  • FIGS. 13 (a) and 13 (-b) are explanatory views for explaining another embodiment of the animation creating method according to the present invention.
  • FIG. 14 is a diagram showing an example of the data structure of additional object data used in the animation creating method according to FIG. 1'3. +
  • FIGS. 15 (a) and 15 (b) are explanatory views for explaining still another embodiment of the animation creating method according to the present invention.
  • FIG. 16 is an explanatory diagram for explaining still another embodiment of the animation creating method according to the present invention.
  • the animation creation device in accordance with a user's editing instruction, performs a previously described animation as image data of a representative frame of an animation including a first object (hereinafter, referred to as an operation object).
  • Image data (animated image)
  • a composite animation to which a second object (hereinafter, referred to as an additional object) is added is created.
  • the previously described animation image data may be image data of a plurality of frames of an animation including an operation object, that is, moving image data including an operation object.
  • the animation creation device 1 includes a previously described animation image DB 11 and a previously described animation image selection unit 12.
  • the previously described animation image DB 11 stores a plurality of types of previously described animation image data that serve as a model of the animation to be created.
  • the selected animation image selection section 12 is one of a plurality of already-described animation image data stored in the already-described animation image DB 11. This is for the user to select a day. ''
  • the animation creating apparatus 1 further includes an additional object DB 13, an additional object selection unit (object selection unit) 14, a control information acquisition unit 19, and an additional animation reading unit 21. ing.
  • the additional object DB 13 stores a plurality of types of additional object data (hereinafter, referred to as additional object data) to be added to the previously described animation image data. Additional object data is described in detail. As will be described later, information on the additional object itself, such as animation data of the additional object (hereinafter referred to as additional animation data), and control of the operation of the operation object. And control information for performing the operation.
  • the additional object selection unit 14 is for the user to select one or more additional object data.
  • the control information acquisition section 19 acquires control information included in the additional object data selected by the additional object selection section 14 from the additional object DB 13.
  • the additional animation reading unit 21 reads the additional animation data included in the additional object data selected by the additional object selecting unit 14 from the additional object DBs 1. It is.
  • the animation creation apparatus 1 controls the operation of the operation object based on the control information acquired by the control information acquisition unit 19 using the previously described animation image data.
  • the motion animation generation unit 20 that generates a motion animation in which the motion object performs the motion according to the additional object, and synthesizes the motion animation with the animation of the motion image of the additional object. It is characterized by having an animation composition section 15 for performing composition processing.
  • the animation creating apparatus 1 further includes an additional object data retrieval section 17 and an additional object display section 18 that facilitate user selection by the additional object selection section '14.
  • the additional object data search unit 17 searches the additional object DB 13 for additional objects that can be added to the previously described animation image data.
  • the additional object display section 18 displays the previously described animations found as a result of the search in the additional object data search section 17.
  • the additional objects that can be added to the image data are displayed as icons (additional object icons). Information on this icon is stored as additional object icon image information within the additional object data area. .
  • the animation creating apparatus 1 further includes a combined animation output unit 16 that outputs the animation (synthesized animation) combined by the animation combining unit '15 to a file.
  • Each functional block shown in Fig. 1 can be realized by the following hardware, for example. That is, the previously described animation image DB 11 and the additional object DB 13 are external storage devices such as a hard disk connected to a computer, and the previously described animation image selection unit 12 and the additional object selection unit 14 are a mouse.
  • the pointing device 18 and the additional object display unit 18 can be realized by a display device such as a CRT (Cathode Ray Tube) display connected to a computer.
  • the other function blocks can be executed by a computer (microprocessor and memory) that reads the animation creation program and OS (Operating System) from an external storage device and executes them.
  • An example of one of the data structures will be described with reference to FIGS. 2, 3, and 4.
  • FIG. 1 An example of one of the data structures will be described with reference to FIGS. 2, 3, and 4.
  • the previously described animation image data includes an operation object composed of a plurality of parts, and the operation of each part is controlled.
  • human movement such as the face table It can express animations (character animations) that show changes in emotions and movements of limbs.
  • the motion object is represented by the coordinates of the constituent points and the information of the line connecting the constituent points. This makes it possible to easily represent the motion of the motion object.
  • the “description animation” one-shot image data in this example is data of one operation object 10 composed of two packets 23 shown in FIG.
  • Part 2 is composed of four part constituent points 2 ⁇ a to 2d and a line segment between four part constituent points connecting adjacent part constituent points 2a to 2d.
  • the part 3 is composed of four part constituent points 3a to 3d and a line segment between the four part constituent points 3a to 3d connecting the adjacent part constituent points 3a to 3d.
  • the movement and form of the parts 2 and 3 constituting the operation object 10 can be controlled by the control information 43 included in the additional object data 40 described later.
  • FIG. 2 shows a still image obtained when the motion object 10 and the additional object 4 are superimposed for the sake of explanation, and does not show a synthesis result.
  • the number of motion objects, the number of parts constituting the motion object, the number of part composing points, the shape and number of lines connecting the .part composing points, and the like are not particularly limited.
  • the data of the operation object 10 described above, that is, the previously described animation image data stored in the previously described animation image DB 11 is data relating to part 2 as shown in Fig. 3. 2 5 and no.
  • the part data 30 which is the data relating to the data 3 and the pre-defined information which is a file describing the previously described animation image data (not shown) It consists of the file name of the previously described animation file (name of the previously described animation image file) and the ID of the previously described animation image file (the previously described animation image file ID).
  • the part data 25 is a part name 26 representing the name of the part 1, a part ID 27 representing the ID of the part 1, and a component point coordinate 28 representing the coordinates of the component points 2a to 2d. , And information on the four line segments connecting the component points 2 a to 2 d (information on the thickness and color of the line segments, and information on the color in the area surrounded by the line segments). .9.
  • the part data 30 is a part name 31 representing the name of the part 3, a part ID 32 representing the ID of the part 3, and a part constituent point coordinate 33 representing the coordinates of the part constituent points 3a to 3d. , And information on the four line segments connecting the component points 3 a to 3 d (information on the thickness and color of the line segments and the color in the area surrounded by the line segments). Consists of ⁇
  • the additional object data selected by the additional object selection section 14—evening, that is, the data structure of one of a plurality of additional object data stored in the additional object DB 13 is shown in FIG. This is explained using 4.
  • the additional object data 40 is a file name of a previously described animation image file that describes the previously described animation image data of the control target (not shown) (the name of the previously described animation image file to be controlled).
  • a previously described animation image file of the control target (not shown) a file ID of a previously described animation image file describing the event (control target already described animation image file ID), a control target file name 4 1, control target part ID 4 2, control information 4 3, additional object information 4 4, And additional object icon image information 45.
  • the additional object data 40 may have an additional range (additional position range) of the additional object to the already described animation image data.
  • the control target part name 41 may be omitted.
  • the control target part name 41 stores the part name (part name 26 or part name 31) of the part controlled by the additional object 4.
  • the control target part ID 42 stores the part ID (part ID 27 or part ID 32) of the part controlled by the additional object 4.
  • the control information 43 includes additional object information 44 that stores information (the control amounts of the parts 2 and 3) that controls the movement and form of the parts 2 and 3 that constitute the operation object 10. Stores information on the additional object 4 to be added to the previously described animation image data.
  • the additional object information 4 4 may be the still image data of the additional object 4 or the like.
  • the animation file describing the animation of the additional object 4 (an additional animation one section) is used. It has become. Therefore, hereinafter, the additional object information 44 will be described as an additional animation file 44.
  • the additional object icon image information 45 stores information on the additional object icons that are plotted so that the user can easily understand the contents of the additional object data 40. The function of this additional object icon will be discussed later.
  • the user selects the previously described animation image data—evening, which serves as a model for the created animation (S21). More specifically, in the previously described animation image selection unit 1, the user selects one of a plurality of types of previously described animation image data stored in the previously described animation image DB11. 'One previously described animation image data is selected. This selection was installed in a personal 'computer using, for example, a pointing' device such as a mouse. 0S realized by the file manager This can be done by opening the file.
  • the animation creation device 1 may present the selected previously described animation image data to the user 1 by a method such as displaying a file name, as shown in a display screen of FIG. 6 described later.
  • a method of displaying previously described animation image data as an image is particularly preferable. This makes it easy for the user to recognize the contents of the previously described animation image data. Therefore, although not shown in FIG. 1, the animation creating apparatus 1 converts the previously described animation image data selected in response to the selection in the previously described animation image selecting section '12' into the previously described animation.
  • Good to have Good As shown in the display screen of FIG. 6 to be described later, the display device displays a display screen (composition result display screen 53) different from the display screen (composition result display screen 53) for displaying the composite animation. It is preferable that the contents of the previously described animation image data be displayed on the description animation image display screen 51). As a result, the user can easily recognize the correlation between the previously described animation image data and the synthesized animation.
  • an additional object that can be added to the already described animation image data selected in S1 is searched (S22).
  • This search is performed by the additional object data search unit 17 on the additional object DB 13 in response to the selection in the previously described animation image selection unit 12.
  • the additional object data search unit .17 searches for the previously described animation image data selected in the previously described animation image selection unit 12 from the additional object DB13.
  • Search for additional object data 40 that has a previously described animation image file name of the control target that matches the previously described animation image file name.
  • the additional object data search unit 17 selects one of the plurality of types of additional object data stored in the additional object DB 13 in the previously described animation image selection unit 12.
  • Descriptive animation image A control pair that matches the previously described animation image file ID of the image data Elephant description animation-Search for additional objects with the image file ID.
  • the additional objects that can be added to the search result that is, the additional animation data selected in S21, are displayed in the additional object display section 18.
  • the display of the additional object may be displayed in text, but an icon (additional object icon) indicating the form or function of the additional object as shown in the additional object icon display screen '52 described later. ) Is preferably displayed. This makes it possible to visually select additional objects to be added to the previously described animation image data.
  • step S22 itself can be omitted. Therefore, in the animation creating apparatus 1 shown in FIG. 1, both the additional object data search unit 17 and the additional object display unit 18 can be omitted. However, in that case, if you do not know the available additional objects in advance, you can select additional objects. This is disadvantageous in terms of versatility because it cannot be selected.
  • the additional object selection unit 14 from among the additional objects that can be added to the already described animation image data selected in S 21, that is, from the additional objects searched in S 22, An additional object to be added to the previously described animation image data selected in S21 is selected by the user (S23).
  • the selection of an additional object by the user may be realized by selecting a menu item from a pull-down menu or the like, but as will be described later, the additional object icon displayed on the additional object icon display screen 52 is displayed. It is preferable to implement this by dragging a point with a pointing device into the previously described animation image display screen 51 displayed in S21. If the additional object icon is selected in this manner, the user can easily understand the form and function of the additional object and select the additional object, thereby improving operability.
  • control information acquisition unit 19 operates the operation included in the additional object data 40 selected by the additional object selection unit 14.
  • Control information for controlling the operation of the object in the example of FIGS. 2 to 4, control information 43 for controlling the parts 2 and 3 constituting the operation object 10) is acquired from the additional object DB 13 (S24).
  • the motion animation generation unit 20 applies control to the motion object motion based on the control information acquired in step S24 on the previously described animation image data, so that the motion animation is generated. A portion is generated (S25).
  • the action generation unit 20 controls the operation of at least one of the parts 2 and 3 constituting the operation object 10 by controlling the operation of the part. Generate motion animation. This operation animation is output from the operation animation—section generation unit 20 as an animation file.
  • This instruction is performed by a selection end instruction unit (not shown) provided in the animation creating apparatus 1 and instructing to end the selection of the additional object.
  • This selection end instruction may be issued by, for example, clicking the selection end instruction button displayed on the display device with a pointing device.
  • N in S26 that is, if the user does not select an additional object other than the additional object selected in S23, the process proceeds to S27 described later.
  • the additional animation reading unit 21 outputs the selected additional object data in accordance with the user's selection in the additional object selecting unit 14 (the additional object in FIG. 4). Todo overnight (40) was searched from the additional object DB13, and then the information of the searched data was searched for information on the animation to be added to the motion animation (the additional animation file 44 in Fig. 4). I do.
  • the additional animation reading file 21 reads the additional animation file 44 from the additional object DB 13 by the additional animation reading unit 21.
  • the combined animation and the additional animation file are combined to generate a combined animation (S28).
  • the synthesized animation is output (displayed) as a moving image by the synthesized animation output unit 16 and output to a file (S29).
  • the animation creation method records an animation creation program describing the animation creation process according to the present embodiment.
  • a computer such as a personal computer with a built-in microprocessor for executing the animation creation program.
  • the recording medium that can be read by the computer may be a memory built into the computer as an internal storage device, for example, a ROM (Read Only Memory), or may be connected to the computer as an external storage device.
  • the recording medium may be a medium that is inserted into the recording medium reading device and that is read by the recording medium reading device.
  • the computer may have a configuration in which the microprocessor accesses the program stored in the recording medium and executes the program, or the program stored in the recording medium may be stored in the computer. After reading the program into the program storage area, the microphone processor may execute the program.
  • the recording medium is a recording medium that is configured to be separable from the microphone processor, and is a tape medium such as a magnetic tape or a cassette tape; a magnetic disk medium such as a tape disc or a hard disk. ;
  • Optical disc media such as CD_R0 M (ompact Disc Read Only Memory) ⁇ , M0 (Magneto-Optical) disc, MD (Mini Disc), DVD (Digital Video Disc); IC (Integrated Circuit) car Cards (including memory cards), optical cards, and other card-based media; mask ROM, EPROM (Erasable and Programmable Read Only Memory), EEPR 0 M (Electrically Erasable and Programmable Read Only Memory), flash Any medium such as a semiconductor memory such as a memory (non-volatile memory) which fixedly holds a program including a semiconductor memory may be used.
  • the recording medium may be a medium that downloads a program from a communication network and carries the program in a fluid manner. Good.
  • the program for the down port is stored in the main unit of the computer in advance, or is installed from another recording medium. It should be left.
  • FIG. 6 is an example of a display screen of an animation creation application for executing the animation creation method of the present embodiment.
  • an animation creating apparatus 1 for executing the animation creating application is a computer with a built-in microprocessor and memory for executing the animation creating application.
  • An external storage device such as a hard disk for storing a computer and an animation creation application, a display device such as a CRT display and a liquid crystal display for displaying the above display screen, and a user creating an animation. It is equipped with a pointing device for operation. As shown in Figure 6, the display screen of the animation creation application
  • FIG. 5 is a pre-defined animation image display screen 51 for displaying a character 6 as a motion object included in the pre-described animation image data, and an additional object for displaying an additional object.
  • Icon display screen 52 and composite result for displaying composite animation It has a display screen 53.
  • the user selects character 6 (S61).
  • data of a desired character 6 can be obtained by using a pointing device (eg, a previously described animation image). Open the file containing the data.
  • This work step corresponds to S 21 in FIG.
  • the animation creation publication causes the selected character 6 to be displayed on the previously described animation image display screen 51 of the display screen 5.
  • the application for creating an animation displays icons representing additional objects, that is, additional object icons 54 A to 54 D on the display screen 5 based on the additional object icon image information 45.
  • the additional object icon is displayed on the display screen 52.
  • the animation creation application uses the additional object icons 54 A to 54 D to display the additional animation icons that can be added to the previously described animation image data selected in S 61. It is desirable that the object is automatically searched, and only the additional object icons 54 A to 54 D of the found additional objects are displayed on the additional object small icon display screen 52. In other words, the animation creation application automatically adds only the additional object icons 54 A to 54 D corresponding to the additional object data having control information for controlling the parts constituting the character 6. Display on display screen 52 It is desirable that
  • the animation creating apparatus 1 of the present embodiment includes the data of the character 6 (the previously described animation image data) and the additional objects that can be added to the character 6. It is more desirable to have an additional object DB13 describing the correspondence between the two. If such an additional object DB 13 is provided, S 21 in FIG. 5 can be omitted. '
  • the user adds a character to the character 6 selected in S61 from among the additional object icons 54A to 54D displayed on the additional object icon display screen 5-2.
  • Select an additional object icon (any of 54A to 54D) corresponding to the additional object to be added (S62).
  • select an additional object icon select one of the additional object icons 5 4 A to 5 4D displayed on the additional object icon display screen 52 by using the pointing device to display the previously described animation image display screen 5. It is better to drag it to within 1.
  • This work step corresponds to S23 in FIG. Further, the user repeats S62 as necessary to select another additional object icon.
  • the animation creation application combines the previously described animation image data and the additional animation data in the animation composition section 15 and Synthesis result
  • the user checks the synthesis result (synthesis animation) displayed on the synthesis result display screen 53 (S63).
  • synthesis animation synthesis animation
  • the animation creation method for creating a character animation that expresses human movements and facial expressions it is described in a predetermined manner.
  • a method of adding a change in shape and shape is known.
  • character animation the individual parts that make up a character can be thought of as moving independently. However, the person who has seen the character animation can recognize the “meaning” of the character 'animation for the first time as a result of perceptual integration of the movement and morphological change of each part.
  • the present invention is particularly suitable as a method for adding an object to character animation.
  • step S21 the user selects the file of character 6 displayed on the already-described animation image display screen 51. And select the additional object.
  • step S23 select the toothbrush from the additional object icons 54-54D displayed on the additional object icon display screen 52. Select the additional object icon 5 4 A to represent.
  • the animation creating apparatus 1 After selecting the additional object icon 54A, the animation creating apparatus 1 creates a synthetic animation according to the flow of S2.4-S28 shown in FIG.
  • the additional object icon corresponding to the additional object icon 54A is used to control the parts constituting the character 6, specifically, the parts constituting the "left hand” and “mouth” of the character 6.
  • the movement of the parts that make up the “left hand” and “mouth” of the character 6 is controlled, and the animation of the character 6 in which the “left hand” and “mouth” move (animation animation) Is generated.
  • the animation combining section 15 combines the animation of the character 6 with the additional animation in which the “toothbrush” moves to generate a combined animation.
  • the generated composite animation is output (displayed) to the composite result display screen 53 shown in FIG. 6 by the composite animation output unit 16 in S29.
  • the synthesized result display screen 53 shows the previously described animation image display screen.
  • a composite animation in which the shape changes to “I” and the toothbrush reciprocates up and down according to the movement of the left hand of character 6 is displayed.
  • the additional object is a toothbrush
  • the additional object is added to a fixed position, specifically, the position of the mouth of the character 6.
  • the user may be able to specify the position of the additional object. For example, when the user drags an icon representing an additional object by using a pointing device, the position of the additional object is detected, and the position of the drag destination is detected and the position of the drag destination is determined. This can be realized by providing the animation creating device 1 with a function of displaying an additional object.
  • FIGS. 1 and 5 the processing steps of the method for creating the above-mentioned character animation are shown in the flow charts shown in FIGS. 1 and 5, FIGS. 8 (a) and 8 (b), FIG. 9, and FIG. A detailed description will be given based on this.
  • FIG. 8 the data structure of the previously described animation image data will be described with reference to FIGS. 8 (a), 8 (b), and 9.
  • the previously described animation image of the “human type” for creating the animation of character 6 shown in Fig. 8 (a) and Fig. 8 (b.) Is the same as the previously described animation image.
  • File name of the file that describes the file The name of the animation image file), the ID of the file that describes the previously described animation image data (the previously described animation image file ID), and the operation object included in the previously described animation image data to be controlled. It consists of the part data of each part (part name of each part, part ID of each part, coordinates of each component part point, and line segment information of each part).
  • the part data of part 6 1 has a part name of 6 1. art, a part ID of 6 1, and the coordinates of the parts composing points (part composing points 6 3 And (X63, Y63), (X64, Y64), the part component 63 and the part component 64 shown in Fig. 8 (b).
  • line segment information between part constituent points which is information of a line segment connecting the line: 1 ine 6 1.
  • Line segment information between part constituent points: 1 line 61 is information on the thickness and color of a line connecting the part constituent point 63 and the part constituent point 64.
  • the line segment information between the component points of the part data also includes color information in an area surrounded by the line segment between the component points.
  • the part data of part 62 has a part name of 6 2.
  • It has line segment information between part constituent points: 1 ine 6 2, which is line segment information connecting the part constituent points 65.
  • Line segment information between part constituent points: 1 ine 62 is information on the thickness and color of the line connecting the part constituent point 64 and the part constituent point 65 shown in FIG. 8 (b).
  • the line segment information between the parts constituting the data also has information on the color in the area surrounded by the line segment between the parts constituting points.
  • the additional object data includes the additional object icon image information and the name of the control target already described animation image file (the file describing the previously described animation image data of the control target).
  • File name 6.
  • Anime and the previously described animation file ID of the control target (the ID of the file describing the previously described animation image data of the control target): 6, and the additional animation file (Additional object information), the control target pad ID (61, 62, 63, 6'4), which is the part ID of the part of the operation object controlled by the additional object, and the additional object It consists of a control amount (control information) of a packet of the controlled operation object. The control amount will be described later.
  • control amount control information
  • a previously described animation image data serving as a model of the created animation is selected by the user (S21), and the selected animation animation is selected for the selected animation.
  • S22 actually uses the previously described animation image file name or the previously described animation image file ID in the previously described animation 'image data selected in S21.
  • a control object already described animation that matches a previously described animation image file name in the previously described animation image data.
  • An additional object file with the same image file name, or the control object has a previously described animation image file ID that matches the previously described animation image file ID in the previously described animation image file Searches for additional object data and displays additional object icons corresponding to the found additional object data.
  • the character 6 data including the part data shown in FIG. 9 is input as the previously described animation image data in S21, that is, the name of the previously described animation image file : 6.
  • the additional object is displayed in S22.
  • Anime, or the animation image file ID of the control target already described is stored.
  • Screen that displays additional object icons corresponding to the found additional object data (additional object icon display screen 5 2) Display in.
  • the motion animation is generated by adding control to the motion object operation based on the control information acquired in step S24 on the previously described animation image data.
  • FIG. 11 shows the data structure of the part data of the part 61.
  • the part data of the part 61 is represented by the coordinates of the component points: (X63, Y63), (X64, Y64), and the line segment between the component points.
  • the control amount data of the part 61 having a part ID of 61 based on the additional object data is (s X then sy 1, s 2, sy 2) (e 1, ey 1, ex 2, ey 2). This is the coordinates of the end point of one line segment 6 1 S ⁇ 6 1 E shown in FIG.
  • the above-mentioned part 61 is controlled as a vector animation using each of the two line segments 61 S and 61 E as a key frame by an additional object.
  • the position of the part composing point 6 3 ⁇ 64 in the first frame of the animation is the point 63 S ⁇
  • the position of the part configuration 6 3-6 4 (see Fig. 8 (b)) in the last frame of the animation coincides with the points 6 3 E
  • control is performed so that the point 63 3 6 64 approaches the point 63 '6 64 E from the point 63 S ′ 64 S. Is done.
  • the line segment 61S ⁇ 61E is drawn in the color and thickness described in the line information between the constituent points of the part 61: 1ine60.
  • the line segment of the part 61 represented by the vector is a vector animation having at least two line segments (6IS'61E) represented by the control amount in a frame. Is represented as
  • the animation obtained as a result of the control in this manner is output to a file as a motion animation.
  • a composite animation is created.
  • the composite animation created here controls the size of the motion object included in the previously described animation image data, but in other words, the previously described animation In the image data, the part of the motion object that exists in the part where the additional object animation (vector animation) is added is deleted, and the additional object animation is added to the deleted part. Probably because of the addition of
  • FIGS. 13 to 15. Another embodiment of the present invention will be described with reference to FIGS. 13 to 15. Then, it is as follows. For the sake of convenience, members having the same functions as those described in the first embodiment will be denoted by the same reference numerals, and description thereof will be omitted.
  • an action object (action animation) corresponding to the additional object is created, and the animation is synthesized by combining the action object with the additional object animation. How to make said.
  • the previously described animation data including the character 6 displayed on the previously described animation image display screen 5 ⁇ as the motion object is selected, and as the additional object.
  • an animation in which character 6 brushes his teeth with his left hand (hereinafter referred to as “left-hand toothpaste animation”) is created as a synthetic animation, and the synthetic result is created. Displayed on display screen 53. '
  • an animation in which the character 6 brushes his / her teeth with a toothbrush in the right hand (hereinafter referred to as “right-hand toothpaste animation”) is used as a synthesis option displayed on the synthesis result display screen 53.
  • right-hand toothpaste animation an animation in which the character 6 brushes his / her teeth with a toothbrush in the right hand
  • additional object data that has control information that controls the movements of the parts that make up the right hand and mouth of character 6, and additional object icon image information that represents “Right hand brushing animation”. By doing so, you can create "Right hand toothpaste animation”.
  • the animation creation method of the present embodiment operates even if the same additional object icon is selected, depending on the insertion position of the additional object input by the user.
  • the motion of the additional object is changed so that multiple additional animations can be created with a single additional object icon.
  • information on the insertion position of the additional object that is, the animation of the second object with respect to the image of the already described animation.
  • Users can input location information that indicates where to add a single image. For example, when the user drags the additional object icon using the pointing device (position information input unit), the coordinates of the end point of the drag are detected, and the input of the position information is performed. This can be realized by providing the animation creation device with a function of adding an additional object at a position corresponding to the coordinates of the end point of the drag.
  • the animation creation method according to the present embodiment is the same as the animation creation method according to the first embodiment shown in FIG. 5 except that, in S23, the user points, for example, an additional object icon. By using and dragging, the input position of the additional object with respect to the motion object is specified, and in S24, the input position of the additional object is determined according to the input position of the additional object. Except for changing the control information to be obtained, it is the same as the animation creation method in FIG. 5 of the first embodiment. In this method, the motion animation can be changed according to the input position of the additional object in the step S25 of generating the motion animation. As a result, the motion animation depends on the input position of the additional object. Create synthetic animations.
  • the animation creation device of the present embodiment has the same configuration as the animation creation device of the first embodiment, and furthermore, controls information based on the input position of an additional object.
  • the control information acquisition unit 19 detects the insertion position of the additional object, for example, the position where the additional object icon is dragged, and detects the position. It has a function of acquiring control information according to.
  • the additional object is required to include a plurality of sets of the control target part name 41, the control target part ID 42, the control information 43, and the additional object information 44.
  • Figure 13 shows a specific example of the animation creation method of this embodiment.
  • the additional object data contains the additional object icon image information and control ⁇ ⁇ .
  • Elephant already described animation image file name (as shown in Fig. 14) (the already described animation image to be controlled by the additional object).
  • the file name of the file that describes the data) : 6.
  • Anime and the animation image file ID of the control target already described (ID of the file that describes the previously described animation image data of the control target by the additional object): 6 and
  • the control target packet ID (61, 62, 63, 64), which is the part ID of the part of the motion object controlled by the object, and the parts of the motion object controlled by the additional object Control amount (control information). The control amount will be described later.
  • steps S21 to S22 are performed in the same manner as in the method shown in FIG. 5, and in addition to the user selecting an additional object in S23, the insertion position of the additional object is added. Is specified.
  • the insertion position of the additional object at the coordinates (Xi :, yt) is the additional position range corresponding to the control target part ID: 61, 62, that is, the coordinates (X11, y).
  • the control amount corresponding to the control target part ID: 61, 62 is acquired. If the entry position of the additional object is within the additional position range corresponding to the control target part ID: 63, 64, the control amount corresponding to the control target part ID: 63, 64 is acquired. In this way, it is possible to select the configuration packet of the operation object to be controlled according to the input position of the additional object specified by the user in S23. '
  • the additional position range corresponding to 1 and 6 2 is the part ID: 6 3 and 6 4 that make up the left hand of character 6 of character 6 (part 6 in FIG. 8 (a) and FIG. 8 (b)).
  • 1 and part 6 2) Set in the surrounding area
  • the additional position range corresponding to the control target part ID: 6 3, 6 4 is the part ID that constitutes the right hand of character 6: 6 3, 6 4 It is set in the area around the part.
  • the previously described animation image display screen 51 in FIGS. 13 (a) and 13 (b) is the same as the previously described animation image display screen 51 shown in FIG. It is assumed that an animation image is displayed.
  • the end point position when dragging the additional object icon 54A representing the toothbrush is located around the left hand of character 6. If it is within the area, while the control information of the parts of ID: 6 1 and 6 constituting the left hand of the character 6 is obtained, the additional object icon 54 A representing the toothbrush is dragged. If the end point position is within the area around the right hand of character 6, the control information of the ID: 6 1 and 6 2 parts constituting the right hand of character 6 is acquired.
  • the hand moved by the character 6 can be changed to either the left hand or the right hand by dragging the additional object icon 54 A to the vicinity of the left hand or the right hand.
  • the additional object icon 54 A two types of synthetic animations in which the moving parts of the character 6 are different, a left-hand toothpaste animation 1 and a right-hand toothpaste animation 75 are output.
  • a plurality of types of composite animations with different movements of the character 6 can be created with one additional object icon. Therefore, it is possible to create more various animations.
  • the number of additional object eyes the number of pins can be reduced, it is possible to create a variety of synthetic animations in which the movement of the character 6 is different from each other on a relatively narrow display screen, and the user can find the desired icon. easy.
  • the motion object and the motion of the additional object are changed depending on the position where the additional object is inserted, as shown in Figs. 15 (a) and 15 (b).
  • different additional objects are selected depending on the input position of the additional object, and a plurality of additional object types are selected with one additional object icon. May be selectable.
  • Fig. 15 (a) when the additional object icon 54D representing a water drop is dragged over the face of the character 6, the face of the character 6 is moved.
  • a synthetic animation 84 is created by adding an additional animation in which tears (additional objects) flow down from the eyes of character 6 to the action animation that changes from a smiling face to a sad face. As shown in b), if the additional object icon 5 4D representing a water drop is dragged to the background part of character 6 (the part other than character 6), the face of character 6 changes from a smile to a sad face.
  • a synthetic animation 85 can be generated by adding an additional animation in which a rain (additional object) is added to the changing motion animation.
  • FIGS. 13 (a) and 13 (b) It is also possible to combine the methods shown in FIGS. 15 (a) and 15 (b). This allows a single additional object icon to create multiple types of animations that differ in both the motion of the motion object and the additional animation.
  • FIG. 1 Still another embodiment of the present invention will be described with reference to FIG. It is as follows.
  • members having the same functions as those described in the first embodiment will be denoted by the same reference numerals, and description thereof will be omitted.
  • a method of changing control information for controlling the operation of an operation object included in a previously described animation according to an input position of an additional object with respect to the previously described animation image data (Fig. 13 (a) and Fig. 13 (b)) and the method of changing the added object depending on the insertion position of the additional object (Fig. 15 (a) and Fig. 15 (b)).
  • the number of additional objects added to the operation object is not limited to one. That is, the additional object selected by the additional object selection unit 14 may be plural.
  • the animation creation method of the present embodiment creates a synthetic animation according to the order in which the plurality of additional objects are selected by the additional object selection unit 14.
  • the control information acquisition unit 19 in 1 acquires control information included in the previously selected additional object data as the first control information in accordance with the selection order (input order) of the additional object data, The control information included in the additional object is acquired as the first control information. It's swelling. Then, the motion animation generation unit 20 ′ controls the motion object operation on the previously described animation image data based on the first control information and the second control information. Generate motion animation.
  • the additional object icons include a sunny icon 94A, a cloudy icon 94B, an icon 94C, and an icon 94D as additional object icons. It is displayed on the icon display screen 92.
  • the user drags the sunny icon 94 A to the left end of the sky displayed on the previously described animation image display screen 91 as shown by the arrow 95 using the pointing device.
  • drag the cloudy icon 94B to the center of the sky displayed on the previously described animation image display screen 91.
  • the control information acquisition unit 19 acquires the control information of the additional object data corresponding to the icon 94A as the first control information in the order in which the icons 94A and 94B are dragged. Then, the control information of the additional object data corresponding to the icon 94B is acquired as the second control information. Then, the action animation generation unit 20 controls the action of the action object based on the first control information and the second control information with respect to the previously described animation image data, Generate motion animation.
  • the animation in which the sky as the motion object 10 changes from a bright state to a dark state is a motion animation. Generated as
  • the step of selecting the second object and the step of selecting the first object using the image of the previously described animation are performed.
  • the method includes a step of generating a motion animation for performing a motion corresponding to the second object, and a step of synthesizing the motion animation and an image of the animation of the second object.
  • the user does not need to search for the animation of the first object according to the second object or perform an operation for creating a new one, and the second image is added to the image of the already-described animation.
  • a composite animation can be created by adding an image of the animation of the object. Therefore, the above-mentioned method is a simple operation to create a composite animation in which an object is added to an image of a previously described animation, with simple operations. In addition, there is an effect that an animation creation method that can be created in a short time can be provided.
  • the animation creation method of the present invention includes a step of selecting at least one of the second objects and associating the selected object with the first object. Generating an action animation in which the first object performs an action corresponding to the content of the selected second object to the first object using the image of the animation; And a step of synthesizing the action animation and the image of the animation of the second object.
  • a composite animation can be created by adding an image of the object's image. Therefore, the above method provides an animation creation method that can create a composite animation in which objects are added to the previously described animation image with simple operations and in a short time. It has the effect of being able to
  • the behavior of the first object can be changed according to the content of the second object related to the first object, so that one second object is used.
  • the above method also has an effect that various animations can be easily created.
  • the animation creation device of the present invention edits an image of a previously described animation including a first object by editing an image.
  • An animation selection device for creating a composite animation by adding a second object created in advance by inputting an instruction, and an object selection unit for selecting a first object;
  • An operation animation generation unit that generates an operation animation in which the first object performs an operation according to the selected second object using the image of the previously described animation;
  • This is a configuration having an animation compositing unit that composes the motion animation and the animation of the second object.
  • a composite animation can be created by adding an image of the animation of the second object to the image. Therefore, the above configuration provides an animation creating apparatus that can create a synthetic animation in which an object is added to a previously described animation image with a simple operation and in a short time. It has the effect that it can be provided.
  • the animation creation program of the present invention uses the image of the previously described animation to convert the first object to the selected second object.
  • a motion animation that performs a motion according to the object is generated, and then the motion animation is combined with the image of the animation of the second object.
  • the computer-readable recording medium of the present invention has a configuration in which the animation creation program is recorded as described above.
  • these configurations are an animation creation program and an animation creation program that can create a synthesized animation in which objects are added to an image of a previously described animation in a simple operation in a short time. It is possible to provide a computer-readable recording medium having recorded therein.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • Studio Circuits (AREA)

Description

アニメーション作成方法及び装置並びにプログラムを記録した記録媒体
技術分野
本発明は.、 アニメーショ ンを自動的に生成するアニメ一ショ ン作成方 法及びアニメーショ ン作成装置並びにアニメーショ ン作成プログラム及 びそれを記録したコンピュータ読み取り可能な記録媒体に関するもので あり、 特に、 パーソナル ' コンピュータ等のアプリケーショ ン上で顔の 表情や人物の動きを表現するキャラク タ · アニメ一ショ ンを自動的に生 成するアニメーショ ン作成方法及びアニメーショ ン作成装置並びにァニ メ一ショ ン作成プログラム及びそれを記録したコンピュータ読み取り可 能な記録媒体に関する ものである。
さ らに、 本発明は.、 特に、 キャラク タ · アニメーショ ンに追加するォ ブジヱ ク トを選ぶだけで、 追加したォブジヱク トに対応したキャラク 夕 の動きを自動的に生成することができ、 さ らには追加したォブジヱ ク ト のアニメ一ショ ンも自動的に作成することができる、 ォ一サリ ングツー' ルと して機能するアニメーショ ン作成方法、 及び、 アニメ一ショ ン作成 装置、 並びに、 アニメーショ ン作成プログラム及びそれを記録したコ ン ピュータ読み取り可能な記録媒体に関するものである。 背景技術 アニメーショ ン作成プログラムの 1種であるキャラクタ · アニメーシ ョ ンォーサリ ングツールにおいては、 意味の有る一連の動作や表情を分 割してパーツ化したアニメーショ ンパーツをつなぎ合わせてアニメ一シ ョ.ン作品を作成する方法が採用されている。
また、 特開 2" 0 0 0 — 9 9 7 5 7号公報 (公開日 2 0 0 0年 4月 7 日
.) には、 キャラク タのアニメ.一シヨ ンパーツを使用してキャラク タの表 情や動作がスムーズに変化するアニメ一ショ ン作品を簡単に編集するァ ニメ一ショ ン作成方法およびアニメ一ショ ン作成装置が開示されている 上記従来のアニメ一ショ ン作成装置は、 具体的には、 人物 (キャラク タ) の一連の動作と表情等を複数フ レームに分割したアニメーショ ンパ —ッ、 及びアニメーショ ンパーツの属性値を記憶部に有する。 また、 上 記従来のアニメ一ショ ン作成装置は、 ス トーリの進行ステツプに応じて アニメーショ ンパーツを選択してつなぎ合わせることによ りス トーリに 従ったアニメーショ ンを作成する入力部を有する。
上記アニメ一ショ ン作成装置によるアニメ一ショ ン作成方法では、 分 割されたキャラク タアニメ一ショ ンパ一ッに加え、 各パーツの動作や表 現等の特徴をあらわす属性値を記憶しデータベース (以下、 「D B」 と 略記する) ィヒしス トーリ進行のステツプ每に所望の属性値を入力してァ ニメ一ショ ンパーツを選択して繋げるようにしている。
これによ り、 キャラク 夕の動作や動きが属性値で入力したス トーリ に 従ったスムースな変化となり、 アニメ一ショ ンパーツを使用した質の高 いアニメーショ ン作品を簡単に編集することができる。
上で述べた通り、 従来よ り、 予め定められた方法で記述されているァ ニメ ' キャラクタに対し、 ス トーリの展開にあわせ、 アニメ ' キャラク タのパーツに対する属性値を入力して、 容易にアニメーショ ンを作成で きる方法が知られている。 真体的には、 既に記述されたアニメーショ ン を構成する個々のアニメ一ショ ンパ一ッに対しての形態の変化や動きの 変化を入力し、 その出力を表示する方法が知られている。
しかし、 上記従来のアニメーショ ン作成方法では、 あらかじめ記述さ れたアニメ一ショ ンに対して、 新たにアニメ一ショ ンを構成するパーツ もしく はオブジェク トを簡単な操作で揷入することはできない。 ユーザ 一が新たにォブジヱク トの追加 (挿入) を所望するならば、 ユーザーは 、 アニメ一シヨ ン編集システムを用いて追加するォブジヱク トを初めか ら作成する必要がある。
また、 上記従来のアニメーショ ン作成方法では、 データべ一スを再構 築しない限り、 揷入したパーツも しくはォブジヱク ト と、 既に記述され たアニメーショ ンとの関係を記述することができない。 そのため、 揷入 したパーツもしくはォブジヱク トに応じて既に記述されたアニメ一ショ ンを変更することは不可能である。 そのため、 追加したォブジヱタ トに 応じて、 既に記述したアニメ一ショ ンの動きや形態の変更を所望するな らば、 既に記述したアニメーシ a ンもまた再編集する必要がある。
本発明の目的は、 予め記述された既記述アニメ一ショ ンの画像に対し てォブジェク トを追加した合成アニメーショ ンを簡単な操作で、 かつ、 短時間で作成することができるアニメーショ ン作成方法及びアニメーシ ョ ン作成装置並びにアニメ一ショ ン作成プログラム及びそれを記録した コンピュータ読み取り可能な記録媒体を提供することにある。 ' 発明の開示
本発明は、 第 1 のオブジェク トを含む予め記述されたアニメ一シヨ ン ' (既記述アニメ一ショ ン) の画像に対し、 編集指示を入力することによ つて、 予め作成された第 2のォブジェク トを追加するアニメ一ショ ン作 5 成技術において、 第 2 のオブジェク トをユーザーが選択したときに、 ,既 記述アニメ一ショ ンに含まれる第 1 のォブジェク 卜が第 2のォブジヱク トに応じた動作を行う動作アニメーショ ンを自動的に作成することによ り、 上記目的を達成するものである。
また、 本発明は、 特に、 この動作アニメ ^"ショ ンを作成するために、 10 第 2のォブジヱク トに、 第 1 のオブジェク トの動作を制御する制御情報
、 例えば、 第 1 のォブジヱク トを構成するパーツの動きや形態の変化を 制御する制御情報を持たせるものである。
すなわち、 本発明のアニメーショ ン作成方法は、 上記の目的を達成す るために、 編集指示 (ユーザーによるアニメ一ショ ンを編集する指示) 1 5 を入力するこ とによって、 第 1 のオブジェク トを含む予め記述された既 記述アニメーショ ンの画像に対し予め作成された第 2のオブジェク ト し ' 第 2のォブジヱク トのアニメーショ ンの画像) を追加した合成アニメ一 ショ ンを作成するアニメ一ショ ン作成方法であって、 第 2のォブジヱク トを選択するステップと、 既記述アニメ一ショ ンの画像を用いて、 第 1 20 のォブジヱク トが、 選択された第 2 のオブジェク トに応じた動作を行う 動作アニメ一ショ ンを^成するステップと、 動作アニメ一ショ ンと第 2 のオブジェク トのアニメ一ショ ンの画像とを合成するステツプとを有す るこ とを特徴としている。
上記方法によれば、 ユーザーが、 第 1 のォブジヱク トを含む既記述ァ ニメーショ ンの画像に追加する第 2のォブジェク トを選択するだけで、 第 1 のォブジヱク トが第 2のォブジヱク トに応じた動作を行う動作ァニ メ一ショ ンを自動的に生成して第 2のォブジェク トのアニメ一ショ ンの 画像と合成することができる。 それゆえ、 ユーザーが、 第 2のオブジェ ク トに応じた第 1 のォブジヱク トのアニメ一ショ ンを探し出したり、 新 規に作成する操作が省ける。 その結果、 既記述アニメーショ ンの画像に 第 2のォブジヱク トのアニメーショ ンの画像を追加した合成アニメ一シ • ョ ンを簡単な操作で作成することができ、 アニメーショ ン作成に費やす 時間を短縮するこ とができる。
これに対し、 単に第 1 のオブジェク トのアニメーショ ンと第 2のォブ ジェク トのアニメ一ショ ンの画像とを合成する方法では、 ユーザ一が、 予め作成した既記述アニメーショ ンの画像の中から第 2のォブジヱク ト に応じた第 1 のオブジェク トのアニメーショ ンを探し出したり、 第 2の オブジェク トに応じた第 1 のォブジヱク トのアニメ一ショ ンを新たに作 成したりする必要がある。 そのため、 ユーザ一の操作が煩雑となり、 ァ 二メーシヨ ン.を完成するまでに長い時間がかかってしまう。 .
なお、 本願明細書において、 「アニメーショ ンの画像」 とは、 アニメ —ショ ンの動画像だけでなく、 アニメーショ ンの代表フレームの画像も 含むものとする。
また、 本発明のアニメーショ ン作成方法は、 上記の目的を達成するた めに、 編集指示を入力することによって、 第 1 のオブジェク トを含む予 め記述された既記述アニメーシヨ ンの画像に対し予め作成された第 2 の ォブジヱク ト (第 2のオブジェク トのアニメーショ ンの画像) を追加し た合成アニメーショ ンを作成するアニメ一ショ ン作成方法であって、 第 2のォブジェ ク トの少なく とも 1 つを選択して第 1 のオブジェク トに関 連付けるステップと、 既記述アニメーショ ンの画像を用いて、 選択され た第 2 のオブジェク トの第 1 のォブジヱタ トへの関連内容 (例えば、 第 1 のォブジヱ ク トに対する第 2のォブジヱク トの相対位置).に応じた動 作を第 1 のォブジヱク トが行う動作アニメーショ ンを生成するステップ と、 動作アニメ一ショ ンと第 2のォブジヱク トのアニメ一ショ ンの画像 とを合成するステップとを有することを特徴と している,。
上記方法によれば、 ユーザ一が、 第 1 のォブジヱク ト を含む既記述ァ ニメ一ショ ンの画像に追加する第 2のォブジェク トを選択するだけで、 第 1 のォブジヱタ トが第 2のォブジヱク トに応じた動作を行う動作ァニ メーショ ンを自動的に生成して第 2のォブジェク トのアニメーショ ンの 画像と合成するこ とができる。 それゆえ、 ュ一ザ一が、 '第 2のォプジェ ク トに応じた第 1 のォブジヱク トのアニメーショ ンを探し出したり、 新 規に作成する操作が省ける。 その結果、 既記述アニメーショ ンの画像に 第 2のォブジェク トのアニメーショ ンの画像を追加した合成アニメ一シ ョ ンを簡単な操作で作成することができ、 アニメーショ ン作成に費やす 時間を短縮するこ とができる。
さ らに、 上記方法では、 第 2のォブジヱク トの第 1 のォブジヱク, トへ の関連内容に応じて第 1 のォブジヱク トの動作を変えることができるの で、 1 つの第 2のオブジェク トを用いて複数のアニメーショ ンを作成で きる。 したがって、 多様なアニメーショ ンを容易に作成することができ る。
本発明のアニメーショ ン作成方法は、 動作アニメーショ ンと第 2 のォ プジヱク トのアニメ一ショ ンの画像とを合成した結果を合成アニメーシ ョ ンとして出力するステップをさらに有し.ていることが好ましい。 一 また、 本発明のアニメーショ ン作成方法の好ましい形態は、 上記の目 的を達成するために、 第 2のォブジェク トのアニメーショ ンの画像と第 1 のオブジェク トの動作を制御するための制御情報とを含むォブジヱク トデータを複数種類用意するステップ、 例えば、 複数種類のォブジェク トデータからなるデータベースを用意するステップをざらに有し、 第 2 のォブジェク トを選択するステツプでは、 上記ォブジヱク トデ一タの少 なく とも 1種類を選択し、 動作アニメ一ショ ンを生成するステツプでは 、 上記制御情報に基づいて第 1 のォブジヱク トの動作を制御するこ とを 特徴としている。 - 上記方法では、 第 2のォブジェク 卜のアニメーショ ンの画像と第 1 の ォプジヱク トの動作を制御するための制御情報とを含むォブジヱク トデ —夕を複数種類用意したことで、 ユーザーがォブジヱク トデ一タを追加 するだけで、 使用可能な第 2のォブジヱク トの種類を増やすことができ る。 そのため、 一般的なユーザーでも、 使用可能な第 2のオブジェク ト の種類を容易に増やすことができる。
また、 上記方法では、 第 1のォプジェク トのアニメーショ ンの画像と 第 1 のオブジェク トの動作を制御するための制御情報とを含むォブジヱ ク トデータを複数種類用意したことで、 ォブジェク トデータをインター ネッ ト等の通信ネッ トワークを通じてユーザーに配布するようにすれば 、 新たな第 2のォブジェク トを使用することも可能になる。 さ らに、 ォ ブジヱク トデ一タのデータ形式をユーザーに公開しておくか、 ォブジェ ク トデータを編集するための専用のソフ トウェァを別途用意しておけば 、 ユーザ一が新たにォブジェク トデータを作成して追加することも可能 となる。
これに対して、 他の方法、 例えば、 第 2のオブジェク トのデ一タとは 別に、 第 2のォブジェク 卜 と第 1 のォブジェク トのアニメ一ショ ンとを 関連付けるデータベースを設,けておき、 このデータベースを参照して第 1 のォブジヱク トの.アニメ一ショ ンを生成する方法では、 使用可能な第 2のォブジヱク 卜の種類を増やすためにはデータべ一スを再構築する必 要があるため、 一般的なュ一ザ一にとつては、 使用可能な第 2のォブジ ヱク トの種類を増やすことが難しい.。
なお、 上記制御情報は、 第 1 のォブジヱク トを構成するパーツの動き や形態の変化を表す情報であることが好ましい。 これにより、 人間の動 き、 例えば、 顔の表情の変化や手足の動きを表すアニメーショ ン (キヤ ラク夕 . アニメーショ ン) を比較的少ない情報量のォブジヱク トデー夕 で実現することができる。
上記アニメーショ ン作成方法は、 第 2のォブジヱク トを表すアイコン を表示するステツプをさ らに含み、 第 1のォブジヱク トを選択するステ ップでは、 表示されたアイコンの 1 つをユーザーがポィ ンティ ングデバ ィス等の入力装置で選択することにより、 第 2のオブジェク トが自動的 に選択されることが好ましい。 これにより、 ユーザ一が容易に第 2のォ ブジエク トを選択できる。
また、 第 2のオブジェク トを表すアイコンを表示するステップでは、 既記述アニメーショ ンの画像に追加可能な第 2 のオブジェ.ク トを表すァ ィユンのみを表示することが好ましい。 これにより、 選択された第 1 の 才ブジヱク トに追加不可能な第 2のオブジェク トをユーザ一が選択する ことを防止できる。 したがって、 ユーザーがより一層容易に第 2のォブ ジヱク トを入力できる。
また、 本発明のアニメーショ ン作成方法は、 動作アニメーショ ンと第 2のォブジェク トのアニメ一ショ ンの画像とを合成することにより得ら れたテ二メ一シヨ ンをアニメーショ ンファイルとして出力 (保持) する ステップと、 第 2のオブジェク ト と異なる第 3のオブジェク トを選択す るステップと、 記憶装置に記憶されたアニメーショ ンファイルを用いて 、 第 1 のォブジヱク 卜が、 選択された第 2のォブジヱク トおよび第 3 の オブジェク トに応じた動作を行う第 2 の動作アニメ一ショ ンを生成する ステップと、 第 2の動作アニメーショ ンと第 3のォブジェク トのアニメ ーシヨ ンの画像とを合成するステップとをさ らに有することが好ましい
. 上記方法によれば、 動作アニメーショ ンと第 2のォブジヱク ト とを合 成するこ とによ り得られたアニメーショ ンをアニメ一ショ ンファイルと して出力 (保持) するので、 第 2のォブジヱク トだけを追加した合成途 中のアニメ一シヨ ンをュ一ザ一が確認できる。
また、 本発明のアニメ一ショ ン作成方法の好ましい形態は、 上記の目 的を達成するために、 既記述アニメーショ ンの画像に対し、 第 2のォブ ジヱク トのアニメ一ショ ンの画像をどの位置に追加するかを表す位置情 報を入力するステップをさ らに含み、 動作アニメ一ショ Vを生成するス テップでは、 上記位置精報によって動作アニメーショ ンを変更すること を特徴としている。
上記方法によれば、 1種類の第 2のォブジヱク トを用いて、 異なる複 数種類の合成アニメーショ ンを作成することができる。 したがって、 多 様なアニメ一ショ ンを容易に作成することができる。 また、 本発明のアニメーショ ン作成方法の好ましい形態は、 上記の目 的を達成するために、 既記述アニメ一シヨ ンの画像に対し、 第 2のォブ ジェク トのアニメ一ショ ンめ画像をどの位置に追加するかを表す位置情 報を入力するステツプをさらに含み、 第 2のォブジヱク トを選択するス テップでは、 上記位置情報に応じて第 2のオブジェク トを変更すること を特徴としている。
上記方法によれば、 ユーザ一が入力する位置情報を変えるだけで、 異 なる複数種類の第 2のオブジェク トを選択し、 異なる複数種類の合成ァ 二メ一シヨ ンを作成することができる。 したがって、 多様なアニメ一 ヨ ンを容易に作成することができる。
また、 本発明のアニメーショ ン作成方法では、 第 2のォブジヱク トを 選択するステップで複数の異なるオブジェク トを第 2のォブジヱク ト と して順次選択し、 動作アニメーショ ンを生成するステツプで第 2のォブ ジヱク トの選択順序に基づいて第 1 のォブジュク トの動作を制御しても よい。
なお、 上記方法では、 後述する実施の形態 2のように、 第 2のォブジ ュク トの入力位置 (揷入位置) に応じて、 原画データに含まれる第 1 の オブジェク トを構成するパーツの動きや形態を制御する制御情報を選択 可能にするとよい。
上記アニメ一ショ ン作成方法の好適な実施形態は、 第 2のォブジェク トを入力するステップでは、 第 2のォブジェク トのアニメ一シヨ ンであ る追加アニメ一ショ ンを入力し、 動作アニメ一シヨ ンと第 2のオブジェ ク ト とを合成するステップでは、 動作アニメーショ ンと追加アニメーシ ヨ ンとを合成する方法である。 ' 本発明のアニメ一ショ ン作成装置は、 上記の目的を達成するために、 第 1 のオブジェク トを含む予め記述された既記述アニメーショ ンの画像 に対し、 編集指示を入力することによって、 予め作成された第 2のォブ ジヱク トを追加した合成アニメーシヨ ンを作成するアニメ一ショ ン作成 装置であって、 第 2のオブジェク トを選択するオブジェク ト選択部と、 既記述アニメーショ ンの画像を用いて、 第 1 のオブジェク トが、 選択さ れた第 2のォブジヱク トに応じた動作を行う動作アニメーショ ンを生成 する動作アニメーショ ン生成部と、 動作アニメーショ ンと第 2のォブジ ヱク トのアニメ一ショ ンの画像とを合成するアニメ一ショ ン合成部とを 有することを特徴としている。
上記構成によれば、 ユーザ一が、 オブジェク ト選択部において、 第 1 のォブジヱク トを含む既記述アニメーショ ンの画像に追加する第 2のォ ブジェク トを選択するだけで、 動作アニメ一ショ ン生成部で、 第 1 のォ ブジェク 卜が第 2のォブジヱク トに応じた動作を行う動作アニメーショ ンが自動的に生成され、 アニメーショ ン合成部で、 動作アニメ一ショ ン が第 2のォブジェク トのアニメ一ショ ンの画像と合成される。 それゆえ 、 ュ一ザ一が、 第 2のオブジェク トに応じた第 1 のオブジェク トのァニ メーショ ンを探し出したり、 新規に作成する操作を行う ことなく、 既記 述アニメーショ ンの画像に第 2のォブジェク トのアニメーショ ンの画像 を追加した合成アニメーショ ンを作成できる。 したがって、 上記構成に よれば、 既記述アニメーショ ンの画像に第 2のォブジェク トのアニメ一 ショ ンの画像を追加した合成アニメーショ ンを簡単な操作で作成するこ とができ、 アニメーショ ン作成に費やず時間を短縮することができる。 本発明のアニメーショ ン作成プログラムは、 上記の目的を達成するた めに、 ユーザ一の編集指示が入力されると、 第 1 のォブジヱグトを含む 予め記述された既記述アニメ一ショ ンの画像に対し、 予め作成された第 2のオブジェク トを追加した合成アニメーショ ンを作成するアニメ一シ ヨ ン作成プログラムを記録したコンピュータ読み取り可能な記録媒体で あって、 ユーザ一によって第 2のォブジヱク トが選択されると、 既記述 アニメ一ショ ンの画像を用いて、 第 1 のォブジェク トが、 選択された第 2のオブジェク トに応じた動作を行う動作アニメーショ ンを生成し、 次 いで、 動作アニメーショ ンと第 2のオブジェク トの.ァニメ一ショ ンの画 像とを合成することを特徴としている。 また、 本発明のコンピュータ読 み取り可能な記録媒体は、 上記の目的を達成するために、 上記のアニメ —ショ ン作成プログラムを記録していることを特徴としている。
上記構成によれば、 ユーザ一によって第 2のオブジェク トが選択され ると、 アニメーショ ン作成プログラムが、 第 1 のォブジヱク 卜が第 2の オブジェ'ク トに応じた動作を行う動作アニメ一ショ ンを自動的に生成し 、 第 2のォブジェク トのアニメーショ ンの画像と合成する。 それゆえ、 ユーザーが、 第 2のォブジェク トに応じた第 1 のォブジェク トのアニメ ーショ ンを操し出したり、 新規に作成する操作を行うことなく、 既記述 アニメ一ショ ンの画像に第 2のォブジヱク 卜のアニメーショ ンの画像を 追加した合成アニメーショ ン.を作成できる。 したがって、 上記構成によ れば、 既記述アニメーショ ンの画像に第 2のォブジェク 卜のアニメーシ ョ ンの画像を追加した合成アニメーショ ンを簡単な操作で作成すること ができ、 アニメ一ショ ン作成に費やす時間を短縮することができる。 本発明のさ らに他の目的、 特徴、 および優れた点は、 以下に示す記載 によって十分わかるであろう。 また、 本発明の利益は、 添付図面を参照 した次の説明で明白になるであろう。
図面の簡単な説明 ·
図 1 は、 本発明に係るアニメーショ ン作成装置の実施の一形態を示す 概略ブロック図である。
図 2は、 本発明に係るアニメ一ショ ン作成方法において用いられるォ ブジェク トの一例を示す概略図である。 ' 図 3は、 本発明に係るアニメ一ショ ン作成方法において用いられる既 記述アニメ一ショ ン画像データのデータ構造の一例を示す図である。
図 4は、 本発明に係るアニメーショ ン作成方法において用いられる追 加ォブジヱク トデ一タのデータ構造の一例を示す図である。
図 5は、 本発明に係るアニメ一ショ ン作成方法の実施の一形態を示す フローチャートである。 図 6は、 本発明に係るアニメ一ショ ン作成プログラムで表示される表 示画面の一例を示す図である。
図 7は、 本発明に係るアニメーショ ン作成方法の実施のー弁態におけ るユーザーの操作手順を示すフローチャートである。 図 8 ( a ) および図 8 ( b ) は、 本発明に係るアニメ一ショ ン作成方 法で使用されるアニメーショ ンのキャラクタの画像の一例を示す図であ り、 図 8 ( a ) はキャラクタの全体像を示す図、 図 8 ( b ) は上記キヤ ラク夕の左手部分を拡大して示す部分拡大図である。
図 9は、 本発明に係るアニメ一ショ ン作成方法において用いられる既 記述アニメ一ショ ン画像データのデータ構造の他の一例を示す図である 図 1 0は、 本発明に係るアニメーショ ン作成方法において用いられる 追加ォブジヱク トデータのデータ構造の一例を示す図である。
図 1 1 は、 本発明に係るアニメ一ショ ン作成方法において用いられる 既記述アニメーショ ン画像データに含まれるパーツデ一夕のデ一タ構造 の一例を示す図である。
図 1 2は、 本発明に係るアニメーショ ン作成方法において動作ォブジ ヱク ト.のべク トルアニメーショ ンを作成する方法を説明するための説明 図である。 . 図 1 3 ( a ) および図 1 3 (- b ) は、 本発明に係るアニメーショ ン作 成方法の他の実施形態を説明するための説明図である。
図 1 4は、 図 1 ' 3に係るアニメーショ ン作成方法に使用される追加ォ ブジヱク トデータのデータ構造の一例を示す図である。 +
図 1 5 ( a ) および図 1 5 ( b ) は、 本発明に係るアニメ一ショ ン作 成方法のさらに他の実施形態を説明するための説明図である。
図 1 6.は、 本発明に係るアニメーショ ン作成方法のさ らに他の実施形 態を説明するための説明図である。 発明を実施するための最良の形態
〔実施の形態 1 〕
本発明の実施の一形態について図 1 ないし図 1 2に基づいて説明する と、 以下のとおりである。 本実施形態に係るアニメーショ ン作成装置は 、 ユーザーの編集指示に従って、 第 1 のォブジヱク ト (以下、 動作ォブ ジェク ト と称する) を含むアニメ一ショ ンの代表フレームの画像データ である既記述アニメーショ ン画像データ (アニメ一シヨ ンの画像) に対 して予め作成された.第 2のォブジェク ト (以下、 追加オブジェク ト と称 する) を追加した合成アニメーショ ンを作成するものである。 なお、 既 記述アニメ一ショ ン画像データは、 動作オブジェク トを含むアニメ一シ ヨ ンの複数フレームの画像データ、 すなわち動作ォブジヱク トを含む動 画データであってもよい。
図 1 に示すように、 本実施形態に係るアニメ一ショ ン作成装置 1 は、 既記述アニメ一ショ ン画像 D B 1 1 および既記述アニメ一ショ ン画像選 択部 1 2 を備えている。 既記述アニメーショ ン画像 D B 1 1 は、 作成対 象アニメーショ ンの雛形となる既記述アニメ一ショ ン画像データを複数 種類格納する ものである。 既記述アニメーショ ン画像選.択部 1 2は、 既 記述アニメーショ ン画像 D B 1 1 に格納された複数種類の既記述アニメ ーショ ン画像デ一夕の中から 1種類の既記述アニメ一ショ ン画像デ一夕 をユーザーが選択するためのものである。 ' '
なお、 ここでは、 複数種類の既記述アニメーショ ン画像データが用意 されている実施形態について説明するが、 本発明では、 既記述アニメ一 ショ ン画像デーダが 1種類のみであつてもよい。 既記述アニメーショ ン 画像データが 1種類のみであれば、 既記述アニメーショ ン画像選択部 1 2は省略可能である。
また、 アニメ一ショ ン作成装置 1 は、 追加ォブジヱク ト D B 1 3、 追 加オブジェク ト選択部 (オブジェク ト選択部) 1 4、 制御情報取得部 1 9、 および追加アニメーショ ン読出部 2 1 を備えている。
追加ォブジェク ト D B 1 3は、 既記述アニメーショ ン画像デ一タに追 加する追加ォブジヱク 卜のデータ (以下、 追加ォブジヱク トデータと称 する) を複数種類格納している。 追加オブジェク トデータは、 詳細につ いては後述するが、 追加ォブジヱク トのアニメ一ショ ンデータ (以下、 追加アニメ一ショ ンデ一夕と称する) のような追加ォブジヱク ト自体に. 関する情報と'、. 動作オブジェク トの動作を制御するための制御情報とを 含んでいる。 追加ォブジヱク ト選択部 1 4は、 1つまたは複数の追加ォ ブジェク トデータをユーザーが選択するためのものである。 制御情報取 得部 1 9は、 追加ォブジヱク ト選択部 1 4 で選択された追加ォブジヱク トデータに含まれる制御情報を追加ォブジヱク 卜 D B 1 3から取得する ものである。 追加アニメ一ショ ン読出部 2 1 は、 追加オブジェ.ク ト選択 部 1 4 で選択された追加ォブジェク トデータに含まれる追加アニメ一シ ョ ンデ一タを追加ォブジェク ト D B 1· 3から読み出すものである。
そして、 アニメ一ショ ン作成装置 1 は、 既記述アニメ一ショ ン画像デ 一夕を用い、 制御情報取得部 1 9で取得された制御情報に基づいて動作 オブジェク トの動作を制御することで、 動作オブジェク トが追加ォブジ ヱク トに応じた動作を行う動作アニメーショ ンを生成する動作アニメ一 シヨ ン生成部 2 0 と、 動作アニメーショ ンと追加オブジェク トのアニメ —ショ ンの画像とを合成する合成処理を実行するアニメーショ ン合成部 1 5 とを有することを特徴としている。
さ らに、 アニメ一ショ ン作成装置 1 は、 追加ォブジヱク ト選択部' 1 4 によるユーザーの選択を容易にするだめの追加ォブジヱク トデータ検索 部 1 7および追加ォブジヱク ト表示部 1 8をさ らに備えている。 追加ォ ブジェク トデータ検索部 1 7は、 既記述アニメ一ショ ン画像デ一タに追 加可能な追加ォブジェク トを追加ォブジェク ト D B 1 3から検索するも のである。 追加ォブジヱク ト表示部 1 8は、 追加ォブジヱク トデータ検 索部 1 7における検索の結果として見つかった、 既記述アニメ一シヨ ン 画像データに追加可能な追加ォブジヱク トをアイコン (追加ォブジェク トアイ コン) と して表示する ものである。 このアイコンに関する情報は 、 追加ォブジヱク トデ一夕内に追加ォブジヱク トアイコン画像情報とし て格納されている。 .
また、 アニメ一ショ ン作成装置 1 は、 アニメーショ ン合成部' 1 5で合 成されたアニメーショ ン (合成アニメーショ ン) をファイルに出力する 合成アニメーショ ン出力部 1 6をさ らに備えている。
なお、 図 1 に示す各機能ブロッ クは、 例えば、 次のようなハ一ドゥエ ァで実現することが可能である。 すなわち、 既記述アニメーシ ョ ン画像 D B 1 1および追加ォブジヱク ト D B 1 3はコンピュータに接続された ハードディスク等の外部記憶装置、 既記述アニメーショ ン画像選択部 1 2および追加ォブジヱク ト選択部 1 4はマウス等のポインティ ング · デ バイス、 追加ォブジヱク ト表示部 1 8はコンピュータに接続された C R T (Cathode Ray Tube)ディスプレイ等の表示装置で実現できる。 他の機 能ブロッ クは、 アニメーショ ン作成プログラムおよび O S (Ope rat i ng S ys t em)を外部記憶装置から読み込んで実行するコンピュータ (マイ クロ プロセッサおよびメモリ) によつて実行できる。
既記述アニメ一ショ ン画像選択部 1 2で選択される既記述アニメーシ ョ ン画像デ一夕のデータ構造、 すなわち既記述アニメ一ショ ン画像 D B 1 1 に格納された既記述アニメーショ ン画像データのうちの 1 つのデ一 夕構造の例について、 図 2、 図 3、 およぴ図 4 を用いて説明する。
この例では、 既記述アニメーショ ン画像データが、 複数のパーツから 構成された動作ォブジヱク トを含み、 各パーツ每に動作が制御されるよ うになつている。 このようにすることで、 人間の動き、 例えば、 顔の表 情の変化や手足の動きを表すアニメーシヨ ン (キャラクタ · アニメーシ ョ ン) を表現することができる。 また、 この例では、 動作ォブジェク ト が、 構成点の座標と、 構成点の間を結ぶ線分の情報とで表現されるよう になっている。 これにより、 動作ォブジヱク トの動きを簡単に表現する ことができる。
この例の ί¾記述アニメ'一ショ ン画像デ一タは、 図 2に示す 2つのパ一 ッ 2 · 3によって構成された 1 つの動作ォブジヱク ト 1 0のデータであ る。 パーツ 2は、 4つのパーツ構成点 2· a〜 2 dと、 隣接するパーツ構 成点 2 a〜 2 dの間を結ぶ 4つのパーツ構成点間線分とからなる。 また 、 パーツ 3 も、 4つのパーツ構成点 3 a〜 3 dと、 隣接するパーツ構成 点 3 a ~ 3 dの間を結ぶ 4つのパーツ構成点間線分とからなる。 動作ォ ブジヱク ト 1 0 を構成するパーツ 2 · 3.は、 後述する追加ォブジェク ト データ 4 0 に含まれる制御情報 4 3によりその動きや形態が制御できる ようになっている。
なお、 図 2は、 説明のために、 動作ォブジェク ト 1 0 と追加オブジェ ク ト 4 とを重ね合わせた場合に得られる静止画像を示すものであり、 合 成結果を示すものではない。 また、 動作ォブジヱク トの数、 動作ォブジ ヱク トを構成するパーツの数、 パーツ構成点の数、.パーツ構成点を結ぶ 線の形状や数等については、 特に限定されるものではない。
上記の動作ォブジヱク ト 1 0のデータ、 すなわち既記述アニメーショ ン画像 D B 1 1 に格納された既記述アニメ一ショ ン画像デー夕は、 図 3 に示すように、 パーツ 2に関するデータで.あるパーツデータ 2 5 と、 ノヽ。 ーッ 3に関するデータであるパーツデ一夕 3 0 と、 図示しない、 既記述 アニメーショ ン画像データを記述したファイルである既記述ァ二メ一シ ョ ン画像ファィルのファィル名 (既記述アニメ一ショ ン画像ファィル名 ) および既記述ァニメーショ ン画像ファイルの I D (既記述アニメ一シ ヨ ン画像ファイル I D ) とから構成されている。
パーツデ—タ 2 5は、 パーツ 1 の名称を表すパーツ名 2 6、 パーツ 1 の I Dを表すパーツ I D 2 7·、 パーツ構成点 2 a〜 2 dの座標を表すパ —ッ構成点座標 2 8、 およびパーツ構成点 2 a〜 2 dを結ぶ 4つの線分 の情報 (線分の太'さや色、 線分で囲まれた領域内の色に関する情報) で あるパーツ構成点間線分情報 2 .9から成る。 パーツデータ 3 0は、 パ一 ッ 3の名称を表すパーツ名 3 1、 パ一ッ 3の I Dを表すパーツ I D 3 2 、 パーツ構成点 3 a〜 3 dの座標を表すパーツ構成点座標 3 3、 および パーツ構成点 3 a〜 3 dを結ぶ 4つの線分の情報 (線分の太さや色、 線 分で囲まれた領域内の色に関する情報) であるパーツ構成点間線分情報 3 4から成る。 ·
次に、 追加オブジェク ト選択部 1 4で選択される追加ォブジヱク トデ —夕、 すなわち、 追加ォブジヱク ト D B 1 3に格納された複数の追加ォ ブジェク トデ一タのうちの 1 つのデータ構造について、 図 4 を用いて説 明する。
図 4 に示すように、 追加オブジェク トデータ 4 0は、 図示しない制御 対象の既記述アニメーショ ン画像データを記述した既記述アニメーショ ン画像ファイルのファイル名 (制御対象既記述アニメーショ ン画像ファ ィル名) 、 図示しない制御対象の既記述アニメーショ ン画像デ、一夕を記 述した既記述アニメーショ ン画像フアイルのフアイルの I D (制御対象 既記述アニメ一シヨ ン画像ファイル I D ) 、 制御対象パ一ッ名 4 1 、 制 御対象パーツ I D 4 2、 制御情報 4 3、 追加ォブジュク ト情報 4 4、 お よび追加オブジェク トアイコン画像情報 4 5からなる。 なお、 追加ォブ ジェク トデータ 4 0は、 追加オブジェク トの既記述ァニメ一ショ ン画像 データへの追加範囲 (追加位置範囲) を有していてもよい。 また、 制御 対象パーツ名 4 1 は省略してもよい。 ,
制御対象パーツ名 4 1 には、 追加ォブジヱク ト 4が制御するパーツの パーツ名 (パーツ名 2 6またはパーツ名 3 1 ) が格納されている。 制御 対象パーツ I D 4 2には、 追加ォブジヱク ト 4が制御するパーツのパー' ッ I D (パーツ I D 2 7またはパーツ I D 3 2 ) が格納されている。 制 御情報 4 3 には、 動作ォブジヱク ト 1 0 を構成するパーツ 2 · 3 の動き や形態などを制御する情報 (パーツ 2 · 3の制御量) が格納されている 追加ォブジヱク ト情報 4 4には、 既記述アニメ一ショ ン画像デ一夕に 追加される追加ォブジェク ト 4の情報が格納されている。 追加ォブジヱ ク ト情報 4 4は、 追加ォブジヱク ト 4の静止画像データ等であつてもよ いが、 'ここでは、 追加ォブジェク ト 4のアニメーショ ン (追加アニメ一 シヨ ン) を記述したアニメーショ ンファイルとなっている。 .そこで、 以 下、 追加ォブジヱク ト情報 4 4 を追加アニメ一シヨ ンファイル 4 4 とし て説明する。
追加ォブジェク トアイコン画像情報 4 5には、 追加ォブジヱク トデ一 夕 4 0 の内容をユーザーが把握しやすいように図化された追加ォプジヱ ク トアイコンに関する情報が格納されている。 この追加ォブジェク トァ イコンの働きについては、 後逑する。
次に、 本発明によるアニメーショ ン作成方法の処理ステツプを、 図 5 に示す流れ図に基づいて説明する。 まず、 作成アニメーショ ンの雛形となる既記述ァニメーショ ン画像デ —夕がユーザ一によって選択される ( S 2 1 ) 。 具体的には、 既記述ァ ニメ一ショ ン画像選択部 1 において、 ユーザ一によ り、 既記述アニメ ーショ ン画像 D B 1 1 に格納されている複数種類の既記述アニメーショ ン画像データの中から 1 つの既記述アニメ一ショ ン画像データが選択さ ' れる。 この選択は、 例えば、 マウス等のポイ ンティ ング ' デバイスを用 いて、 パーソナル ' コ ンピュータ内にイ ンス トールされた.0 Sによって 実現されるファイル · マネ一ジャ上で、 既記述アニメーショ ン画像ファ ィルを開く ことによ り行えばよい。
S 1 では、 既記述アニメーショ ン画像データが選択されたときに、 選択された既記述アニメ一ショ ン画像デ一タの内容をユーザ一に示すよ うになっていることが好ま しい。 これによ り、 ユーザーが、 所望の既記 述アニメ一ショ ン画像デ一タを選択し終えたことを容易に確認できる。 選択された既記述アニメーショ ン画像データをアニメーショ ン作成装置 1 がユーザ一に示す方法と しては、 ファイル名を表示する方法等であつ てもよいが、 後述する図 6 の表示画面に示すように、 既記述アニメ一シ ョ ン画像データを画像と して表示する方法が特に好ま しい。 これによ り 、 ユーザーが、 既記述アニメーショ ン画像デ一夕の内容を認識しやすく なる。 したがって、 図 1 には示していないが、 アニメ一ショ ン作成装置 1 は、 既記述アニメーショ ン画像選択部' 1 2 における選択に応答して選 択された既記述アニメーショ ン画像データを既記述アニメーショ ン画像 D B 1 1 から読み出す既記述アニメーショ ン画像データ読出部と、 読み 出された既記述アニメーショ ン画像デ一タに基づいて既記述アニメーシ ョ ン画像データを画像と して表示する表示装置とを備えていることが好 ましい。 また、 この場合において、 表示装置は、 後述する図 6の表示画 面に示すように、 合成アニメ一ショ ンを表示する表示画面 (合成結果表 示画面 5 3 ) とは別の表示画面 (既記述アニメーショ ン画像表示画面 5 1 ) に既記述アニメーショ ン画像データの内容を表示するようになって いることが好ま しい。 これにより、 ユーザ一が、 既記述アニメ一シヨ ン 画像データと合成アニメーショ ンとの相関を容易に認識することができ る。
なお、 ここでは、 複数種類の既記述アニメーショ ン画像デ一ダが用意 されている実施形態について説明したが、 本発明では、 既記述アニメ一 シヨ ン画像データが 1種類のみであってもよい。 既記述ァニメーショ ン 画像データが 1種類のみであれば、 S 2 1 は省略可能である。
次に、 S 1で選択された既記述アニメーショ ン画像データに対して 追加可能な追加ォブジェク 卜が検索される ( S 2 2 ) 。 この検索は、 追 加ォブジヱク トデータ検索部 1 7が、 既記述アニメ一ショ ン画像選択部 1 2における選択に応答して、 追加ォブジェク ト D B 1 3に対して行う ものである。 具体的には、 例えば、 追加ォブジヱク トデータ検索部 .1 7 が、 追加オブジェク ト D B 1 3の中から、 既記述アニメーショ ン画像選 択部 1 2 において選択された既記述アニメ一ショ ン画像データの既記述 アニメーショ ン画像フアイル名と一致する制御対象既記述アニメ一ショ ン画像ファイル名を持つ追加ォブジヱク トデ一夕 4 0 を検索する。 ある いは、 追加ォブジヱク トデータ検索部 1 7が、 追加ォブジヱタ ト D B 1 3に格納された複数種類の追加オブジェク トデ一夕の中から、 既記述ァ ニメーショ ン画像選択部 1 2 において選択された既記述アニメーシヨ ン 画像データの既記述アニメ一ショ ン画像フアイル I Dと一致する制御対 象既記述アニメ——ン ョ ン画像ファィル I Dを持つ追加ォブジヱク トデ一 夕を検索する。
その後、 検索結果、 すなわち、 S 2 1 で選択された既記述アニメ一シ ョ ン画像デ一タに対して追加可能な追加ォブジヱク トの全てが追加ォブ ジヱク ト表示部 1 8 ,に表示される。 この追加ォプジヱタ トの表示は、 テ キス トで表示してもよいが、 後述する追加ォブジヱク トアイコン表示画 面' 5 2 のように追加ォブジヱク トの形態や機能を示すアイコン (追加ォ ブジェク トアイコン) で表示することが好ましい。 これにより、 既記述 アニメーショ ン画像データに追加する追加ォブジュク トを視覚的に選択 することが可能となる。
なお、 S 2 2において、 追加ォブジヱク トデ一タ検索部 1 7による検 索を省略し、 全ての追加ォブジヱク トを追加ォブジヱク ト表示部 1 8で アイコン表示させることも可能である。 したがって、 図 1 に示すアニメ —ショ ン作成装置 1 において、 追加ォブジヱク トデータ検索部 1 7は省 略可能である。 しかしながら、 その場合には、 使用できないアイコンま で表示するので、 広いアイコン表示画面が必要となる、 ユーザーが使用 できない追加オブジェク トを誤って選択してしまうおそれがある、 ュ一 ザ一が目的のアイコンを素早く見つけることが難しくなる、 等といった 不利な点がある。
また、 S 2 2のステップ自体を省略することも可能である。 したがつ て、 図 1 に示すアニメーショ ン作成装置 1 において、 追加ォブジヱク ト データ検索部 1 7および追加オブジェク ト表示部 1 8の両方を省略する ことも可能である。 しかしながら、 その場合には、 使用可能な追加ォブ ジヱク トを予め知っているユーザーでなければ、 追加ォブジヱク トを選 択することができないので、 汎用性の点で不利である。
次に、 追加オブジェク ト選択部 1 4において、 S 2 1 で選択された既 記述アニメーショ ン画像データに対して追加可能な追加ォブジヱク ト、 すなわち S 2 2で検索された追加ォブジヱタ トの中から、 S 2 1 で選択 された既記述アニメ一ショ ン画像データに対して追加される追加ォブジ ェク トがユーザーによつて選択される ( S 2 3 ) 。
このユーザーによる追加オブジェク トの選択は、 プルダウン · メニュ 一からのメニュー項目の選択等により実現してもよいが、 後述するよう に、 追加オブジェク トアイコン表示画面 5 2 に表示された追加オブジェ ク トアイコ ンを、 S 2 1 で表示された既記述アニメーショ ン画像表示画 面 5 1 内にポインティ ング · デバイスでドラッグする形式で実現すると よい。 このように追加ォブジヱク トアイコンを選択する形式にすると、 ユーザーが、 追加ォブジヱタ トの形態や機能を容易に理解して追加ォブ ジヱク トの選択を行う ことができるので、 操作性が向上する。
次に、 追加オブジェク ト選択部 1 4 による選択に応答して、 制御情報 取得部 1 9 によ り、 追加ォブジヱク ト選択部 1 4で選択された追加ォブ ジェク トデータ 4 0に含まれる、 動作ォブジヱク トの動作を制御する制 御情報 (図 2〜 4 の例では、 動作ォブジヱク ト 1 0 を構成するパーツ 2 • 3 を制御する制御情報 4 3 ) が追加ォブジヱク ト D B 1 3から取得さ れる ( S 2 4 ) 。
次に、 動作アニメーショ ン生成部 2 0 において、 既記述ァニメーショ ン画像データに対し、 S 2 4のステップで取得された制御情報に基づい て動作ォブジェク トの動作に制御が加えられることにより動作アニメ一 シヨ ンが生成される ( S 2 5 ) 。 図 2〜 4の例であれば、 動作アニメ一 ショ ン生成部 2 0が、 制御情報 4 3に基づいて、 動作ォブジヱク ト 1 0 を構成するパーツ 2 · 3.の少なく とも一方に対してそのパーツを動作さ せるような制御を加えることにより、 動作アニメ一ショ ンを生成する。 この動作アニメ一ショ ンは、 アニメ一ショ ンファイルと して動作アニメ —シヨ ン生成部 2 0から出力される。
次に、 S 2 1 で選択された既記述アニメーショ ン画像データに対して 、 S 2 3で選択された追加ォブジヱク ト以外に、 追加オブジェク トを追 加するか否かが、 ュ一ザ一によって指示される ( S 2 6 ) 。 この指示は 、 アニメ—ショ ン作成装置 1 に設けられた、 追加ォブジェク トの選択を 終了することを指示する選択終了指示部 (図示しない) によって行われ る。 この選択終了の指示は、 例えば、 表示装置に表示された選択終了指 示用のボダンをボイ ンティ ング · デバイスでク リ ッ クすることにより行 えばよい。
S 2 6 で Y E Sの場合、 すなわち、 S 2 3で選択された追加ォブジェ ク ト以外の追加ォブジヱク トを選択する場合、 S 2 に戻る。 このとき 、 S 2 2では、 上記 S 2 3で選択された追加ォブジヱク トに加えて、 さ らに追加できる追加オブジェク トを追加オブジェク ト D B 1 3から検索 する。 ·
S 2 6 で N ◦の場合、 すなわち、 ユーザーが S 2 3で選択された追加 ォブジヱク ト以外に追加オブジェク トを選択しない場合、 後述する S 2 7に移行する。
なお、 ここでは、 S 2 6.におけるユーザ一の判断 (他の追加オブジェ ク トを追加しないという判断) がなされて初めて S 2 7に移行するよう になっているが、 S 2 6 を省略し、 ユーザーの判断を待たずに S 2 7に 移行するよ うにしてもよい。
S 2 7では、 動作アニメ一ショ ンに追加するアニメーショ ン、 すなわ ち、 追加アニメーショ ンの有無が判断される。 具体的には、 追加アニメ —ショ ン読出部 2 1 が、 追加オブジェク ト選択部 1 4 における.ユーザ一 の選択に応じて、 選択された追加ォブジヱタ トのデ一夕 (図 4 の追加ォ ブジェク トデ一夕 4 0 ) を追加オブジェク ト D B 1 3から探し出し、 次 いで、 探し出したデータ内について、 動作アニメーシヨ ンに追加するァ 二メーシヨ ンの情報 (図 4 の追加アニメーショ ンファイル 4 4 ) を検索 する。
S- 2 7で追加アニメーショ ンファイルがない場合、 S 2 4でファイル に出力された動作アニメ一ショ ンが、 合成アニメーショ ン出力部 1 6 に より動画として出力 (表示) される と ともにファイルに出力される ( S 2 9 ) Ό
S 2 7で追加アニメ一シヨ ンファイル 4 4 がある場合、 追加アニメ一 ショ ン読出部 2 1 によつて追加ォブジヱク ト D B 1 3から追加アニメ一 ショ ンファイル 4 4 が読み出され、 動作アニメ一ショ ンと追加アニメ一 ショ ンファイルとが合成され、 合成アニメ一ショ ンが生成される ( S 2 8 ) 。 その後、 合成アニメーシヨ ンは、 合成アニメーショ ン出力部 1 6 によ り動画と して出力 (表示) されるとともにファイルに出力される ( S 2 9 ) 。
以上が、 本実施形態に係るアニメーショ ン作成方法の処理の流れであ る。
本実施形態に係るアニメーショ ン作成方法は、 本実施形態に係るァニ メーショ ン作成処理を記述したアニメ一ショ ン作成プログラムを記録し たコンピュータ読み取り可能な記録媒体と、 このアニメーショ ン作成プ ログラムを実行するマイ クロプロセッサを内蔵したパーソナル · コンビ ュ一タ等のコ ンピュータとによって実現可能である。 このコンピュー夕で読み取り可能な記録媒体は、 内部記憶装置と して コンピュータに内蔵されるメモリ、 例えば、 R OM (Read Only Memory) であってもよいし、 コンピュータに外部記憶装置と して接続された記録 媒体読み取り装置に揷入され、 記録媒体読み取り装置によって読み取ら れる媒体であってもよい。
いずれの; i 合においても、 コンピュータは、 記録媒体に格納されてい' るプログラムをマイ クロプロセッサがアクセスして実行する構成であつ てもよいし、 記録媒体に格納されているプログラムをコ ンピュータ内の プログラム記憶領域に読み出した後、 そのプログラムをマイ ク口プロセ ッサが実行する方式であってもよい。
ここで、 上記記録媒体は、 マイ ク口プロセッサと分離可能に構成され る記録媒体であり、 磁気テープ、 カセッ トテープ等のテープ系媒体 ; フ 口ツ ビ一ディスクやハー ドデイスク等の磁気ディスク系媒体; C D _ R 0 M (し ompact Disc Read Only Memory)■、 M 0 (Magneto-Optical) ディ スク、 M D (Mini Disc) 、 D V D (Digital Video Disc)等の光ディスク 系媒体 ; I C (Integrated Circuit)カー ド (メモリ カー ドを含む) 、 光 カー ド等の力一 ド系媒体 ; マスク R OM、 E P R O M (Erasable and Pr ogrammabl e Read Only Memory)、 E E P R 0 M (Electrically Erasable and Programmable Read Only Memory) 、 フラッシュメモリ等の半導体 メモリ を含む固定的にプログラムを担持する媒体 (不揮発性メモリ) 等 のいずれであってもよい。 — - また、 コンピュータがインタ一ネッ トを含む通信ネッ トワークと接続 可能なシステム構成である場合、 上記記録媒体は、 通信ネッ トワークか らプログラムをダウンロードして流動的にプログラムを担持する媒体で あってもよい。 なお、 このように通信ネッ トワークからプログラムをダ ゥンロードする場合には、 ダウン口一ド用のプログラムを、 予めコンビ ュ一夕本体に格納しておくか、 あるいは別の記録媒体からィ ンス トール しておけばよい。
次に、 本実施形態のアニメーショ ン作成方法を実行するためのアニメ —シヨ ン作成アプリケーショ ン (アニメーショ ン作成プログラム) の一 例を、 図 6および図 7 を用いて説明する。 図 6は、 本実施形態のアニメ. ーショ ン作成方法を実行するためのアニメーショ ン作成アブリケーショ ンの表示画面の一例である。
このアニメーショ ン作成アプリケ—ショ ンを実行するためのアニメ一 ショ ン作成装置 1 は、 図示しないが、 アニメ一シヨ ン作成アプリケ一シ ョ ンを実行するためのマイ クロプロセッサおよびメモリを内蔵したコン ピュ一タと、 アニメーショ ン作成アプリケーショ ンを格納するためのハ ードディスク等の外部記憶装置、 上記表示画面を表示するための C R T ディスプレイや液晶ディスプレイ等の表示装置、 ユーザ一がアニメ一シ ョ ン作成操作を行うためのボイ ンティ ング · デバイス等を備えている。 図 6 に示すように、 アニメーショ ン作成アプリケーショ ンの表示画面
5は、 既記述アニメーショ ン画像データに含まれる動作ォブジヱタ ト と してのキャラクタ 6 を表示するための既記述アニメ一ショ ン画像表示画 面 5 1 、.追加ォブジェク 卜を表示するための追加ォブジヱク トアイコ ン 表示画面 5 2、 および、 合成アニメ一ショ ンを表示するための合成結果 表示画面 5 3 を有している。
次に、 上記アニメ一ショ ン作成アプリケ一ショ ンを用いたユーザーの アニメーショ ン作成操作の手順を、 図 7に基づいて説明する。
まず、 ユーザ一は、 キャラクタ 6を選択する ( S 6 1 ) 。 例えば、 外 部記憶装置内に予めィ ンス トールされている O Sにより実現されるファ ィルマネージャ上で、 ポイ ンティ ング ' デバイスを用いて所望するキヤ ラクタ 6のデ一タ (既記述アニメーショ ン画像データ) を含むファイル を開く。 この作業ステップは、 図 5の S 2 1 に相当する。
S 6 1 のユーザ一の操作により、 アニメ一ショ ン作成アブリケーショ ンは、 選択されたキヤラクタ 6を、 表示画面 5の既記述アニメーシヨ ン 画像表示画面 5 1 に表示させる。 また、 アニメ一ショ ン作成アプリケ一 ショ ンは、 追加ォブジヱク トアイコン画像情報 4 5に基づき、 追加ォブ ジェク トを表すアイコ ン、 すなわち追加ォブジヱク トアイ コン 5 4 A〜 5 4 Dを表示画面 5の追加ォブジヱク トアイコ 表示画面 5 2に表示さ せる。
このとき、 アニメ一ショ ン作成アプリケ一ショ ンは、 追加オブジェク トアイ コン 5 4 A〜 5 4 Dの表示は、 S 6 1 で選択された既記述アニメ ーショ ン画像デ一タに追加可能な追加ォブジヱク トを自動的に検索し、 見つかった追加ォブジェク トの追加ォブジェク トアイコ ン 5 4 A〜 5 4 Dのみを追加オブジェク小アイコン表示画面 5 2に表示させるようにな つていることが望ましい。 つま り、 アニメーショ ン作成アプリケーショ ンは、 キャラク タ 6 を構成するパーツを制御する制御情報を有する追加 ォブジェク トデータに対応する追加オブジェク トアイコン 5 4 A〜 5 4 Dのみを自動的に追加ォブジヱク トアイコン表示画面 5 2に表示させる ようになつていることが望ましい。
また、 この機能を実現するために、 本実施形態のアニメーショ ン作成 装置 1 は、 キャラクタ 6のデータ (既記述アニメ一ショ ン画像デ一タ) と、 そのキャラクタ 6 に追加可能な追加ォブジヱク トとの対応関係を記 述した追加オブジェク ト D B 1 3を有することがよ り望ましい。 このよ うな追加ォブジヱク ト D B 1 3 を有するならば、 図 5の S 2 1 は省略が 可能である。 '
次に、 ユーザーは、 追加オブジェク トアイコン表示画面 5 - 2に表示さ れている追加オブジェク トアイコン 5 4 A〜 5 4 Dの.中から、 S 6 1 で 選択したキャラク タ 6 に対して追加したい追加ォブジヱク トに対応する 追加オブジェク トアイコン ( 5 4 A〜 5 4 Dのいずれか) を選択する ( S 6 2 ) 。 追加ォブジヱク トアイユンの選択は、 追加ォブジヱク トアイ コン表示画面 5 2 に表示された追加ォブジヱク トアイコン 5 4 A〜 5 4 Dのいずれかを、 ボイ ンティ ング · デバイスで既記述アニメーショ ン画 像表示画面 5 1 内までドラッグして行うようにするとよい。 この作業ス テツプは、 図 5 の S 2 3に相当する。 さ らに、 ユーザ一は、 必要に応じ て、 S 6 2 を繰り返して他の追加ォブジヱク トアイコンを選択する。
S 6 2におけるユーザーの操作が終了すると直ちに、 アニメーショ ン 作成アプリケ一ショ ンは、 既記述アニメ一ショ ン画像データと追加ァニ メ一シヨ ンデータとをアニメーショ ン合成部 1 5 にて合成し、 合成結果
(合成アニメーシヨ ン) を合成アニメーショ ン出力部 1 6により合成結 果表示画面 5 3 に出力 (表示) する。
最後に、 ユーザーは、 合成結果表示画面 5 3に表示された合成結果 ( 合成アニメ一ショ ン) を確認する ( S 6 3 ) 。 ところで、 背景技術の項で述べたように、 人間の動作や顔の表情を表 すキャラク タ · アニメ一ショ ンを作成するアニメ一ショ ン作成方法にお いて、 予め定められた方法で記述されているアニメ ' キャラクタ、 も し く はアニメ一ショ ンの 1 フ レーム、 も しく はある一定時間を持ったァニ メ一シヨ ン · ス トーリのそれぞれを構成する各々のパーツに対して、 動 きや形態の変化を加える方法が、 知られている。
キャラク タ · アニメーショ ンは、 キャラク タ.を構成する個々のパーツ が独立に動いていると考えることができる。 しかしながら、 キャラク タ • アニメーショ ンをみた人は、 個々のパーツの動きや形態の変化を知覚 統合した結果と して、 初めて、 そのキャラク タ ' アニメーショ ンの 「意 味」 を認識できることできる。
例えば、 人間の顔のキャラクタ · アニメ一シヨ ンにおいて、 口が 「い 」 を発音すると きのように広がっただけでは、 それをみた人は、 その動 作が何を意味しているのか、 「何かに怒っている」 状態であるのか、 そ れと も 「笑顔で何かに対して喜んでいる」 状態であるのか、 あるいは 「 歯を磨いている」 状態であるのか認識することができない。 「い」 の発 音をする と きの口の広がり とともに、 歯ブラシが表示されれば、 「歯を 磨いている」 状態であることが容易に認識することができる。
言い換えれば、 既に記述されたキャラク タ · アニメ一ショ ンに歯ブラ シが表示されたとき、 キャラク タの口が 「い」 の形に変化し、 歯磨きの アニメーショ ン ' ス トーリが展開されれば、 「歯を磨いている」 という ことを容易に認識することができる。
したがって、 キャラク タ · アニメーショ ンにオブジェク ドを追加する ことは、 そのキャラク タ ' アニメーショ ンの 「意味」 を人が認識するの に役立つ。 それゆえ、 本発明は、 キャラクタ · アニメーショ ンにォブジ ヱク トを追加する方法として特に好適である。
次に、 本実施形態のアニメーショ ン作成方法をキヤラクタ · アニメ一 ショ ンに適用した例について、 図 5および図 6に基づいて説明する。 図 6の例では、 既記述アニメ一ショ ン画像デ一タを選択する. S 2 1 の ステップで、 ユーザ一が、 既記述アニメーショ ン画像表示画面 5 1 に表 示されているキャラクタ 6のファイルを選択し、 追加ォブジヱク トを選 択する S 2 3のステツプで、 追加ォブジヱク トアイコン表示画面 5 2 に 表示されている追加ォブジェク—トアイコン 5 4 A〜 5 4 Dの中から、 歯 ブラシを表す追加ォブジヱク トアイコン 5 4 Aを選択する。
追加ォブジヱク トアイコン 5 4 Aの選択の後、 アニメーショ ン作成装 置 1 は、 図 5に示す S 2. 4 - S 2 8の流れに従って合成アニメ一ショ ン を生成する。
この場合、 追加ォブジヱク トアイコン 5 4 Aに対応する追加ォブジヱ ク トデ一夕は、 キヤラクタ 6 を構成するパーツ、 具体的にはキャラクタ 6の 「左手」 と 「口」 を構成するパ一ッに対する制御情報と、 「歯ブラ シ J が動く追加アニメーショ ンファイル (追加ォブジヱク ト情報) を保 持している。 そのため、 この場合、 S 2 5で、 動作アニメ一ショ ン生成 部 2 0 により、 追加オブジェク トデータの制御情報に基づいて、 キャラ クタ 6 の 「左手」 と 「口」 を構成す.るパーツの動作が制御され、 「左手 」 と 「口」 とが動くキャラクタ 6のアニメーショ ン (動作アニメ一ショ ン) が生成される。 そして、 S '2 8で、 アニメ一ショ ン合成部 1 5 によ り、 キャラクタ 6のアニメーショ ンと 「歯ブラシ」 が動く追加アニメ一 ショ ンとが合成され、 合成アニメーシヨ ンが生成される。 生成された合成ァ二メ一シヨ ンは、 S 2 9 において、 合成アニメ一シ ョ ン出力部 1 6により'、 図 6に示す合成結果表示画面 5 3に出力 (表示 ) される。 この場合、 合成結果表示画面 5 3には、 既記述アニメ一ショ ン画像表示画面.5 1 に表示されているキャラクタ 6がごしごしと 「歯磨 き」 をしている合成アニメ―シ ョ ン、 具体的には、 キャラクタ 6の口が
「い」 の形に変化するとともにキャラクタ 6の左手の動きに応じて歯ブ ラシが上下に往復運動する合成アニメーショ ンが表示される。
なお、 ここでは、 追加ォブジヱク 卜が歯ブラシであるため、 追加ォブ ジヱク トは、 決まつた位置、 具体的には、 キャラク タ 6の口の位置に追 加される。 しかしながら、 追加ォブジヱタ トが他のォブジヱク トである 場合には、 追加ォブジヱク トの追加位置をユーザーが指定できるように してもよい。 追加オブジェク トの追加位置の指定は、 例えば、 追加ォブ ジヱク トを表すアイコンをユーザ一がボイ ンティ ング · デバイスを用 t、 てドラッグすると、 ドラッグ先の位置を検出してドラッグ先の位置に追 加ォブジヱク トを表示するような機能をアニメ一ショ ン作成装置 1 に持 たせておく ことで実現できる。
次に、 上記キャラク タ ' アニメ一ショ ンの作成方法の処理ステツプを 、 図 1、 図 5に示す流れ図、 図 8 ( a ) および図 8 ( b ) 、 図 9、 およ び図 1 0に基づいて詳細に説明する。
まず、 既記述アニメーショ ン画像データのデータ構造を図 8 ( a ) 、 図 8 ( b ) 、 および図 9に基づいて説明する。
図 8 ( a ) および図 8 · ( b .) に示すキャラクタ 6のアニメ一シヨ ンを 作成するための 「ヒ ト型」 の既記述アニメーショ ン画像デー夕は、 既記 述アニメ一ショ ン画像デ一夕を記述したファイルのフアイル名 (既記述 アニメーショ ン画像フアイル名) 、 既記述アニメ一ショ ン画像データを 記述したフアイルの I D (既記述アニメ一ション画像フアイル I D) 、 および、 制御対象の既記述アニメーション画像データに含まれる動作ォ ブジェク トの各パーツのパーツデータ (各パーツのパーツ名、 各パーツ のパーツ I D、 各パーツのパーツ構成点座標、 および各パーツのパーツ 構成点間線分情報) から構成されている。
次に、 既記述アニメーショ ン画像データのデ一夕構造について説明す る。 ここでは、 紙面の都合上、 既記述アニメーショ ン画像データを構成 するパーツデ一夕のうち、 図 8 ( a ) および図 8 (b) に示すキャラク 夕 6を構成するパーツ 6 1に関するパーツデータおよびパーツ 6 2に関 するパーツデ一夕について図 9に基づいて説明する。
まず、 パーツ 6 1のパーツデ一夕のデータ構造について説明する。 パ —ッ 6 1のパーツデータは、 図 9に示すように、 パーツ名 : 6 1. a r t と、 パーツ I D : 6 1 と、 パーツ構成点座標 (パーツ 6 1を構成す るパーツ構成点 6 3およびパーツ構成点 6 4の座標) : (X 6 3, Y 6 3 ) , (X 6 4, Y 6 4 ) と、 図 8 (b) に示すパーツ構成点 6 3とパ ーッ構成点 6 4とを結ぶ線分の情報であるパーツ構成点間線分情報 : 1 i n e 6 1 とを持つ。 パーツ構成点間線分情報 : 1 i n e 6 1は、 パー ッ構成点 6 3とパーツ構成点 6 4とを結ぶ線分の太さや色の情報である 。 パーツが多角形の場合、 パーツデ一夕のパーツ構成点間線分情報は、 パーツ構成点間線分で囲まれた領域内の色の情報も有する。
次に、 パーツ 6 2のパーツデ一夕のデ一夕構造について説明する。 パ ーッ 6 2のパーツデータは、 図 9に示すように、 パーツ名 : 6 2. p a r t と、 パーツ I D : 6 2と、 パーツ構成点座標 (パーツ 6 1を構成す るパーツ構成点 6 4およびパーツ構成点 6 5の座標) : (X 6 4 , Y 6 4 ) , (X 6 5 , Y 6 5 ) と、 図 8 (b ) に示すパーツ構成点 6 4 とパ ーッ構成点 6 5 とを結ぶ線分の情報であるパーツ構成点間線分情報 : 1 i n e 6 2 とを持つ。 パーツ構成点間線分情報 : 1 i n e 6 2は、 図 8 ( b ) に示すパーツ構成点 6 4 とパーツ構成点 6 5 とを結ぶ線分の太さ や色の情報である。 パーツが多角形の場合、 パ一ッデータのパーツ構成 点間線分情報は、 パーツ構成点間線分で囲まれた領域内の色の情報も有 する。
次に、 追加ォブジヱク.トデータのデ一タ構造を、 図 1 0に基づいて説 明する。 追加ォブジェク トデータは、、 図 1 0に示すように、 追加ォブジ ェク トアイコン画像情報と、 制御対象既記述アニメーショ ン画像ファィ ル名 (制御対象の既記述アニメ一ショ ン画像データを記述したフアイル のファイル名) : 6. a n i m e と、 制御対象既記述アニメ一ショ ンフ アイル I D (制御対象の既記述アニメーショ ン画像データを記述したフ アイルの I D ) : 6 と、 追加アニメ一シ'ヨ ンファイル (追加オブジェク ト情報) と、 追加オブジェク トによって制御される動作ォブジヱク トの パーツのパーツ I Dである制御対象パ ツ I D ( 6 1、 6 2、 6 3、 6 ' 4 ) と、 追加ォブジヱク トによって制御される動作ォブジヱク トのパ一 ッの制御量 (制御情報) とからなる。 制御量については、 後述する。 次に、 上記キャラクタ · アニメ一ショ ンの作成方法の処理ステツプを
、 図 5の流れ図を用いて説明する。
まず、 前述したように、 作成アニメ一ショ ンの雛形となる既記述ァニ メーショ ン画像デー夕がユーザーによつて選択され ( S 2 1 ) 、 選択さ れた既記述アニメ一ショ ンに対して追加可能な追加ォブジヱク ト'が検索 される ( S 2 2 ) 。
この場合、 S 2 2では、 実際には、 S 2 1 で選択された既記述アニメ ーショ ン'画像デ一夕内の既記述アニメーショ ン画像フアイル名もしく は 既記述アニメーショ ン画像ファイル I Dを元に、 追加ォブジヱク ト D B 1 3内に格納されている複数種類の追加ォブジヱク トデータの中から、 既記述アニメーショ ン画像データ内の既記述アニメ一ショ ン画像ファィ ル名と一致する制御対象既記述アニメーショ ン画像ファィル名を持つ追 加ォブジェグ トデ一夕、 もしくは既記述アニメーショ ン画像デ一夕内の 既記述アニメ一シヨ ン画像ファイル I Dと一致する制御対象既記述ァニ メ一ション画像フアイル I Dを持つ追加ォブジヱク トデ一タを検索し、 見つかった追加ォブジヱク トデータに対応する追加ォブジヱク トアイコ ンを表示する。
具体的には、 S 2 1 で既記述アニメ一ショ ン画像デ一タとして、 図 9 に示すパーツデータを含むキヤラクタ 6のデータを入力した場合、 すな わち、 既記述アニメーショ ン画像ファイル名 : 6 . a n i m e、'および 既記述アニメ一ショ ン画像ファイル I D : 6 をデ一タとして有する既記 述アニメ一ショ ン画像デ一夕を入力した場合、 S 2 2では、 追加ォブジ ヱク ト D B 1 3内に格納されている複数種類の追加ォブジヱク トデータ の中から.、 制御対象既記述アニメーション画像フアイル名 : 6 . a n i m e、 もしく は制御対象既記述アニメーショ ン画像ファイル I D : 6を 格納している追加ォブジヱク トデータを検索し、 見つかつた追加ォブジ ェク トデータに対応する追加ォブジ ク トアイコンを表示画面 (追加ォ ブジェク トアイコン表示画面 5 2 ) に表示する。
次に、 前述したように、 表示された追加ォブジェク トアイコンの中か ら、 既記述アニメ一ショ ン画像デ一タに対して追加される追加ォブジェ ク 卜がユーザーによって選択され ( S 2 3 ) 、 選択された追加ォブジヱ ク トデータ 4 0 に含まれる制御情報が取得される ( S 2 4 ) 。
次に、 前述したように、 既記述アニメーショ ン画像データに対し、 S 2 4 のステツプで取得された制御情報に基づいて動作ォブジヱク トの動 作に制御が加えられることにより動作アニメーショ ンが生成される ( S
2 5 ) o
S 2 5における制御情報による動作オブジェク 卜の動作の制御、 すな わち図 1 0 に示す追加オブジェク トデータの制御量.によるパーツ 6 1 の 動作制御について、 図 1 1 および図 1 2 を用いて説明する。 なお、 図 1 1 は、 パーツ 6 1 のパーツデータのデータ構造を示す。
パ"ッ 6 1 のパーツデ一タは、 図 9に示すように、 パーツ構成点座標 : (X 6 3 , Y 6 3 ) , (X 6 4 , Y 6 4 ) と、 パーツ構成点間線分情 報: 1 i n e 6 1 とを持っている。
パーツ I Dが 6 1であるパーツ 6 1 の、 追加オブジェク トデータによ る制御量のデータは、 図 1 1 に示すように、 ( s X し s y 1 , s 2 , s y 2 ) ( e 1 , e y 1 , e x 2 , e y 2 ) で表される。 これは、 図 1 2に示す 1本の線分 6 1 S · 6 1 Eの端点の座標、 すなわち、 点 6
3 Sの座標 ( s x し s y l ) および点 6 4 Sの座標 ( s x 2 , s y 2 ) と、 点 6 3 Eの座標 ( e X 1 , e y 1 ). および点 6 4 Eの座標 ( e x
2 , e y 2 ) とを表している。 上記パーツ 6 1 は、 追加オブジェク トに より、 該 2線分 6 1 S · 6 1 Eのそれぞれをキーフ レームとしたべク ト ルアニメ一ショ ンとして制御される。 具体的には、 例えば、 アニメ一シ ョ ンの最初のコマにおけるパーツ構成点 6 3 · 6 4の位置が点 6 3 S · 6 4 Sに一致するように、 かつ、 アニメ一シヨ ンの最後のコマにおける パーツ構成 6 3 - 6 4 (図 8 ( b ) 参照) の位置が点 6 3 E · 6 4 E に一致するように制御され、 さ らに、 アニメーショ ンの途中のコマでは 、 パ一ッ構成点 6 3 · 6 4が、 点 6 3 S ' 6 4 Sから点 6 3 Ε · 6 4 E に近づく ように制御される。 また、 線分 6 1 S · 6 1 Eは、 パーツ 6 1 の構成点間線分情報 : 1 i n e 6 0に記述された色や太さで描画される 。 つま り、 べク トルで表現されたパーツ 6 1の線分は、 該制御量により 表現された少なく とも 2つの線分 ( 6 I S ' 6 1 E ) をキ一フレームに 有するべク トルアニメ一ショ ンとして表現される。
そして、 .このようにして制御された結果として得られたアニメーショ ンは、 動作アニメ一ショ ンと してファイルに出力される。
その後、 . S 2 6で他に追加オブジェク トがないと判断され、 S 2 7で 追加アニメーショ ンがあると判断され、 S 2 8に進み、 動作アニメーシ ョ ンと追加アニメーショ ンとが合成され、 S 2 9で、 合成アニメ一ショ ンが表示画面に表示される。
以上のようにして、 合成アニメ一ショ ンが作成される。 ここで作成さ れる合成アニメーショ ンは、 既記述アニメ一ショ ン画像データに含まれ る動作ォブジェク トのパ一ッを制御したものであるが、 他の表現で言い 換えると、 既記述アニメ一ショ ン画像デ一タにおける、 追加ォブジェク トのアニメーショ ン (ベク トルアニメ一シヨ ン) を追加する部分に存在 する、 動作ォブジェク トのパーツを削除し、 削除した部分に追加ォブジ ェク トのアニメ一ショ ンを追加したものと考えられる。
〔実施の形態 2〕 .
本発明の他の実施の形態について図 1 3ないし図 1 5に基づいて説明 すれば、 以下の通りである。 なお、 説明の便宜上、 前記実施の形態 1 に て示した各部材と同一の機能を有する部材には、 同一の符号を付記し、 その説明を省略する。
実施の形態 1 では、 追加ォブジヱク トに応じた動作ォブジ.ヱタ トのァ 二メ一シヨ ン (動作アニメーショ ン) を作成し、 追加ォブジヱク トのァ ニメ一ショ ンと合成してアニメーショ ンを作成する方法について述べた 。 そして、 図 6の例では、 既記述アニメ一ショ ン画像表示画面 5 ' ί に表 示されているキャラクタ 6を動作オブジェク ト として含む既記述アニメ ーショ ンデ一タを選択し、 追加ォブジヱク ト として歯ブラシを表す追加 オブジェク トアイコン 5 4 Aを選択した結果として、 キャラクタ 6が左 手で歯を磨く アニメーショ ン (以下、 「左手歯磨きアニメ」 と称する) が合成アニメーシヨ ンと して作成され、 合成結果表示画面 5 3 に表示さ れた。 '
実施の形態 1 の方法では、 合成結果表示画面 5 3 に表示される合成ァ 二メ一シヨ ンとして、 キャラクタ 6が右手に歯ブラシをもって歯を磨く アニメーショ ン (以下、 「右手歯磨きアニメ」 と称する) を作成しょう とする場合、 キャラクタ 6の右手および口を構成するパーツの動作を制 御する制御情報と 「右手歯磨ぎアニメ」 を表す追加ォブジ ク トアイコ ン画像情報とを持つ追加ォブジヱク トデータを用意しておけば、 「右手 歯磨きアニメ」 を作成することができる。
しかしながら、 「右手歯磨きアニメ」 「左手歯磨きアニメ」 それぞれ に対して別々の追加ォブジヱク トデ一夕を用意することは、 経済的では ない。 なぜなら、 「右手歯磨きアニメ」 用の追加ォブジェク トデ一夕と 、 「左手歯磨きアニメ」 用の追加ォブジヱク トデータとを別々に用意す るならば、 追加ォブジヱク トアイコンも 2種類必要になるからである。 また、 追加ォブジヱク トアイコンの数が多くなると、 より広い表示画面 が必要になる、 ユーザーが目的のアイコンを見つけにく くなる等といつ た不利な点がある。
本実施形態のアニメーショ ン作成方法は、 上記問題を解決すべく、 同 じ追加ォブジェク トアイコンを選択した場合であつても、 ユーザ一が入 力する追加ォブジ ク トの挿入位置によって、 動作ォブジ ク トゃ追加 ォブジェク トの動きを変更し、 1 つの追加ォブジヱク トアイコンで複数 種類のアニメ一ショ ンを作成可能と したものである。
本実施形態の.アニメ一ショ ン作成方法に用いるアニメーショ ン作成装 置では、 追加オブジェク トの揷入位置に関する情報、 すなわち、 既記述 アニメ一ショ ンの画像に対して第 2 のォブジェク トのアニメ一ショ ンの 画像をどの位置に追加するかを表す位置情報をユーザーが入力できるよ うになっている。 この位置情報の入力は、 例えば、 追加オブジェク トァ イコンをユーザーがポイ ンティ ング ' デバイス (位置情報入力部) を用 いて ドラッグすると、 ドラッグの終点の座標を検出し、 既記述アニメ一 ショ ン画像における ドラッグの終点の座標に対応する位置に追加ォブジ ヱク トを追加する機能をアニメーショ ン作成装置に持たせておく ことで 実現できる。
本実施形態のアニメーショ ン作成方法は、 実施の形態 1 の図 5のァニ メ一ショ ン作成方法において、 S 2 3で、 ユーザ一が、 例えば、 追加ォ ブジェク トアイコンをポインティ ング . デバイスを用いてドラッグする ことによ り、 動作ォブジヱク トに対する追加ォブジヱク トの揷入位置を 指定するようにし、 S 2 4で、 追加ォブジ ク トの揷入位置に応じて取 得する制御情報を変更するようにした以外は、 実施の形態 1 の図 5のァ ニメ一ショ ン作成方法と同様である。 この方法では、 動作アニメ一ショ. 、ノを生成する S 2 5のステップで、 追加オブジェク トの揷入位置によつ 動作アニメーショ ンを変更でき、 結果として、 追加ォブジヱタ トの揷 入位置によって異なる合成アニメーシヨ ンを作成できる。
また、 本実施形態のアニメ一ショ ン作成装置では、 実施の形態 1 のァ ニメーショ ン作成装置と同様の構成を備えているのに加えて、 追加ォブ ジェク トの揷入位置によって制御情報を切り替えるために、 制御情報取. 得部 1 9が、 実施の形態 1 で述べた機能に加え、 追加オブジェク トの揷 入位置、 例えば、 追加ォブジヱク トアイコンがドラッグされた位置を検 出し、 その位置に応じた制御情報を取得する機能を備えている。 また、 追加ォブジヱク トは、 制御対象パーツ名 4 1 、 制御対象パーツ I D 4 2 、 制御情報 4 3、 および追加ォブジ ク ト情報 4 4 を複数組備えている ことが要求される。
本実施形態のアニメーショ ン作成方法の具体例について、 図 1 3. ( a
) 、 図 1 3 ( b ) 、 および図 1 4に基づいて説明する。
まず、 追加ォブジヱク トデ一タのデータ構造を、 図 1 4に基づいて説 明する。 '
追加ォブジェク トデータは、 図 1 4 に示すように'、 追加ォブジェク ト アイコ ン画像情報と、 制御^ ί.象既記述アニメーショ ン画像ファイル名 ( 追加ォブジヱク トによる制御対象の既記述アニメ一ショ ン画像デ一タを 記述したファイルのファイル名) : 6 . a n i m e と、 制御対象既記述 アニメーショ ン画像ファイル I D (追加オブジェク トによる制御対象の 既記述ァニメ一ショ ン画像データを記述したファイルの I D ) : 6 と、 その追加オブジェク トに相応しい揷入位置 (既記述アニメーショ ン画像 データへの追加位置) の範囲、 すなわち追加位置範囲と、 追加アニメ一' シヨ ンファイル (追加ォブジェク ト情報) と、 追加ォブジヱク トによつ て制御される動作ォブジヱク トのパーッのパーツ I Dである制御対象パ —ッ I D ( 6 1 、 6 2、 6 3、 6 4 ) と、 追加オブジェク トによって制 御される動作ォブジュク トのパーツの制御量 (制御情報) とからなる。 制御量については、 後述する。
この場合、 まず、 図 5に示す方法と同様に S 2 1 〜 S 2 2のステップ を行った後、 S 2 3においてユーザーが追加ォブジヱク トを選択するの に加えて、 追加ォブジヱク トの挿入位置を指定する。
次に、 S 2 4で、 指定された追加ォブジヱク トの揷入位置が、 追加ォ ブジヱク トデータに記述された複数の追加位置範囲のいずれの範囲内に あるかを判断し、 どの追加位置範囲内にあるかに'よって取得する制御情 報を変更する。 具体的には、 まず、 追加ォブジュク トの揷入位置が、 追 加オブジェク トデータに記述された複数の追加位置範囲のいずれかの範 囲内にあるかを判断する。 具体的には、 座標 ( X i:、 y t ) である追加 ォブジヱク トの挿入位置が、 制御対象パーツ I D : 6 1 , 6 2に対応す る追加位置範囲、 すなわち、 座標 ( X 1 1 , y 1 1 ) の点と、 座標 ( X 1 2 , y 1 2 ) の点と、 座標 ( X 1 3, y 1 3 ) の点と、 座標 ( x 1 4 , y 1 4 ) の点とを結ぶ矩形の領域と、 座標 ( X i:、 y t ) である追加 ォブジヱク トの揷入位置が、 制御対象パーツ I D : 6 3 , 6 4に対応す る追加位置範囲、 すなわち、 追加ォプジ ク トデータの追加位置範囲に よつて特定された領域内、 座標 ( X 2 1 , y 2 1 ) の点と座標 ( X 2 2 , y 2 2 ) の点と座標 ( X 2 3, y 2 3 )'の点と座標 ( x 2 4 , y 2 4 ) の点とを結ぶ矩形の領域とのいずれかにあるかを判断する。
そして、 追加ォブジヱク トの揷入位置が制御対象パーツ I D : 6 1 , 6 2 に対応する追加位置範囲内であるときには、 制御対象パーツ I D : 6 1 , 6 2 に対応する制御量を取得し、 追加ォブジェク トの揷入位置が 制御対象パーツ I D : 6 3, 6 4に対応する追加位置範囲内であるとき には、 制御対象パーツ I D : 6 3, 6 4 に対応する制御量を取得する。 このようにして、 S 2 3 においてユーザーによ り指定された追加ォブジ ヱク トの揷入位置に応じて、 制御される動作ォブジヱク トの構成パ一ッ を選択することが可能となる。 '
図 1 3 ( a ) および図 1 3 ( b ) の例では、 制御対象パーツ I D : 6
1 , 6 2 に対応する追加位置範囲は、 キャラクタ 6のキャラクタ 6 の左 手を構成しているパーツ I D : 6 3, 6 4のパーツ (図 8 ( a ) および 図 8 ( b ) のパーツ 6 1 およびパーツ 6 2 ) 周辺の領域に設定され、 制 御対象パーツ I D : 6 3, 6 4 に対応する追加位置範囲は、 キャラクタ 6の右手を構成しているパーツ I D : 6 3 , 6 4のパーツ周辺の領域に 設定されている。 なお、 図 1 3 ( a ) および図 1 3 ( b ) の既記述ァニ メーショ ン画像表示画面 5 1 には、 図 6 に示す既記述アニメ一ショ ン画 像表示画面 5 1 と同じ既記述アニメーショ ン画像を表示しているものと する。
したがって、 図 1 3 ( a ) および図 1 3 ( b ) の例では、 S 2 4にお いて、 歯ブラシを表す追加オブジェク トアイコン 5 4 Aをドラッグした ときの終点位置がキャラクタ 6の左手周辺の領域内であれば、 キャラク タ 6の左手を構成する I D : 6 1 , 6 のパーツの制御情報が取得され る一方、 歯ブラシを表す追加ォブジヱク トアイコン 5 4 Aを ドラッグし たときの終点位置がキャラクタ 6の右手周辺の領域内であれば、 キャラ ク夕 6 の右手を構成する I D : 6 1 , 6 2 のパーツの制御情報が取得さ れる。
これにより、 追加ォブジヱク トアイコン 5 4 Aを左手周辺にドラッグ するか、 右手周辺にドラッグするかによって、 キャラクタ 6が動かす手 を左手-、 右手のいずれにも変更できる。 この結果、 追加オブジェク トァ イコン 5 4. Aのドラッグ位置によって、 キャラクタ 6の動作パーツが異 なる 2種類の合成アニメーシヨ ン、 左手歯磨きアニメ 1 および右手歯 磨きアニメ 7 5が出力されることになる。 ·
本実施形態のアニメーショ ン作成方法では、 以上のようにして、 キヤ ラクタ 6の動きが異なる複数種類の合成アニメ一シヨ ンを、 1つの追加 ォブジヱク トアイ コ ンで作成することができる。 したがって、 より多様 なアニメーショ ンの作成が可能となる。 また、 追加ォブジヱク トアイ: π ンの数を減らすことができるので、 比較的狭い表示画面でキャラク タ 6 の動きが互いに異なる多種類の合成アニメーショ ンを作成でき、 また、 ユーザーが目的のアイコンを見つけ易い。
なお、 上述した方法では、 追加ォブジヱク トの揷入位置によつて動作 オブジェク トお.よび追加オブジェク トの動きを変更していたが、 図 1 5 ( a ) および図 1 5 ( b ) に示す方法のように、 追加ォブジヱク トの揷 入位置によつて追加ォブジヱク トの種類を切替えることも考えられる。 すなわち、 同じ追加ォブジヱク トアイコンを選択した場合であつても、 追加ォブジヱク トの揷入位置によって異なる追加ォブジヱク トが選択さ れるようにし、 1つの追加ォブジヱク トアイコンで複数種類の追加ォブ ジェク トを選択可能とすることも可能である。 これによ り、 例えば、 図 1 5 ( a ) .に示すように、 水滴を表す追加ォ ブジェク トアイコン 5 4 Dをキャラクタ 6の顔の部分に ドラッグした場 合には、 キャラクタ 6の顔が笑顔から悲しい顔に変化する動作アニメ一 ショ ンにキャラクタ 6の目から涙 (追加ォブジヱク ト) が流れ落ちる追 加アニメーショ ンを追加した合成アニメ一シヨ ン 8 4 を生成する.一方、 図 1 5 ( b ) に示すように、 水滴を表す追加ォブジヱク トアイコン 5 4 Dをキャラクタ 6の背景部分 (キャラクタ · 6以外の部分) にドラッグし た場合には、'キャラクタ 6の顔が笑顔から悲しい顔に変化する動作ァニ メ一シヨ ンに雨 (追加オブジェク ト) が降る追加アニメーショ ンを追加 した合成アニメーシヨ ン 8 5 を生成することができる。
この方法では、 複数種類の追加ォブジヱク ト (涙および雨) のアニメ —ショ ンを 1 つの追加ォブジヱク トアイコン (水滴を表す追加ォブジヱ ク トアイコン 5 4 D ) で作成することができる。 したがって、 より多様 なアニメーショ ンの作成が可能となる。 また、 追加オブジェク トアイコ ンの数を減らすことができるので、 比較的狭い表示画面で追加ォブジヱ ク トの種類および動きが互いに異なる多種類の合成アニメ一ショ ンを作 成でき、 また、 ユーザ一が目的のアイコンを見つけ易く なる。
また、 図 1 3 ( a ) および図 1 3 ( b ) に示す方法と図 1 5 ( a ) お ょぴ図 1 5 ( b ) に示す方法とを組み合わせることも可能である。 これ により、 1 つの追加オブジェク トアイコンで、 動作オブジェク トの動き と追加アニメ一ショ ンとの両方が異なる複数種類のアニメーショ ンを作 成することができる。
〔実施の形態 3 〕
本発明のさ らに他の実施の形態について図 1 6に基づいて説明すれば 、 以下の通りである。 なお、 説明の便宜上、 前記実施の形態 1 にて示し た各部材と同一の機能を有する部材には、 同一の符号を付記し、 その説 明を省略する。
上記実施の形態 2では、 既記述アニメ一ショ ン画像データに対する追 加ォブジヱク トの揷入位置により、 既記述アニメーショ ンに含まれる動 作ォブジ ク トのの動作を制御する制御情報を変化させる方法 (図 1 3 ( a ) および図 1 3 ( b ) ) と、 追加ォブジェク トの揷入位置によって 追加されるォブジヱク トを変更する方法 (図 1 5 ( a ) および図 1 5 ( b ) ) とについて述べた。
これに対し、 本実施形態では、 追加ォブジェク トの揷入順序に時間要 素の概念を持たせた、 .より直感的なアニメーショ ン作成方法について述 ベる。 '
既に述べたように、 本発明のアニメーショ ン作成方法において、 動作 ォブジヱク トに対して追加される追加ォブジヱク トは、 1つとは限らな い。 つま り、 追加ォブジヱク ト選択部 1 4で選択される追加オブジェク トは、 複数であってもよい。
本実施形態のアニメーショ ン作成方法は、 該複数の追加オブジェク ト が追加ォブジ ク ト選択部 1 4で選択される順番に対応して、 その順番 に応じた合成アニメーショ ンを作成するものである。
したがって、 本実施形態のアニメーショ ン作成装置では、 実施の形態
1 における制御情報取得部 1 9が、 追加オブジェク トデータの選択順序 (揷入順序) に従って、 先に選択された追加ォブジュク トデータに含ま れる制御情報を第 1 の制御情報として取得し、 後に選択された追加ォブ ジ ク トデ一夕に含まれる制御情報を第 の制御情報として取得するよ うになつている。 そして、 動作アニメーショ ン生成部 2 0'は、 既記述ァ ニメ一ショ ン画像データに対し、 第 1 の制御情報と第 2の制御情報とに 基づいて動作ォブジヱク トの動作を制御することにより、 動作アニメ一 ショ ンを生成する。
' 本実施形態のアニメーショ ン作成方法の具体例を図 1 6に基づいて説 明する。
図 1 6に示すように、 表示画面 9では、. 追加ォブジュク トアイコンと して、 晴れアイコン 9 4 A、 曇りアイコン 9 4 B、 アイコン 9 4 C、 お よびアイコン 9 4 Dが、 追加オブジェク トアイコン表示画面 9 2に表示 されるようになつている。
まず、 ユーザ一が、 ポイ ンティ ング ' デバイスを用いて、 矢印 9 5で ' 示すように、'既記述アニメーショ ン画像表示画面 9 1 に表示された空の 左端部まで晴れアイコン 9 4 Aを ドラッグした後、 矢印 9 6で示すよう に、 既記述アニメ一ショ ン画像表示画面 9 1 に表示された空の中央部ま で曇りアイコン 9 4 Bを ドラッグする。
これにより、 制御情報取得部 1 9が、 アイコン 9 4 A · 9 4 Bを ドラ ッグした順序に従って、 アイコン 9 4 Aに対応する追加オブジェク トデ 一夕の制御情報を第 1 の制御情報として取得し、 次に、 アイコン 9 4 B に対応する追加ォブジュク トデータの制御情報を第 2の制御情報として 取得する。 そして、 動作アニメーショ ン生成部 2 0が、 既記述アニメ一 ショ ン画像データに対し、 第 1 の制御情報と第 2の制御情報とに基づい て動作ォブジヱク トの動作を制御することによ り、 動作アニメーショ ン を生成する。 この例では、 動作ォブジヱク ト 1 0 としての空が、 明るい 状態から暗い状態へと変化していくアニメ一ショ ンが動作アニメ一ショ ンと して生成される。
時間的な要素を紙面上で表現することは不可能なので、 合成アニメ一 ショ ンについては詳細に説明しないが、 結果として、 太陽が燦々と輝い た状態から徐々に曇った状態へ変化していく ような合成アニメーショ ン が作成される。
尚、 発明を実施するための最良の形態の項においてなした具体的な実 施態様'または実施例は、 あく までも、 本発明の技術内容を明らかにする ものであって、 そのような具体例にのみ限定して狭義に解釈されるべき ものではなく、 本発明の精神と次に記載する特許請求の範囲内で、 いろ いろと変更して実施することができるものである。 産業上の利用の可能性
本発明のァ.ニメ一ショ ン作成方法は、 以上のように、 第 2のオブジェ ク トを選択するステップと、 既記述アニメーショ ンの画像を用いて、 第 1 のオブジェク トが、 選択された第 2 ·のォブジェク トに応じた動作を行 う動作アニメーショ ンを生成するステツプと、 動作アニメーショ ンと第 2のォブジェク 卜のアニメーショ ンの画像とを合成するステップとを有 する方法である。
これにより、 ユーザ一が、 第 2のォブジヱク トに応じた第 1 のォブジ ヱタ トのアニメーショ ンを探し出したり、 新規に作成する操作を行う こ となく、 既記述アニメーショ ンの画像に第 2のォブジヱク トのアニメ一 ショ ンの画像を追加した合成アニメ一ショ ンを作成することができる。 それゆえ、 上記方法は、 予め記述された既記述アニメ一ショ ンの画像に 対してォブジヱク トを追加した合成アニメ一ショ ンを簡単な操作で、 力、 つ、 短時間で作成できるアニメーショ ン作成方法を提供することができ るという効果を奏する。
また、 本発明のアニメ一ショ ン作成方法は、 以上のように、 第 2のォ ブジヱク トの少なぐとも 1つを選択して第 1 のォブジェク トに関連付け るステ'ップと、 既記述アニメ一シヨ ンの画像を用いて、 選択された第 2 のオズジヱク トの第 1 のォブジェク トへの関連内容に応じた動作を第 1 のォプジヱク トが行う動作アニメ一ショ ンを生成するステップと、 動作 アニメ一ショ ンと第 2のォブジヱク トのアニメ一ショ ンの画像とを合成 するステップとを有する方法である。
これにより、 ユーザーが、 第 2のォブジヱク トに応じた第 1 のォブジ ェク 卜のアニメ一ショ ンを探し出したり、 新規に作成する操作を行う こ となく、 既記述アニメーショ ンの画像に第 2 ·のオブジェク トのア メ一 ショ ンの画像を追加した合成アニメ一ショ ンを作成することができる。 それゆえ、 上記方法は、 予め記述された既記述アニメーショ ンの画像に 対してオブジェク トを追加した合成アニメ一ショ ンを簡単な操作で、 か つ、 短時間で作成できるアニメーショ ン作成方法を提供することができ るという効果を奏する。
さ らに、 上記方法では、 第 2のォブジェク トの第 1 のオブジェク トへ の関連内容に応じて第 1 のォブジヱク トの動作を変えることができるの で、 1 つの第 2のオブジェク トを用いて複数のアニメ シヨ ンを作成で きる。 したがって、 上記方法は、 多様なアニメ一ショ ンを容易に作成す ることができるという効果も奏する。
本発明のアニメ一ショ ン作成装置は、 以上のように、 第 1 のォブジヱ ク トを含む予め記述された既記述アニメ一ショ ンの画像に対し、 編集指 示を入力することによって、 予め作成された第 2のォブジヱク トを追加 しだ合成アニメーショ ンを作成するアニメ一ショ ン作成装置であって、 第 1のオブジェク トを選択するオブジェク ト選択部と、 既記述アニメ一 ショ ンの画像を用いて、 第. 1 のォブジェク トが、 選択された第 2のォブ ジヱク トに応じた動作を行う動作アニメーショ ンを生成する動作アニメ ーショ ン生成部と、 動作アニメ一ショ ンと第 2のォブジェク トのアニメ —ショ ンの画像とを合成するアニメーショ ン合成部とを有する構成であ る。 .
これによ り、 ユーザ一が、 第 2·のオブジェク トに応じた第 1 のォブジ ヱク トのアニメーショ ンを探し出したり、 新規に作成する操作を行う こ となく、 既記述ァニメ一ショ ンの画像に第' 2のォブジェク トのアニメ一 ショ ンの画像を追加した合成アニメーショ ンを作成できる。 それゆえ、 上記構成は、 予め記述された既記述アニメーショ ンの画像に対してォブ ジヱク トを追加した合成アニメ一ショ ンを簡単な操作で、 かつ、 短時間 で作成できるアニメーショ ン作成装置を提供することができるという効 果を奏する。
本発明のアニメーショ ン作成プログラムは、 以上のように、 ユーザー によって第 2のォブジヱク トが選択されると、 既記述アニメーショ ンの 画像を用いて、 第 1 のオブジェク トが、 選択された第 2のォブジェク ト に応じた動作を行う動作アニメーショ ンを生成し、 次いで、 動作アニメ ーショ ンと第 2 のォブジヱク トのアニメ一ショ ンの画像とを合成する.構 成である。 また、 本発明のコンピュータ読み取り可能な記録媒体は、 以 上のように、 上記のアニメ一ショ ン作成プログラムを記録している構成 である。 これらにより、.ユーザ一が、 第 2·のォブジェク 卜に応じた第 1 のォブ ジェク トのアニメーショ ンを探し出したり、 新規に作成する操作を行う こ となく 、 既記述アニメーショ ンの画像に第 2 のォブジェク トのアニメ —ショ ンの画像を追加した合成アニメ一ショ ンを作成できる。 それゆえ 、 これらの構成は、 予め記述された既記述アニメーショ ンの画像に対し てオブジェク トを追加した合成アニメーショ ンを簡単な操作で、 かつ、 短時間で作成できるアニメ一ショ ン作成プログラムおよびそれを記録し たコンピュータ読み取り可能な記録媒体を提供することができるという 効果を奏する。

Claims

請 求 の 範 囲
1 - 第 1 のオブジェク トを含む予め記述された既記述アニメ一ショ ン の画像 (こ対し、 編集指示を入力することによって、 予め作成された第 2 のォブジェク トを追加した合成ァ メ一ショ ンを作成するアニメ一ショ ン作成方法であって、
第 2のオブジェク トを選択するステップと、
既記述アニメーショ ンの画像を用いて、 第 1 のオブジェク トが、 選択 された第 2のォブジヱク 卜に応じた動作を行う動作アニメーショ ンを生 成するステツプと、
動作アニメ一シヨ ンと第 2 のォブジ,ェク トのアニメ一シヨ ンの画像と を合成するステツプとを有することを特徴とするアニメ一ショ ン作成方 法。 ·
2 . 第 2のォブジェク 卜のアニメーショ ンの画像と第 i のォブジェク トの動作を制御するための制御情報とを含むォブジュク トデータを複数 種類用意するステツプをざらに有し、
第 2のォプジヱク トを選択するステツプでは、 上記オブジェク トデ一 タの少なく とも 1種類を選択し、
動作アニメ一ショ ンを生成するステツプでは、 上記制御情報に基づい て第 1 のォブジヱク トの動作を制御することを特徴とする請求項 1記載 のアニメーショ ン作成方法。
3 . 既記述アニメ一ショ ンの画像に対し、 第 2のォブジヱク トのァ二 メ一ショ ンの画像をどの位置に追加するかを表す位置情報を入力するス テツプをさ らに含み、 動作アニメ一ショ ンを生成するステツプでは、 上記位置情報によつて 動作アニメ一ショ ンを変更することを特徴とする請求項 1記載のアニメ —ショ ン作成方法。 '
4 . 既記述ァニメーショ ンの画像に対し、 第 2のォブジヱク トのァ二 メ一ショ ンの画像をどの位置に追加するかを表す位置情報を入力するス テツプをさ らに含み、
. 第 1のォブジヱク トを選択するステツプでは、 上記位置情報に応じて 第 2のオブジェク トを変更するごとを特徴とする請求項 1記載のアニメ ーショ ン作成方法。
5 . 第 2のオブジェク トを選択するステップでは'、 複数の異なるォブ ジェク トを第 2のォブジヱク ト として順次選択し、
動作アニメーショ ンを生成するステップでは、 第 2のォブジェク トの 選択順序に基づいて第 1 のオブジェク トの動作を制御することを特徴と する請求項 1記載のアニメーショ ン作成方法。
6 . 動作アニメ一シ ンと第 2のオブジェク トのアニメ一シヨ ンの画 像とを合成した結果を合成アニメーショ ンとして出力するステップをさ らに有していることを特徴とする請求項 1記載のアニメ一ショ ン作成方 法。
7 . 第 2 のォブジヱク トを表すアイコンを表示するステツプをさ らに 含み、
第 2のォブジェク トを選択するステップが、 表示されたティコンを選 択するステップを含むことを特徴とする請求項 1記載のアニメ一ショ ン 作成方法。
8 . 第 2のォブジヱク トを表すアイコンを表示するステツプでは、 既 記述アニメーショ ンの画像に追加可能な第 2 のォブジヱク トを表すアイ コンのみを表示するこ とを特徴とする請求項 7記載のアニメ一ショ ン作 成方法。
9 . 動作アニメーショ ンと第 2のォブジェク トのアニメ一ショ ンの画 像とを合成することによ り得られたアニメーショ ンをアニメーショ ンフ アイルとして出力するステップと、 第 2のォブジェク ト と異なる第 3の ォ.ブジヱク トを選択するステップと、 予め記憶されたアニメーショ ンフ アイルを用いて、 第 1 のオブジェク トが、 選択された第 2のォブジェク トおよび第 3のォブジヱク トに^じた動作を行う第 1 の動作アニメーシ ヨ ンを生成するステップと、 第 2 の動作アニメーショ ンと第 3のォブジ ェク トのアニメ一ショ ンの画像とを合成するステップとをさ らに有する ことを特徴とする請求項 1記載のアニメーショ ン作成方法。
1 0 . 第 2のオブジェク トを入力するステップでは、 第 2のオブジェ ク トのアニメ一シ 3 ンである追加アニメ一ショ ンを入力し、
動作アニメーショ ンと第 2のォブジェク ト とを合成するステップでは
、 動作アニメーシヨ ンと追加アニメーショ ンとを合成することを特徴と する請求項 1記載のアニメ一ショ ン作成方法。
1 1 . 第 1 のオブジェク トを含む予め記述された既記述アニメーショ ンの画像に対し、 編集指示を入力することによって、 予め作成された複 数の第 2 のオブジェク トの少なく とも 1 つを選択的に追加した合成ァニ メーショ ンを作成するアニメ一ショ ン作成方法であつて、
第 2のオブジェク トの少なく とも 1 つを選択して第 1 オブジェク ト に関連付けるステップと、
既記述アニメ一シヨ ンの画像を用いて、 第 1 のォブジヱク 卜が、 選択 された第 2のォブジェク 卜の第 1 のォブジヱク トへの関連内容に応じた 動作を行う動作アニメーショ ンを生成するステップと、
動作アニメーショ ンと第 2のォブジェク トのアニメ一ショ ンの画像と ' を合成するステップとを有することを特徴とするアニメーショ ン作成方 法。
1 2 . 第 2のオブジェク トのアニメーショ ンの画像と第 1 のオブジェ ク トの動作を制御するための制御情報とを含むオブジェク トデ一夕を複 数種類用意するステップをさ らに有し、
第 2のオブジェク トを選択するステツプでは、 上記ォブジヱク トデ一 タの少なく とも 1種類を選択し、
動作アニメーショ ンを生成するステップでは、 上記制御情報に基づい て第 1 のォブジヱグトの動作を制御す'ることを特徴とする請求項 1 1記 載のアニメーショ ン作成方法。
1 3 . 既記述アニメ一ショ ンの画像に対し、 第 2のォブジェク トのァ ニメーショ ンの画像をどの位置に追加するかを表す位置情報を入力する ステップをさ らに含み、
動作アニメ一ショ ンを生成するステツプでは、 上記位置情報によつて 動作アニメーショ ンを変更することを特徴とする請求項 1 1記載のァニ メーショ ン作成方法。
1 4 . 第 1 のオブジェク トを含む予め記述ざれた既記述アニメ一ショ ンの画像に対し、 編集指示を入力することによって、 予め作成ざれた第 2のォブジェク トを追加した合成ァニメーショ ンを作成するアニメーシ ョ ン作成装置であって、
第 2のオブジェク トを選択するオブジェク ト選択部と、 既記述アニメーショ ンの画像を用いて、 第 1 のォブジヱク トが、 選択 された第 2 のオブジェク トに応じた動作を行う動作アニメ一シヨ ンを生 成する動作アニメ一ショ ン生成部と、
動作アニメーショ ンと第 2のオブジェク トのアニメーショ ンの画像と を合成するアニメーショ ン合成部とを有することを特徴とするアニメ一 ショ ン作成装置。
1 5 . 既記述ァニメーシヨ ンの画像に対し、 第 2のオブジェク トのァ ニメ一ショ ンの画像をどの位置に追加するかを表す位置情報を入力する 位置情報入力部をさらに有し、
動作アニメ一ショ ン生成部は、 上記位置情報によって動作アニメ一シ ョ ンを変更することを特徴とする請求項 1 4記載のアニメーショ ン作成
1 6 . 既記述アニメーショ ンの画像に対し、 第 2のオブジェク トのァ ニメーショ ンの画像をどの位置に追加するかを表す位置情報を入力する 位置情報入力部をさ らに有し、
ォブジヱク ト選択部は、 上記位置情報に応じて第 2 のォブジヱク トを 変更することを特徴とする請求項 1 4記載のアニメーショ ン作成装置。
1 7 . ユーザーの編集指示が入力されると、 第 1 のオブジェク トを含 む予め記述された既記述アニメーショ ンの画像に対し、 予め作成された 第 2 のオブジェク トを追加した合成アニメ一ショ ンを作成するアニメ一 ショ ン作成プロ.グラムを記録したコンピュータ読み取り可能な記録媒体 であって、
ュ一ザ一によって第 2のォブジヱク トが選択されると、 既記述アニメ ーショ ンの画像を用いて、 第 1 のォブジェク トが、 選択された第 2のォ ブジェク トに応じた動作を行う動作アニメ一ショ ンを生成し、 次いで、 動作アニメーショ ンと第 2のオブジェク トのアニメーショ ンの画像とを 合成するアニメーショ ン作成プログラムを記録したコンピュー夕読み取 り可能な記録媒体。
1 8 . ユーザーの編集指示が入力されると、 第 1 のォブジヱク トを含 む予め記述された既記述アニメ一ショ ンの画像に対し、 予め作成された 第 2のオブジェク トを追加した合成アニメーショ ンを作成するアニメ一 ショ ン作成プログラムであつて、
ユーザーによって第 2のオブジェク トが選択されると、 既記述アニメ —シヨ ンの画像を用いて、 第 1 のオブジェク トが、 選択された第 2のォ ブジェク トに応じた動作を行う動作アニメ一ショ ンを生成し、 次いで、 動作アニメーショ ンと第 2のォブジヱク トのアニメーショ ンの画像とを 合成するこ とを特徴とするアニメーショ ン作成プログラム。
PCT/JP2001/004472 2000-05-30 2001-05-28 Procede et dispositif pour la production d'animation, et support enregistre comportant un programme enregistre WO2001093207A1 (fr)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US10/296,713 US7095413B2 (en) 2000-05-30 2001-05-28 Animation producing method and device, and recorded medium on which program is recorded
AU2001260634A AU2001260634A1 (en) 2000-05-30 2001-05-28 Animation producing method and device, and recorded medium on which program is recorded
EP01934380A EP1296289A4 (en) 2000-05-30 2001-05-28 METHOD AND DEVICE FOR THE PRODUCTION OF ANIMATION, AND RECORDED MEDIUM HAVING A RECORDED PROGRAM

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2000-161041 2000-05-30
JP2000161041A JP3539553B2 (ja) 2000-05-30 2000-05-30 アニメーション作成方法及びアニメーション作成装置並びにアニメーション作成プログラムを記録したコンピュータ読み取り可能な記録媒体

Publications (1)

Publication Number Publication Date
WO2001093207A1 true WO2001093207A1 (fr) 2001-12-06

Family

ID=18665143

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2001/004472 WO2001093207A1 (fr) 2000-05-30 2001-05-28 Procede et dispositif pour la production d'animation, et support enregistre comportant un programme enregistre

Country Status (5)

Country Link
US (1) US7095413B2 (ja)
EP (1) EP1296289A4 (ja)
JP (1) JP3539553B2 (ja)
AU (1) AU2001260634A1 (ja)
WO (1) WO2001093207A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109598775A (zh) * 2017-09-30 2019-04-09 腾讯科技(深圳)有限公司 一种动态图像合成方法、装置、终端和存储介质

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2002350937A1 (en) * 2001-12-11 2003-06-23 Superscape Group plc. Method and apparatus for image construction and animation
US7663628B2 (en) * 2002-01-22 2010-02-16 Gizmoz Israel 2002 Ltd. Apparatus and method for efficient animation of believable speaking 3D characters in real time
GB2391147A (en) * 2002-07-19 2004-01-28 Kaydara Inc Generating animation data simply via display
US7231611B2 (en) * 2002-12-18 2007-06-12 International Business Machines Corporation Apparatus and method for dynamically building a context sensitive composite icon
US20040119757A1 (en) * 2002-12-18 2004-06-24 International Buisness Machines Corporation Apparatus and method for dynamically building a context sensitive composite icon with active icon components
KR100678120B1 (ko) * 2004-11-01 2007-02-02 삼성전자주식회사 이동통신 단말기에서 3d 애니메이션 파일을 제공하기 위한 장치 및 방법
US20060244762A1 (en) * 2005-04-28 2006-11-02 Semiconductor Energy Laboratory Co., Ltd. Image editing method
JP2006331400A (ja) * 2005-04-28 2006-12-07 Semiconductor Energy Lab Co Ltd 画像編集方法
US7509588B2 (en) 2005-12-30 2009-03-24 Apple Inc. Portable electronic device with interface reconfiguration mode
US10313505B2 (en) 2006-09-06 2019-06-04 Apple Inc. Portable multifunction device, method, and graphical user interface for configuring and displaying widgets
US20080071831A1 (en) * 2006-09-14 2008-03-20 Reddy Venkateshwara N Creating animation based on a keyword search
US8519964B2 (en) 2007-01-07 2013-08-27 Apple Inc. Portable multifunction device, method, and graphical user interface supporting user navigations of graphical objects on a touch screen display
US9772751B2 (en) 2007-06-29 2017-09-26 Apple Inc. Using gestures to slide between user interfaces
US8619038B2 (en) 2007-09-04 2013-12-31 Apple Inc. Editing interface
US11126321B2 (en) 2007-09-04 2021-09-21 Apple Inc. Application menu user interface
US9619143B2 (en) 2008-01-06 2017-04-11 Apple Inc. Device, method, and graphical user interface for viewing application launch icons
US20100080489A1 (en) * 2008-09-30 2010-04-01 Microsoft Corporation Hybrid Interface for Interactively Registering Images to Digital Models
US20100207950A1 (en) * 2009-02-17 2010-08-19 Microsoft Corporation Defining simple and complex animations
US8988437B2 (en) 2009-03-20 2015-03-24 Microsoft Technology Licensing, Llc Chaining animations
KR101640458B1 (ko) * 2009-06-25 2016-07-18 삼성전자주식회사 영상 장치 및 컴퓨터 판독 기록매체
JP5598232B2 (ja) * 2010-10-04 2014-10-01 ソニー株式会社 情報処理装置、情報処理システムおよび情報処理方法
US9244606B2 (en) 2010-12-20 2016-01-26 Apple Inc. Device, method, and graphical user interface for navigation of concurrently open software applications
US20130091428A1 (en) * 2011-10-07 2013-04-11 Research In Motion Limited User interface apparatus, and associated method, for media playback device
US9067135B2 (en) * 2013-10-07 2015-06-30 Voyetra Turtle Beach, Inc. Method and system for dynamic control of game audio based on audio analysis
DE102014225557A1 (de) * 2014-12-11 2016-06-16 Heidelberger Druckmaschinen Ag Verfahren zur Erzeugung von lauffähigen Applikationen mit dynamischen skalierbaren Vektorgrafiken
US11016643B2 (en) 2019-04-15 2021-05-25 Apple Inc. Movement of user interface object with user-specified content
CN110443871A (zh) * 2019-07-22 2019-11-12 北京达佳互联信息技术有限公司 动画合成方法、装置、电子设备及存储介质
CN114443719A (zh) * 2022-01-29 2022-05-06 上海哔哩哔哩科技有限公司 动画处理方法及装置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000113206A (ja) * 1998-10-08 2000-04-21 Konami Co Ltd キャラクター表現方法、記録媒体、画像表示装置、及びビデオゲーム装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6008818A (en) * 1988-01-29 1999-12-28 Hitachi Ltd. Method and apparatus for producing animation image
JPH0520425A (ja) 1991-07-09 1993-01-29 Fujitsu Ltd アニメーシヨン作成方法とその装置
US5715416A (en) * 1994-09-30 1998-02-03 Baker; Michelle User definable pictorial interface for a accessing information in an electronic file system
US6232965B1 (en) * 1994-11-30 2001-05-15 California Institute Of Technology Method and apparatus for synthesizing realistic animations of a human speaking using a computer
JPH08263681A (ja) 1995-03-22 1996-10-11 Matsushita Electric Ind Co Ltd アニメーション作成装置およびその方法
US5818461A (en) * 1995-12-01 1998-10-06 Lucas Digital, Ltd. Method and apparatus for creating lifelike digital representations of computer animated objects
JPH10261105A (ja) 1997-03-17 1998-09-29 Nec Corp インタラクティブアニメーション作成方法およびその装置
US6011562A (en) * 1997-08-01 2000-01-04 Avid Technology Inc. Method and system employing an NLE to create and modify 3D animations by mixing and compositing animation data
JP4099273B2 (ja) 1998-09-25 2008-06-11 富士通株式会社 アニメーション作成装置及び方法並びにアニメーション作成プログラムを記録したコンピュータ読取り可能な記録媒体

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000113206A (ja) * 1998-10-08 2000-04-21 Konami Co Ltd キャラクター表現方法、記録媒体、画像表示装置、及びビデオゲーム装置

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
MICHO MIWA ET AL.: "Jinkou genjitsukanyou shell PLOTS no kaihatsu", JOHO SHORI GAKKAI KENKYU HOUKOKU, vol. 92, no. 31, May 1992 (1992-05-01), pages 79 - 86, XP002952480 *
See also references of EP1296289A4 *
TAKEFUMI MAKINO: "aquazone", KABUSHIKI KAISHA MAINICHI COMMUNICATIONS, 24 December 1994 (1994-12-24), JAPAN, pages 38 - 52, XP002952479 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109598775A (zh) * 2017-09-30 2019-04-09 腾讯科技(深圳)有限公司 一种动态图像合成方法、装置、终端和存储介质
US11308674B2 (en) 2017-09-30 2022-04-19 Tencent Technology (Shenzhen) Company Limited Dynamic image compositing method and apparatus, terminal and storage medium

Also Published As

Publication number Publication date
US7095413B2 (en) 2006-08-22
EP1296289A1 (en) 2003-03-26
US20030132938A1 (en) 2003-07-17
AU2001260634A1 (en) 2001-12-11
JP3539553B2 (ja) 2004-07-07
JP2001344612A (ja) 2001-12-14
EP1296289A4 (en) 2008-12-31

Similar Documents

Publication Publication Date Title
WO2001093207A1 (fr) Procede et dispositif pour la production d'animation, et support enregistre comportant un programme enregistre
JP4204636B2 (ja) 非線形編集環境において3dアニメーションを編集または修正するための方法およびシステム
US9984724B2 (en) System, apparatus and method for formatting a manuscript automatically
US7006098B2 (en) Method and apparatus for creating personal autonomous avatars
US6011562A (en) Method and system employing an NLE to create and modify 3D animations by mixing and compositing animation data
US5999195A (en) Automatic generation of transitions between motion cycles in an animation
EP0564247A1 (en) Method and apparatus for video editing
KR100960504B1 (ko) 감성표현이 적용된 디지털 스토리보드 생성 방법 및 시스템
US20040189647A1 (en) Interactive behavioral authoring of deterministic animation
JP5043746B2 (ja) 画像再生装置、画像再生方法および画像再生用プログラム
WO2008023819A1 (fr) Système informatique et procédé de commande d'opération
US8773441B2 (en) System and method for conforming an animated camera to an editorial cut
JPH1166346A (ja) アニメーション作成装置および記録媒体
JP3523784B2 (ja) 対話型画像操作表示装置および方法並びにプログラム格納媒体
JP2004013486A (ja) 番組制作装置及び番組制作方法
JP2001195604A (ja) 動画像情報の編集方法
JP3449977B2 (ja) 映像データ編集方法
KR20070089503A (ko) 3차원 영상 제작을 위한 전이 동작 삽입 방법
WO2003050746A1 (fr) Processeur de donnees multimedia
JP2004062615A (ja) 番組制作方法
JP2003173455A (ja) 番組編集方法

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AU BR CA CN IN KR NO US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE TR

DFPE Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed before 20040101)
121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2001934380

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 10296713

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 2001934380

Country of ref document: EP