JP2010092402A - Simple animation creation apparatus - Google Patents

Simple animation creation apparatus Download PDF

Info

Publication number
JP2010092402A
JP2010092402A JP2008263870A JP2008263870A JP2010092402A JP 2010092402 A JP2010092402 A JP 2010092402A JP 2008263870 A JP2008263870 A JP 2008263870A JP 2008263870 A JP2008263870 A JP 2008263870A JP 2010092402 A JP2010092402 A JP 2010092402A
Authority
JP
Japan
Prior art keywords
character
animation
motion
camera
stage
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008263870A
Other languages
Japanese (ja)
Other versions
JP4989605B2 (en
Inventor
Yasuhito Watanabe
泰仁 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Square Enix Co Ltd
Original Assignee
Square Enix Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Square Enix Co Ltd filed Critical Square Enix Co Ltd
Priority to JP2008263870A priority Critical patent/JP4989605B2/en
Publication of JP2010092402A publication Critical patent/JP2010092402A/en
Application granted granted Critical
Publication of JP4989605B2 publication Critical patent/JP4989605B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a simple animation creation apparatus for easily creating a real time CG animation. <P>SOLUTION: The simple animation creation apparatus is provided with: a means for displaying a character to be arranged on a stage to be selectable; a means for arranging the selected character on the stage; a means for making motion commands to be selectable for commanding to a character; a means for creating a schedule by storing the motion commands which are selected by a user in the order of execution; and a means for obtaining animation data by making the character act based on the motion commands indicated by the schedule. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、三次元仮想空間に配置されたキャラクタを用いて簡単にリアルタイムのGCアニメーションを作成することのできる、簡易アニメーション作成装置に関する。     The present invention relates to a simple animation creation device that can easily create a real-time GC animation using characters arranged in a three-dimensional virtual space.

従来、この種のアニメーション作成装置は、いずれも所謂プロ用であって、職業的にアニメーション作成する者を対象としたものであった。こうしたアニメーション作成装置としては、例えば、特許文献1に示すものが知られている。
特開平10−302085
Conventionally, all of these types of animation creating apparatuses are so-called professionals, and are intended for professionally creating animations. As such an animation creation device, for example, the one shown in Patent Document 1 is known.
JP 10-302085 A

しかし、こうした装置では、きめの細かなアニメーションを作成することが出来るものの、極めて高価であり、その操作に三次元仮想空間やレンダリングに関する専門的な知識を必要とし、そうした知識がない一般的な人々、特に年少者などが遊びとして使用するには、全く不適当なものであった。     However, these devices can create detailed animations, but they are extremely expensive and require specialized knowledge about 3D virtual space and rendering to operate them. In particular, it was totally unsuitable for use by young people as play.

最近、一般のゲームプレイヤの間では、自分の気に入ったキャラクタを用いて、自分のイメージにあったCG(コンピュータ グラフィック)アニメーションを作成してみたいといった要望が顕在化してきている。しかし、CGアニメーションの知識のほとんど無い人間が、リアルで生き生きとしたなCGアニメーションを作るには、操作が簡単であることが必須要件であり、簡単な操作で、三次元仮想空間にポリゴンからなるキャラクタをオブジェクトとして配置し、それらをリアルタイムに動作させ、それをレンダリングすることでアニメーションを作成することの出来る、簡易アニメーション作成装置の開発が必要であった。     Recently, there has been a growing demand among general game players to create a CG (computer graphic) animation that matches their own image using their favorite character. However, in order for a person with little knowledge of CG animation to create a realistic and lively CG animation, it is essential to be easy to operate. It was necessary to develop a simple animation creation device that can create an animation by placing characters as objects, moving them in real time, and rendering them.

そこで、本発明は、三次元仮想空間に配置されたキャラクタに対して行なわせたい振りを順次指定し、また、レンダリングするカメラを編集画面上で指定し、操作するだけで、簡単にリアルタイムCGアニメーションを作成することができる、簡易アニメーション作成装置を提供することを目的とするものである。   Therefore, the present invention can easily specify real-time CG animation by simply specifying a swing to be performed on a character placed in a three-dimensional virtual space, and specifying and operating a camera to be rendered on an editing screen. It is an object of the present invention to provide a simple animation creating apparatus capable of creating

請求項1の発明は、3次元仮想空間(VS)内に設置されたステージ(22)上にャラクタ(25)をオブジェクトとして配置し、当該キャラクタのオブジェクトを所定の振りで動作させると共にそれらステージ及びキャラクタを仮想カメラ(26)でレンダリングすることで、リアルタイムにアニメーションを作成することの出来る、簡易アニメーション作成装置(1)において、
前記3次元仮想空間をメモリ内に生成する3Dステージ設定部(7)、
前記ステージに配置することの出来る前記キャラクタのキャラクタ生成データを格納するキャラクタデータメモリ(9)、
前記ステージ上に配置すべきキャラクタを、ユーザが入力手段(5)を介して選択可能に表示手段(6)上に表示する選択キャラクタ表示手段(7)、
前記ユーザが選択した前記キャラクタ(25A。25B、……)を、前記ステージ(22)上に配置するキャラクタ配置手段(7)、
前記キャラクタに対して指令することの出来る振りを複数種類、モーションコマンド(MC)として格納すると共に、前記各モーションコマンドに対応したモーションプログラム(MPR)を、前記各キャラクタに前記モーションプログラムに対応する振りを実行可能な形に格納したモーションプログラムメモリ(13)、
前記キャラクタに対して指令することの出来る前記モーションコマンド(MC)を、前記モーションプログラムメモリ(13)から読み出し、前記ユーザが選択した前記キャラクタ(25A。25B、……)と共に、前記表示手段(6)上に、ユーザが選択可能な形で表示する、モーションコマンド表示手段(16)、
前記ユーザが前記各キャラクタについて選択した複数の前記モーションコマンド(MC)を、その実行時間と共にメモリに格納してアニメーションスケジュール(ASH)を作成する、モーション編集手段(16)、
前記作成されたアニメーションスケジュール(ASH)に示されたモーションコマンドに基づいて、前記ユーザの前記入力手段(5)を介した指令に基づき、前記ステージ上のキャラクタを動作させるキャラクタ動作手段(19)、及び、
前記ステージ(22)上のキャラクタ(25)の動作を前記仮想カメラ(26)を介してリアルタイムにレンダリングしてアニメーションデータ(ANM.RTAとして完成アニメーションメモリ(21)に格納するアニメーション作成手段(19)、
を有することを特徴としえ構成される。
According to the first aspect of the present invention, the character (25) is arranged as an object on the stage (22) installed in the three-dimensional virtual space (VS), the object of the character is moved with a predetermined swing, and the stage and In a simple animation creation device (1) that can create an animation in real time by rendering a character with a virtual camera (26),
A 3D stage setting unit (7) for generating the three-dimensional virtual space in a memory;
A character data memory (9) for storing character generation data of the character that can be placed on the stage;
Selected character display means (7) for displaying a character to be placed on the stage on the display means (6) so that the user can select it via the input means (5),
Character placement means (7) for placing the character (25A, 25B,...) Selected by the user on the stage (22),
A plurality of types of swing that can be commanded to the character are stored as motion commands (MC), and a motion program (MPR) corresponding to each motion command is stored in each character corresponding to the motion program. Motion program memory (13) stored in an executable form,
The motion command (MC) that can be commanded to the character is read from the motion program memory (13), and together with the character (25A, 25B,...) Selected by the user, the display means (6 ) Motion command display means (16) for display on the user selectable form,
A motion editing means (16) for creating an animation schedule (ASH) by storing the plurality of motion commands (MC) selected by the user for each character in a memory together with the execution time;
Character operation means (19) for operating a character on the stage based on a command through the input means (5) of the user based on a motion command indicated in the created animation schedule (ASH). as well as,
Animation creating means (19) for rendering the motion of the character (25) on the stage (22) in real time via the virtual camera (26) and storing it in the animation data (ANM.RTA as a completed animation memory (21)) ,
It is characterized by having.

また、請求項2の発明は、前記アニメーション作成手段(19)は、前記アニメーションデータを、2次元アニメーションデータ(ANM)として格納している、ことを特徴として構成される。     The invention of claim 2 is characterized in that the animation creating means (19) stores the animation data as two-dimensional animation data (ANM).

請求項3の発明は、前記アニメーション作成手段(19)は、前記レンダリングを行なった際の、前記3次元仮想空間(VS)内の前記キャラクタ(25)を含む全てのオブジェクト及び前記仮想カメラ(26)に関する3次元データを、リアルタイムアニメーションデータ(RTA)として格納している、ことを特徴として構成される。     According to a third aspect of the present invention, the animation creating means (19) includes all the objects including the character (25) in the three-dimensional virtual space (VS) and the virtual camera (26) when the rendering is performed. ) Is stored as real-time animation data (RTA).

また、請求項4の発明は、前記簡易アニメーション作成装置は、更に、
前記3次元仮想空間(VC)内に複数台の前記仮想カメラ(26A,26B……)を設定する仮想カメラ設定手段(10)、
前記ユーザの前記入力手段(5)を介した指示に基づき、前記レンダリングに使用する前記仮想カメラ(26A、26B……)を選定し及びその使用タイミングを決定する、カメラ制御手段(10)、
前記レンダリングに際した前記仮想カメラの選択状態及び使用タイミングを示すカメラスケジュール(SCH4)を生成する、カメラスケジュール生成手段(19)を有し、
前記アニメーション作成手段(19)は、前記生成されたカメラスケジュール(SCH4)に基づいて、前記仮想カメラ(26)を選択、使用してレンダリングを行なうことを特徴として構成される。
In the invention of claim 4, the simple animation creating device further comprises:
Virtual camera setting means (10) for setting a plurality of virtual cameras (26A, 26B,...) In the three-dimensional virtual space (VC);
Camera control means (10) for selecting the virtual cameras (26A, 26B...) To be used for the rendering and determining the use timing based on an instruction from the user via the input means (5);
Camera schedule generation means (19) for generating a camera schedule (SCH4) indicating a selection state and use timing of the virtual camera at the time of the rendering;
The animation creating means (19) is configured to perform rendering by selecting and using the virtual camera (26) based on the generated camera schedule (SCH4).

請求項5の発明は、前記モーションプログラムメモリ(13)は、前記各モーションコマンド(MC)に対応した振りを示すモーションアニメーションデータを、前記各キャラクタ(25A,25B、……)毎に格納しており、
更に前記簡易アニメーション作成装置は、
前記ユーザが選択した前記キャラクタについてのモーションコマンドに対応した前記モーションアニメーションデータを読み出して、前記表示手段(6)に表示する、モーションアニメーション表示手段(16)を有する、
ことを特徴として構成される。
In the invention of claim 5, the motion program memory (13) stores motion animation data indicating a swing corresponding to each motion command (MC) for each character (25A, 25B,...). And
Furthermore, the simple animation creation device includes:
A motion animation display means (16) for reading out the motion animation data corresponding to a motion command for the character selected by the user and displaying the data on the display means (6);
It is configured as a feature.

請求項1の発明によれば、ユーザは、アニメーションを作成したいキャラクタ(25A,25B……)を表示手段(6)上で選択し、更に、当該キャラクタに振り付けるべき振りを順次、モーションコマンドを選択してゆくことで指定してゆくことだけで、アニメーションスケジュール(ASH)が作成され、当該アニメーションスケジュール(ASH)に基づいて、アニメーションデータが取得され、簡単にアニメーションを作成することが出来る。     According to the first aspect of the present invention, the user selects the character (25A, 25B...) On which the animation is to be created on the display means (6), and further, the motion command is sequentially transmitted to the character to be choreographed. An animation schedule (ASH) is created simply by selecting and specifying, and animation data is acquired based on the animation schedule (ASH), and an animation can be created easily.

また、請求項2の発明によれば、簡単に2次元アニメーションデータを得ることが出来る。     According to the invention of claim 2, two-dimensional animation data can be easily obtained.

また、請求項3の発明によれば、リアルタイムアニメーションデータを得ることで、当該リアルタイムアニメーションデータから、多様な2次元アニメーションデータを、仮想カメラ位置などを変更しながら得ることが出来る。従って、ユーザによるアニメーションの修正などを、容易に行なうことが出来る。     According to the invention of claim 3, by obtaining real-time animation data, various two-dimensional animation data can be obtained from the real-time animation data while changing the virtual camera position and the like. Therefore, the animation can be easily corrected by the user.

請求項4の発明によれば、レンダリングに際した、仮想カメラの選定、その使用タイミングが、カメラスケジュールにより簡単に設定することが出来るので、高度なカメラワークを有するアニメーションデータの取得が容易となる。     According to the invention of claim 4, since the selection of the virtual camera and the use timing thereof can be easily set by the camera schedule at the time of rendering, it is easy to obtain animation data having advanced camera work.

請求項5の発明によれば、モーションコマンドの選択に当り、自分が選択したキャラクタの当該モーションコマンドに対応する振りを、アニメーションとして見ることが出来るので、各キャラクタに対するモーションコマンドの指定を、正確かつ容易に行なうことが出来る。     According to the invention of claim 5, since the motion corresponding to the motion command of the character selected by the user can be viewed as an animation when selecting the motion command, the motion command for each character can be specified accurately and accurately. It can be done easily.

なお、括弧内の番号等は、図面における対応する要素を示す便宜的なものであり、従って、本記述は図面上の記載に限定拘束されるものではない。     Note that the numbers in parentheses are for the sake of convenience indicating the corresponding elements in the drawings, and therefore the present description is not limited to the descriptions on the drawings.

以下、図面に基づき、本発明の実施例を説明する。     Embodiments of the present invention will be described below with reference to the drawings.

図1は、本発明が適用される簡易アニメーション作成装置の一例を示すブロック図、図2は、三元仮想空間内のステージの一例を示す斜視図、図3は、ディスプレイに表示される操作画面の一例を示す図、図4は、キャラクタへのモーション指令画面の一例を示す図、図5は、別のキャラクタへのモーション指令画面の一例を示す図、図6は、モーションプログラムテーブルの一例を示す図、図7は、アニメーションスケジュールの一例を示す図である。   FIG. 1 is a block diagram showing an example of a simple animation creating apparatus to which the present invention is applied, FIG. 2 is a perspective view showing an example of a stage in a ternary virtual space, and FIG. 3 is an operation screen displayed on a display. 4 is a diagram showing an example of a motion command screen for a character, FIG. 5 is a diagram showing an example of a motion command screen for another character, and FIG. 6 is an example of a motion program table. FIG. 7 and FIG. 7 are diagrams showing an example of the animation schedule.

図1はコンピュータから構成される簡易アニメーション作成装置を示している。簡易アニメーション作成装置1は、主制御部2を有しており、主制御部2にはバス線3を介して、入力部5,液晶ディスプレイなどの表示部6、3Dステージ設定部7,キャラクタデータメモリ9,カメラ制御部10,3Dステージメモリ11,レンダリング制御部12,モーションプログラムメモリ13、アニメーションスケジュールメモリ15、キャラクタ動作制御部16,入出力制御部17,アニメーション作成制御部19,カメラ操作メモリ20及び完成アニメーションメモリ21などを有している。     FIG. 1 shows a simple animation creating apparatus composed of a computer. The simple animation creating apparatus 1 has a main control unit 2, and the main control unit 2 is connected to a display unit 6 such as a liquid crystal display, a 3D stage setting unit 7, and character data via a bus line 3. Memory 9, camera control unit 10, 3D stage memory 11, rendering control unit 12, motion program memory 13, animation schedule memory 15, character motion control unit 16, input / output control unit 17, animation creation control unit 19, camera operation memory 20 And a completed animation memory 21.

図1に示すアニメーション作成装置1は、実際にはコンピュータが、図示しないハードディスク等のメモリ手段に格納された所定のアニメーション作成プログラムを読み出して、実行することで、図示しないCPUやメモリが、マルチタスクにより時分割的に動作し、図1に示す各ブロックに示された機能を実行してゆくこととなる。しかし、アニメーション作成装置1を、各ブロックに対応したハードウエアで構成することも可能であり、また各ブロックを各ブロックに分散的に設けられたCPU又はMPUにより制御するように構成することも可能である。     In the animation creating apparatus 1 shown in FIG. 1, a computer actually reads and executes a predetermined animation creating program stored in a memory means such as a hard disk (not shown) so that a CPU and a memory (not shown) Thus, the operation is performed in a time-sharing manner, and the functions shown in each block shown in FIG. 1 are executed. However, it is also possible to configure the animation creation device 1 with hardware corresponding to each block, and it is also possible to configure each block to be controlled by a CPU or MPU provided in a distributed manner in each block. It is.

簡易アニメーション作成装置1は、以上のような構成を有するので、リアルタイムCGアニメーションを作成する際には、ユーザは入力手段である入力部5を介して主制御部2に対してステージ生成指令STCを出力する。これを受けて、主制御部2は、3Dステージ設定部7に対してCGアニメーションを作成する際のステージを3次元仮想空間内に生成するように指令する。これを受けて、3Dステージ設定部7は、図2に示すように、3Dステージメモリ11内に適宜な大きさの三次元仮想空間VSを生成すると共に、3Dステージ設定部7の適宜なメモリに格納された一つ以上の背景オブジェクト23を読み出して、該生成された三次元仮想空間VS内の所定の座標位置に配置して、ステージ22を生成する。     Since the simple animation creating apparatus 1 has the above-described configuration, when creating a real-time CG animation, the user issues a stage generation command STC to the main control unit 2 via the input unit 5 which is an input means. Output. In response to this, the main control unit 2 instructs the 3D stage setting unit 7 to generate a stage for creating a CG animation in the three-dimensional virtual space. In response to this, the 3D stage setting unit 7 generates a three-dimensional virtual space VS of an appropriate size in the 3D stage memory 11 as shown in FIG. One or more stored background objects 23 are read out, arranged at predetermined coordinate positions in the generated three-dimensional virtual space VS, and the stage 22 is generated.

なお、ステージ22を構成するオブジェクトを、複数、図示しないメモリに用意しておき、ステージ22を生成する際に、3Dステージ設定部7がそれらオブジェクトを表示部6を介して、ユーザが選択可能に提示するように構成することも出来る。この場合、ユーザは、表示部6に表示されたステージ22を構成することの出来るオブジェクト23の中から、自分がこれから作成したいCGアニメーションに使用したいオブジェクトを入力部5を介して選択する。すると、3Dステージ設定部7は、ユーザに選択されたオブジェクト23を、図2に示すように、3Dステージメモリ11内の三次元仮想空間VSの所定の座標位置に配置して、ステージ22を生成する。なお、各オブジェクト23には、当該オブジェクト23を配置すべき三次元仮想空間VS内の座標位置が属性データとして登録されているので、ステージ22の生成は円滑に行なうことが出来る。     A plurality of objects constituting the stage 22 are prepared in a memory (not shown), and when the stage 22 is generated, the 3D stage setting unit 7 can select these objects via the display unit 6 by the user. It can also be configured to present. In this case, the user selects an object to be used for a CG animation that he / she wants to create from the input unit 5 among the objects 23 that can constitute the stage 22 displayed on the display unit 6. Then, the 3D stage setting unit 7 generates the stage 22 by arranging the object 23 selected by the user at a predetermined coordinate position in the three-dimensional virtual space VS in the 3D stage memory 11 as shown in FIG. To do. In addition, since the coordinate position in the three-dimensional virtual space VS where the object 23 should be arranged is registered as attribute data for each object 23, the stage 22 can be generated smoothly.

ステージ22が三次元仮想空間VS内に、図2に示すように設定されたところで、主制御部2はレンダリング制御部12及びカメラ制御部10に対して、設定されたステージ22をカメラを用いてレンダリングするように指令する。三次元仮想空間VSには、図2に示すように、カメラ制御部10により、複数台の仮想カメラ26A、26B、……(各仮想カメラについて、それらを区別する必要がある場合には、仮想カメラ26A、仮想カメラ26B……と表示し、仮想カメラを区別する必要がない場合には、仮想カメラ26と表示する)が予め設定されており(カメラ設定手段)、それらの仮想カメラ26の位置及びレンダリング画像の拡大縮小、更にはカメラ動作のONN/OFFはユーザが入力部5を介して後述するカメラ制御部10に対して自由に指令することが出来る。なお、ステージ22が生成された時点は、カメラ26の三次元仮想空間VS内での位置はカメラ制御部10により予め決められた初期位置に固定されている。レンダリング制御部12及びカメラ制御部10は、カメラ26Aを用いて、ステージ22の全体をレンダリングしてステージ22の2次元画像を生成し、表示部6に、図3に示すように、当該生成されたステージ22の2次元画像PCとして表示する。     When the stage 22 is set in the three-dimensional virtual space VS as shown in FIG. 2, the main control unit 2 uses the camera to set the set stage 22 to the rendering control unit 12 and the camera control unit 10. Command to render. In the three-dimensional virtual space VS, as shown in FIG. 2, the camera control unit 10 uses a plurality of virtual cameras 26A, 26B,. The camera 26A, the virtual camera 26B,... Are displayed, and when there is no need to distinguish between the virtual cameras, the virtual camera 26 is displayed) (camera setting means). In addition, the user can freely instruct the camera control unit 10 (to be described later) via the input unit 5 to enlarge / reduce the rendering image and to turn ON / OFF the camera operation. Note that when the stage 22 is generated, the position of the camera 26 in the three-dimensional virtual space VS is fixed to an initial position determined in advance by the camera control unit 10. The rendering control unit 12 and the camera control unit 10 use the camera 26A to generate the two-dimensional image of the stage 22 by rendering the entire stage 22, and the display unit 6 generates the two-dimensional image as shown in FIG. The two-dimensional image PC of the stage 22 is displayed.

次に、主制御部2は、3Dステージ設定部7に対して、CGアニメーションに使用するキャラクタをユーザに指定させるように指令する。これを受けて3Dステージ設定部7は、キャラクタデータメモリ9からCGアニメーションの作成に使用することの出来る複数のキャラクタのキャラクタデータを読み出し、表示部6にユーザが選択可能な形で表示する(選択キャラクタ表示手段)。キャラクタデータメモリ9には、CGアニメーションの作成に使用することの出来るキャラクタが、当該キャラクタを構成するポリゴンモデルデータや当該キャラクタに対するテクスチャーマッピングデータなどのキャラクタ生成データCGDとして格納されており、ユーザがCGアニメーションの作成に使用したいキャラクタを表示部6上に表示されたキャラクタの中から入力部5を介して選択することで、3Dステージ設定部7は、図2に示すように、選択されたキャラクタ25のポリゴンモデルからなるオブジェクトを三次元仮想空間VS内のステージ22上に配置することが出来る(キャラクタ配置手段)。ユーザが選択したキャラクタ25をステージ22上のどの座標位置に配置するかは、ユーザが入力部5を介して任意に設定することが出来る。なお、キャラクタ25のステージ22上での配置位置は、ユーザが指定する他に、3Dステージ設定部7がランダムに、または予め設定された座標位置に配置するように構成することも出来る。     Next, the main control unit 2 instructs the 3D stage setting unit 7 to let the user specify a character to be used for CG animation. In response to this, the 3D stage setting unit 7 reads out the character data of a plurality of characters that can be used to create a CG animation from the character data memory 9 and displays it on the display unit 6 in a form that the user can select (selection). Character display means). The character data memory 9 stores characters that can be used to create a CG animation as character generation data CGD such as polygon model data constituting the character and texture mapping data for the character. By selecting the character to be used for creating the animation from the characters displayed on the display unit 6 via the input unit 5, the 3D stage setting unit 7 selects the selected character 25 as shown in FIG. Can be placed on the stage 22 in the three-dimensional virtual space VS (character placement means). The coordinate position on the stage 22 on which the character 25 selected by the user is arranged can be arbitrarily set by the user via the input unit 5. Note that the position of the character 25 on the stage 22 can be specified by the user, or the 3D stage setting unit 7 can be arranged at random or at a preset coordinate position.

例えば、ユーザが選択できるキャラクタ25は、図4及び図5に示すように、複数の異なる容姿、服装をしたキャラクタ25A、25B、……(各キャラクタについて、それらを区別する必要がある場合には、キャラクタ25A、キャラクタ25B……と表示し、キャラクタを区別する必要がない場合には、キャラクタ25と表示する)であり、それらキャラクタ25A、25Bは、例えば図4及び図5に示すように、その全身像がキャラクタ名NAMと共に表示部6に、ユーザが入力部5を介して選択可能に表示される。     For example, as shown in FIGS. 4 and 5, the character 25 that can be selected by the user is a plurality of different appearances, dressed characters 25A, 25B,... (If each character needs to be distinguished. , Character 25A, character 25B..., And when there is no need to distinguish the characters, they are displayed as character 25). These characters 25A, 25B are, for example, as shown in FIGS. The whole body image is displayed on the display unit 6 together with the character name NAM so that the user can select it via the input unit 5.

ユーザによりCGアニメーションに使用するキャラクタ25が選択され、ステージ22上に配置されると、当該配置されたキャラクタ25を、レンダリング制御部12およびカメラ制御部10がレンダリングして、図3に示すように、ステージ22及び該ステージ22上に配置されたキャラクタ25の2次元画像PCを生成して表示部6に表示する。これにより、表示部6には、図3に示すように、CGアニメーションに登場するステージ22及びキャラクタ25が、2次元画像PCとして表示される。この際、レンダリング制御部12は、2次元画像PC上に、CGアニメーションを作成する際に、各カメラ26によりCGアニメーションとして録画される範囲を示すフレーム27を表示させる。また、同時に、図3に示すように、ステージ22及びキャラクタ25の2次元画像PCが表示された領域の図中下方の領域に、モーション指定タイムチャートMDTを表示させる。     When the character 25 used for the CG animation is selected by the user and placed on the stage 22, the rendering control unit 12 and the camera control unit 10 render the placed character 25, as shown in FIG. The two-dimensional image PC of the stage 22 and the character 25 arranged on the stage 22 is generated and displayed on the display unit 6. Thereby, the stage 22 and the character 25 appearing in the CG animation are displayed on the display unit 6 as a two-dimensional image PC as shown in FIG. At this time, the rendering control unit 12 displays a frame 27 indicating a range recorded as a CG animation by each camera 26 when creating a CG animation on the two-dimensional image PC. At the same time, as shown in FIG. 3, the motion designation time chart MDT is displayed in the lower area in the figure of the area where the two-dimensional image PC of the stage 22 and the character 25 is displayed.

モーション指定タイムチャートMDTは、後述するアニメーションスケジュールメモリ15に格納されたアニメーションスケジュールASHに対応して、キャラクタ動作制御部16により生成されるものであり、上部に時間の経過を示す時間軸TXが図3左右方向に伸延する形で設定されており、時間軸TXは、CGアニメーションの経過時間を示す。時間軸TXの下方には、当該時間軸TXで定義されるCGアニメーションの時間経過における、カメラ26の選択状態を示すカメラ選択軸CCXが同様に左右方向に設定され、更にカメラ選択軸CCXの下方には、時間軸TXで定義されるCGアニメーションの時間経過における、キャラクタ25のモーションコマンドを定義するキャラクタ動作軸CMXが、キャラクタ25毎に選択的に表示可能な形で設定されている。     The motion designation time chart MDT is generated by the character motion control unit 16 corresponding to an animation schedule ASH stored in an animation schedule memory 15 to be described later, and a time axis TX indicating the passage of time is shown at the top. 3. The time axis TX indicates the elapsed time of the CG animation. Below the time axis TX, a camera selection axis CCX indicating the selection state of the camera 26 in the CG animation time defined by the time axis TX is similarly set in the left-right direction, and further below the camera selection axis CCX. The character motion axis CMX that defines the motion command of the character 25 in the time course of the CG animation defined by the time axis TX is set in a form that can be selectively displayed for each character 25.

ユーザがステージ22に登場させる、従って、CGアニメーションに登場させるキャラクタ25を、複数体選択した場合には、キャラクタ動作軸CMXに表示すべきキャラクタ25は、ユーザが入力部5を介して選択することが出来る。従って、キャラクタ動作軸CMXにはユーザが選択したキャラクタ25A又は25B、又は25C……についてのキャラクタ動作軸CMXが一つだけ表示されることとなる。なお、表示部6の表示面積に余裕がある場合には、ユーザがCGアニメーションに登場させるために選択した全てのキャラクタ25についてのキャラクタ動作軸CMXを表示するようにしても良い。また、モーション指定タイムチャートMDTは、ユーザの入力部5を介したモーション開始指令MSCと同期して時間軸TXの図中左端部のスタート位置ST(「0」と表示されている)から、時間軸TXの秒目盛り31にその通過時間を整合させる形で、図中右方に向けて一定速度で移動制御される、時間カーソルTSを有している。     When the user selects a plurality of characters 25 to appear on the stage 22 and thus appear in the CG animation, the user selects the character 25 to be displayed on the character action axis CMX via the input unit 5. I can do it. Accordingly, only one character action axis CMX for the character 25A, 25B, 25C... Selected by the user is displayed on the character action axis CMX. If the display area of the display unit 6 has a margin, the character motion axes CMX for all the characters 25 selected for the user to appear in the CG animation may be displayed. The motion designation time chart MDT is synchronized with the motion start command MSC via the user input unit 5 from the start position ST (shown as “0”) at the left end of the time axis TX in the figure. It has a time cursor TS that is moved and controlled at a constant speed toward the right in the figure in a manner that the passage time is aligned with the second scale 31 of the axis TX.

キャラクタ動作制御部16は、モーション指定タイムチャートMDTの他にも、カメラ選択ボタン29A、29B、モーション選択ボタン30、スケール伸縮バー32,停止ボタン33、進行ボタン35及び一時停止ボタン36などを有している。ユーザは、スケール伸縮バー32を適宜操作することで、モーション指定タイムチャートMDTの時間軸TXが表示する単位時間当りの表示部6上での表示長さを、図3左右方向に適宜伸縮させることが出来、キャラクタ25に複雑な動作をさせる場合などは、時間軸TXの間隔TLを図中左右方向に拡大表示させる。例えば、時間軸TXを2倍に拡大表示させると、図3の時間軸TXの括弧内の数字に示すように、それまでの秒目盛り31の0秒から20秒の間が、0秒から10秒に拡大され、それだけ多くのモーションコマンド(後述する)をその間に正確なタイミングで配置することが出来る。     In addition to the motion designation time chart MDT, the character motion control unit 16 includes camera selection buttons 29A and 29B, a motion selection button 30, a scale expansion / contraction bar 32, a stop button 33, a progress button 35, a pause button 36, and the like. ing. By appropriately operating the scale expansion / contraction bar 32, the user appropriately expands / contracts the display length on the display unit 6 per unit time displayed on the time axis TX of the motion designation time chart MDT in the horizontal direction in FIG. When the character 25 performs complicated actions, the interval TL of the time axis TX is enlarged and displayed in the left-right direction in the drawing. For example, when the time axis TX is enlarged and displayed twice, as shown by the numbers in parentheses of the time axis TX in FIG. Enlarged to a second, so many motion commands (described later) can be placed between them with accurate timing.

ステージ22にキャラクタ25が配置されると、既に述べたように、ユーザはステージ22上に配置されたキャラクタ25に対してモーションコマンドを指定して、当該キャラクタ25のCGアニメーション内での動作を指定する作業、即ち振り付けを行なう。即ち、ユーザは、モーション指定タイムチャートMDTのキャラクタ動作軸CMXに、振り付けを行ないたいキャラクタ25が表示されている状態で、表示部6に表示されたモーション選択ボタン30を入力部5を介してクリックなどにより操作する。すると、モーションコマンド一覧表示指令MDCが主制御部2に対して出力され、これを受けて主制御部2は、キャラクタ動作制御部16に対して、モーションコマンドテーブルMCTを表示するように指令する。     When the character 25 is placed on the stage 22, as described above, the user designates a motion command for the character 25 placed on the stage 22 and designates the motion of the character 25 in the CG animation. Work, that is, choreography. That is, the user clicks the motion selection button 30 displayed on the display unit 6 via the input unit 5 while the character 25 to be choreographed is displayed on the character motion axis CMX of the motion designation time chart MDT. Operate by etc. Then, a motion command list display command MDC is output to the main control unit 2, and in response to this, the main control unit 2 instructs the character motion control unit 16 to display the motion command table MCT.

これを受けてキャラクタ動作制御部16は、モーションプログラムメモリ13から、キャラクタ25に対して指令することの出来るモーション(振り)を複数種類格納したモーションコマンドテーブルMCTを読み出し、表示部6にユーザがモーションコマンドを選択可能に表示する。モーションコマンドテーブルMCTは、図4及び図5に示すように、キャラクタ25の画像IMと当該キャラクタ25に指令することの出来る振りに対応したモーションコマンドMCが一覧となった形で、モーションプログラムメモリ13に格納されており、キャラクタ25毎に読み出して、対応するモーションコマンドMCを表示部6上に、ユーザが選択可能な形で表示することが出来る(モーションコマンド表示手段)。なお、モーションコマンドテーブルMCTは、表示部6上にウインドの形で表示され、ユーザは入力部5を介して当該ウインド上で、モーションコマンドテーブルMCTに表示されたキャラクタ25に対して行なわせたい振りに対応したモーションコマンドMCを選択することができる。     In response to this, the character motion control unit 16 reads a motion command table MCT storing a plurality of types of motions that can be commanded to the character 25 from the motion program memory 13, and the user moves the motion to the display unit 6. Display commands as selectable. As shown in FIGS. 4 and 5, the motion command table MCT includes a motion program memory 13 in which the image IM of the character 25 and the motion commands MC corresponding to the swings that can be commanded to the character 25 are listed. And the corresponding motion command MC can be displayed on the display unit 6 in a form selectable by the user (motion command display means). Note that the motion command table MCT is displayed in the form of a window on the display unit 6, and the user wants the user to perform a motion on the character 25 displayed on the motion command table MCT on the window via the input unit 5. The motion command MC corresponding to can be selected.

モーションコマンドテーブルMCTに表示されたモーションコマンドMCには、図4及び図5に示すように、例えば、「歩き」、「走り」、「着替え」、「投げる」、「座る」、「座っている」、「立ち上がる」、「笑う」、「驚く」、「照れる」、「怒る」、「泣く」、「ダンス(ステップ)」、「ダンス(ウエイブ)」、「ダンス(スイム)」、「ダンス(フィニッシュ)」、「死ぬ」、「復活」など、キャラクタ25が行なうことの出来る振りが複数種類のモーションコマンドMCとして定義されている。また、表示された各モーションコマンドMCには、当該モーションコマンドテーブルMCTに表示されているキャラクタ25A又は25B……のモーションアニメーションデータがキャラクタ25毎に関連付けられる形でモーションプログラムメモリ13に格納されており、ユーザがモーションコマンドテーブルMCTで任意のモーションコマンドMCを選択すると、対応するキャラクタ25A又は25B……のモーションアニメーションデータがモーションプログラムメモリ13から読み出される。キャラクタ動作制御部16は、当該読み出されたモーションアニメーションデータに基づいて、モーションコマンドテーブルMCTのキャラクタ25A、25B……などが表示されたキャラクタ表示部CDPに、ユーザが選択したキャラクタ25A、25B……について、ユーザが選択したモーションコマンドMCに対応した振りを示すアニメーションを表示する(モーションアニメーション表示手段)。従って、ユーザは、モーションコマンドテーブルMCTに表示される、自分が選択したキャラクタ25A、25B……のアニメーションを見ることで、現在選択しようとしているモーションコマンドMCの振り付け内容を、各キャラクタ25毎に前もって知ることが出来る。     The motion command MC displayed in the motion command table MCT includes, for example, “walking”, “running”, “changing clothes”, “throwing”, “sitting”, “sitting” as shown in FIGS. , “Stand Up”, “Laugh”, “Surprised”, “Embarrassed”, “Angry”, “Cry”, “Dance (Step)”, “Dance (Wave)”, “Dance (Swim)”, “Dance ( “Finish)”, “Die”, “Resurrection”, and the like that the character 25 can perform are defined as a plurality of types of motion commands MC. Further, in each motion command MC displayed, the motion animation data of the character 25A or 25B... Displayed in the motion command table MCT is stored in the motion program memory 13 in a form associated with each character 25. When the user selects an arbitrary motion command MC in the motion command table MCT, the motion animation data of the corresponding character 25A, 25B... Is read from the motion program memory 13. Based on the read motion animation data, the character motion control unit 16 displays the characters 25A, 25B,... Selected by the user on the character display unit CDP on which the characters 25A, 25B,. ..., An animation showing a swing corresponding to the motion command MC selected by the user is displayed (motion animation display means). Accordingly, the user sees the animation of the character 25A, 25B,... Selected by himself / herself displayed in the motion command table MCT, so that the choreography contents of the motion command MC to be currently selected can be determined in advance for each character 25. I can know.

更に、モーションプログラムメモリ13には、図6に示すように、各モーションコマンドMCに対応したモーションプログラムMPRがサブルーチンSUB1〜SUB18として格納されており、各モーションプログラムMPRはキャラクタ動作制御部16を介して、3次元仮想空間VS内の各キャラクタ25のオブジェクトにモーションコマンドMCに対応する動作、即ちここでは所定の振りを行なわせることができる。     Further, as shown in FIG. 6, the motion program MPR corresponding to each motion command MC is stored as subroutines SUB1 to SUB18 in the motion program memory 13, and each motion program MPR is passed through the character motion control unit 16. It is possible to cause the object of each character 25 in the three-dimensional virtual space VS to perform an action corresponding to the motion command MC, that is, a predetermined swing here.

次に、ユーザは、図3に示すように、モーション指定タイムチャートMDTの時間カーソルTSを、入力部5を介して図中左右方向に移動させ、ステージ22上のキャラクタ25に行なわせたい振りのタイミング、即ち自分がモーションコマンドテーブルMCTで選択したモーションコマンドMCの実行タイミングを時間軸TX上の任意の時間位置に時間カーソルTSを移動位置決めさせることで決定する。モーションコマンドMCを実行すべき時間位置に時間カーソルTSを移動位置決めしたところで、モーションコマンドテーブルMCT上の図示しない決定ボタンなどを入力部5を介して操作すると、モーション指定タイムチャートMDTの時間カーソルTSが位置決めされた時間位置のキャラクタ動作軸CMX上に、モーションアイコン37が配置され、当該時間位置でユーザが選択したモーションコマンドMCが実行されることを表示する。     Next, as shown in FIG. 3, the user moves the time cursor TS of the motion designation time chart MDT in the horizontal direction in the figure via the input unit 5, and moves the character 25 on the stage 22 to perform. The timing, that is, the execution timing of the motion command MC selected by the user in the motion command table MCT is determined by moving and positioning the time cursor TS at an arbitrary time position on the time axis TX. When the time cursor TS is moved and positioned at the time position where the motion command MC is to be executed, when a decision button (not shown) on the motion command table MCT is operated via the input unit 5, the time cursor TS of the motion designation time chart MDT is displayed. A motion icon 37 is arranged on the character motion axis CMX at the positioned time position, and displays that the motion command MC selected by the user at the time position is executed.

こうして、ユーザはステージ22上のキャラクタ25に行なわせたい振りを、モーションコマンドテーブルMCTのモーションコマンドMC及び対応するキャラクタ25A又は25B……のモーションアニメーションにより選択し、当該振りを行なわせたい時間を、モーション指定タイムチャートMDTの時間軸TX上の所定の時間位置にモーションアイコン37を配置させることで指定する。これにより、キャラクタ動作制御部16は、各モーションコマンドと当該モーションコマンドの実行時間を関連付けた形で後述するようにアニメーションメモリ21に格納することが出来る。こうして、ユーザは、図3に示すように、多数のモーションコマンドMCを各キャラクタ25A又は25B……について選択して、モーション指定タイムチャートMDTの時間軸TX上の所定の位置にモーションアイコン37を配置することで、対応する振りを任意のキャラクタ25に行なわせることが出来る。     In this way, the user selects a swing that the character 25 on the stage 22 wants to perform by selecting the motion command MC of the motion command table MCT and the motion animation of the corresponding character 25A or 25B. Designation is performed by placing a motion icon 37 at a predetermined time position on the time axis TX of the motion designation time chart MDT. Thus, the character motion control unit 16 can store each motion command and the execution time of the motion command in the animation memory 21 as described later in association with each other. Thus, as shown in FIG. 3, the user selects a number of motion commands MC for each character 25A, 25B,..., And places the motion icon 37 at a predetermined position on the time axis TX of the motion designation time chart MDT. By doing so, it is possible to cause the arbitrary character 25 to perform the corresponding swing.

こうして、ステージ22上のキャラクタ25A又は25B……に対して、多くのモーションコマンドMCをモーション指定タイムチャートMDT上に配置してゆくと、表示部6上のモーション指定タイムチャートMDTは、図3に示すように、ステージ22上のキャラクタ25A又は25B……のキャラクタ動作軸CMXに、多数のモーションコマンドMCが配置された状態となる。キャラクタ動作制御部16は、モーションコマンドMCのモーションアイコン37がキャラクタ動作軸CMXに配置されるたびに、アニメーション作成制御部19に対して、アニメーションスケジュールASHを作成してアニメーションスケジュールメモリ15に格納するように指令する(モーション編集手段)。     Thus, when many motion commands MC are arranged on the motion designation time chart MDT for the character 25A or 25B on the stage 22, the motion designation time chart MDT on the display unit 6 is shown in FIG. As shown, a large number of motion commands MC are arranged on the character motion axis CMX of the character 25A or 25B... On the stage 22. The character motion control unit 16 creates an animation schedule ASH for the animation creation control unit 19 and stores it in the animation schedule memory 15 every time the motion icon 37 of the motion command MC is arranged on the character motion axis CMX. (Motion editing means).

これを受けて、アニメーション作成制御部19は、モーション指定タイムチャートMDTの各キャラクタ25のキャラクタ動作軸CMXに貼り付けられたモーションアイコン37及び、該モーションアイコン37に関連付けられたモーションコマンドMCを参照して、図7に示すアニメーションスケジュールASHを作成して、アニメーションスケジュールメモリ15に格納する。アニメーションスケジュールASHは、図7に示すように、時間軸Tを横軸にしたチャートで構成され、縦軸に、使用カメラ、各キャラクタ25が配置され、時間の経過に伴う仮想カメラ26の選択状態(後述する)及び各キャラクタ25の振りを構成するモーションプログラムMPRの実行内容がスケジュールSCH1、SCH2,SCH3などとして、サブルーチンSB1〜SB18を指定する形で格納されている。     In response to this, the animation creation control unit 19 refers to the motion icon 37 pasted on the character motion axis CMX of each character 25 of the motion designation time chart MDT and the motion command MC associated with the motion icon 37. Thus, the animation schedule ASH shown in FIG. 7 is created and stored in the animation schedule memory 15. As shown in FIG. 7, the animation schedule ASH is composed of a chart with the time axis T as the horizontal axis, the used camera and each character 25 are arranged on the vertical axis, and the selection state of the virtual camera 26 as time passes. The contents of execution of the motion program MPR (which will be described later) and the swing of each character 25 are stored as schedules SCH1, SCH2, SCH3, and the like, specifying subroutines SB1 to SB18.

図7の場合、各キャラクタ25である、キャラクタ1,キャラクタ2及びキャラクタ3毎に、スケジュールSCH1、SCH2,SCH3が格納されており、例えば、キャラクタ2のスケジュールSCH2は、スタートから時間T2までは、モーションコマンドMCで「歩き」が指令されており、その結果アニメーションスケジュールASHには、「歩き」のモーションコマンドMC対応する歩きサブルーチンSB1の実行が指示されている。次に、時間T2から時間T5の間は、モーションコマンドMCで「泣き」が指令されており、その結果アニメーションスケジュールASHには、「泣き」のモーションコマンドMC対応する泣きサブルーチンSB12の実行が指示されている。次に、時間T5から時間T7の間は、モーションコマンドMCで「ダンス(ステップ)」が指令されており、その結果アニメーションスケジュールASHには、「ダンス(ステップ)」のモーションコマンドMC対応するステップサブルーチンSB13の実行が指示されている。次に、時間T7から時間T9の間は、モーションコマンドMCで「ダンス(ウエイブ)」が指令されており、その結果アニメーションスケジュールASHには、「ダンス(ウエイブ)」のモーションコマンドMC対応するステップサブルーチンSB14の実行が指示されている。次に、時間T9から時間T11の間は、モーションコマンドMCで「走り」が指令されており、その結果アニメーションスケジュールASHには、「走り」のモーションコマンドMC対応するステップサブルーチンSB2実行が指示されている。次に、時間T11から時間T14の間は、モーションコマンドMCで「座る」が指令されており、その結果アニメーションスケジュールASHには、「座る」のモーションコマンドMC対応するステップサブルーチンSB5の実行が指示されている。     In the case of FIG. 7, schedules SCH1, SCH2, and SCH3 are stored for each character 25, that is, character 1, character 2, and character 3. For example, the schedule SCH2 of character 2 is from start to time T2. “Walk” is instructed by the motion command MC, and as a result, the animation schedule ASH is instructed to execute the walk subroutine SB1 corresponding to the motion command MC of “walk”. Next, during the period from time T2 to time T5, “crying” is commanded by the motion command MC. As a result, the animation schedule ASH is instructed to execute the crying subroutine SB12 corresponding to the motion command MC of “crying”. ing. Next, during the period from time T5 to time T7, “dance (step)” is commanded by the motion command MC, and as a result, the animation schedule ASH includes a step subroutine corresponding to the motion command MC of “dance (step)”. Execution of SB13 is instructed. Next, during the period from time T7 to time T9, “dance (wave)” is commanded by the motion command MC, and as a result, the animation schedule ASH includes a step subroutine corresponding to the motion command MC of “dance (wave)”. Execution of SB14 is instructed. Next, during the period from time T9 to time T11, “run” is commanded by the motion command MC, and as a result, the animation schedule ASH is instructed to execute the step subroutine SB2 corresponding to the “run” motion command MC. Yes. Next, during the period from time T11 to time T14, “sit” is commanded by the motion command MC, and as a result, the animation schedule ASH is instructed to execute the step subroutine SB5 corresponding to the motion command MC “sit”. ing.

このように、アニメーションスケジュールASHには、各キャラクタ25についてのモーションコマンドMCの実行タイミング及び当該モーションコマンドMCで実行すべきモーションプログラムMPRが、スケジュールSCH1、SCH2,SCH3……として格納されるので、当該アニメーションスケジュールASHに沿って3次元仮想空間VS内の各キャラクタ25のオブジェクトを動作させることで、ユーザが望む振りを各キャラクタ25にリアルタイムで簡単に行なわせることが出来る。     In this way, in the animation schedule ASH, the execution timing of the motion command MC for each character 25 and the motion program MPR to be executed by the motion command MC are stored as the schedules SCH1, SCH2, SCH3. By moving the object of each character 25 in the three-dimensional virtual space VS according to the animation schedule ASH, it is possible to easily cause each character 25 to perform a swing desired by the user in real time.

こうして、ステージ22上の各キャラクタ25について、モーション指定タイムチャートMDT上でのモーションコマンドの実行指定が完了し、モーションプログラムメモリ13に各キャラクタ25のスケジュールSCH1、SCH2,SCH3が格納されたところで、ユーザは、入力部5を介して主制御部2に対して、ステージ22上のキャラクタ25を撮影する、即ちレンダリングする際に使用する仮想カメラ26の選択及び各仮想カメラ26の位置決め、及びフレーミング、即ちカメラのズーム状態を設定するためにカメラ設定指令CSCを出力する。     Thus, for each character 25 on the stage 22, the execution specification of the motion command on the motion specification time chart MDT is completed, and the schedule SCH 1, SCH 2, SCH 3 of each character 25 is stored in the motion program memory 13. Picks up the character 25 on the stage 22 with respect to the main control unit 2 via the input unit 5, that is, selects the virtual camera 26 used for rendering, positions each virtual camera 26, and framing, A camera setting command CSC is output to set the zoom state of the camera.

これを受けて主制御部2は、カメラ制御部10に対して、仮想カメラ26についてアニメーションスケジュールASH内に仮想カメラのスケジュールSCH4を作成するように指令する。ユーザが、ステージ22上のキャラクタ25を撮影する際に使用するカメラを選択するには、まず表示部6に表示されたモーション指定タイムチャートMDTのカメラ選択軸CCXを入力部5を介してクリックし、主制御部2を介してカメラ制御部10に対して、これから仮想カメラ26の設定を行なうことを通知する。     In response to this, the main control unit 2 instructs the camera control unit 10 to create a virtual camera schedule SCH4 for the virtual camera 26 in the animation schedule ASH. In order to select a camera to be used when the user captures the character 25 on the stage 22, first, the camera selection axis CCX of the motion designation time chart MDT displayed on the display unit 6 is clicked via the input unit 5. The camera controller 10 is notified via the main controller 2 that the virtual camera 26 will be set.

ユーザは、モーション指定タイムチャートMDTの時間カーソルTSを入力部5を介して図3左右方向に適宜移動させて仮想カメラの使用開始タイミング位置を指定すると共に、使用する仮想カメラ26を選択する。ユーザが仮想カメラ26を何ら選択しない場合には、ステージ22の図2中、正面に配置された仮想カメラ26Aが、カメラ制御部10により使用カメラとして選択される。仮想カメラ26のユーザよる選択は、表示部6に表示されたカメラ選択ボタン29A、29B……を入力部5を介して選択的に押下(クリック)することで行なわれ、押下されたカメラ選択ボタン29A、29B……に対応するカメラアイコン39が、カメラ制御部10によりカメラ選択軸CCXの時間カーソルTS位置に配置され、当該時点から、ユーザが選択した仮想カメラ26A、26B……を使用することが指令される(カメラ制御手段)。ユーザは更に入力部5を介して、撮影(レンダリング)に使用する仮想カメラの3次元仮想空間VS内での視点位置(図2のX、Y、Z座標)を設定し、また仮想カメラ26のズーム状態を設定する。これら仮想カメラ26の選択、位置及びズーム状態などを示すカメラ状態データは、カメラ選択軸CCXに配置された各カメラアイコン39に関連付けられる形でカメラ操作メモリ20内にカメラ状態データとして格納される。     The user appropriately moves the time cursor TS of the motion designation time chart MDT in the horizontal direction in FIG. 3 via the input unit 5 to designate the use start timing position of the virtual camera, and selects the virtual camera 26 to be used. When the user does not select any virtual camera 26, the virtual camera 26 </ b> A arranged in front of the stage 22 in FIG. 2 is selected as the camera to be used by the camera control unit 10. The selection of the virtual camera 26 by the user is performed by selectively pressing (clicking) the camera selection buttons 29A, 29B... Displayed on the display unit 6 via the input unit 5. The camera icons 39 corresponding to 29A, 29B... Are placed by the camera control unit 10 at the time cursor TS position of the camera selection axis CCX, and the virtual cameras 26A, 26B. Is commanded (camera control means). The user further sets the viewpoint position (X, Y, Z coordinates in FIG. 2) of the virtual camera used for photographing (rendering) in the three-dimensional virtual space VS via the input unit 5. Set the zoom status. The camera state data indicating the selection, position, zoom state, and the like of the virtual camera 26 is stored as camera state data in the camera operation memory 20 in a form associated with each camera icon 39 arranged on the camera selection axis CCX.

なお、各仮想カメラ26でレンダリングされる画像は、表示部6の2次元画像PCとして、図3に示すようにリアルタイムで表示され、その際、CGアニメーションとして録画される範囲がフレーム27で表示されるので、ユーザは表示部6に表示される2次元画像PCを参照しながら、適切なカメラアングルを設定することが出来る。     An image rendered by each virtual camera 26 is displayed as a two-dimensional image PC of the display unit 6 in real time as shown in FIG. 3, and at this time, a range recorded as a CG animation is displayed by a frame 27. Therefore, the user can set an appropriate camera angle while referring to the two-dimensional image PC displayed on the display unit 6.

また、ユーザが使用すべき仮想カメラ26A、26B……を選択してカメラ選択軸CCX内にカメラアイコン39を図3に示すように、順次配置してゆくにつれ、アニメーション作成制御部19は、図7のアニメーションスケジュールASHに仮想カメラの選択状態及び使用タイミングを示すカメラスケジュールSCH4を生成する(カメラスケジュール生成手段)。仮想カメラの選択状態を示すカメラスケジュールSCH4には、ユーザがCGアニメーションを撮影すする際に使用するものと指定した仮想カメラ26A、26B……の使用状態が、モーション指定タイムチャートMDTに基づいてチャートとして格納されている。     Further, as the user selects virtual cameras 26A, 26B... To be used and sequentially arranges the camera icons 39 in the camera selection axis CCX as shown in FIG. The camera schedule SCH4 indicating the virtual camera selection state and use timing is generated in the animation schedule ASH 7 (camera schedule generation means). In the camera schedule SCH4 indicating the selection state of the virtual camera, the use state of the virtual cameras 26A, 26B,... That the user designates to be used when shooting the CG animation is charted based on the motion designation time chart MDT. Is stored as

図7の、仮想カメラの選択状態を示すスケジュールSCH4には、スタートから時間T1までは、「C1」、即ち仮想カメラ26Aが使用されることが指示され、時間T1から時間T4まででは、「C2」、即ち仮想カメラ26Bが使用されることが指示され、時間T4から時間T7まででは、「C1」、即ち仮想カメラ26Aが使用されることが指示され、時間T7から時間T10まででは、「C2」、即ち仮想カメラ26Bが使用されることが指示され、時間T10から時間T16まででは、「C1」、即ち仮想カメラ26Aが使用されることが指示されている。また、この際の各仮想カメラ26の位置、即ち3次元仮想空間VS内での視点位置やズーム状態などのカメラ状態データは、既に述べたようにカメラ操作メモリ20内に格納される。     In the schedule SCH4 showing the selection state of the virtual camera in FIG. 7, it is instructed that “C1”, that is, the virtual camera 26A is used from the start to the time T1, and “C2” is used from the time T1 to the time T4. "That is, the virtual camera 26B is instructed to be used, and from time T4 to time T7," C1 ", that is, the virtual camera 26A is instructed to be used, and from time T7 to time T10," C2 ", That is, the virtual camera 26B is instructed to be used, and from time T10 to time T16," C1 ", that is, the virtual camera 26A is instructed to be used. Further, the position of each virtual camera 26 at this time, that is, the camera state data such as the viewpoint position and the zoom state in the three-dimensional virtual space VS is stored in the camera operation memory 20 as described above.

こうしてユーザによる仮想カメラ26の選択が完了したところで、ユーザは入力部5を介して主制御部2に対して、CGアニメーションの作成を指令する。これを受けて主制御部2は、アニメーション作成制御部19に対して、アニメーションスケジュールメモリ15に格納されたアニメーションスケジュールASHに基づいて、リアルタイムCGアニメーションを作成するように指令する。     When the selection of the virtual camera 26 by the user is completed in this way, the user instructs the main control unit 2 to create a CG animation via the input unit 5. In response to this, the main control unit 2 instructs the animation creation control unit 19 to create a real-time CG animation based on the animation schedule ASH stored in the animation schedule memory 15.

これを受けてアニメーション作成制御部19は、アニメーションスケジュールASHに示された仮想カメラ26のスケジュールSCH4及び各キャラクタ25のスケジュールSCH1〜SCH3に基づいて、3次元仮想空間VSのステージ22で、各キャラクタ25のオブジェクトを動作させ(キャラクタ動作手段)、その様子を、仮想カメラ26A、26B……でリアルタイムに撮影(レンダリング)する。アニメーションスケジュールASHは、全てユーザが入力部5を介して入力したモーション指定タイムチャートMDTに基づいているので、ユーザが意図したままのCGアニメーションを作成することが出来る。こうして作成された2次元アニメーションデータANMは、完成アニメーションメモリ21に格納される(アニメーション作成手段)。また同時に、撮影(レンダリング)を行なった際の3次元仮想空間VS内を構成するキャラクタ25を含む全てのオブジェクト及びレンダリングする仮想カメラの位置及び状態に関する3次元データである、アニメーション撮影中のリアルタイムアニメーションデータRTAも、CGアニメーション作成環境データとして3次元仮想空間で再現可能な形で完成アニメーションメモリ21に格納する(アニメーション作成手段)。     In response to this, the animation creation control unit 19 performs each character 25 in the stage 22 of the three-dimensional virtual space VS based on the schedule SCH4 of the virtual camera 26 and the schedules SCH1 to SCH3 of each character 25 shown in the animation schedule ASH. The object is moved (character movement means), and the state is photographed (rendered) in real time by the virtual cameras 26A, 26B. Since the animation schedule ASH is all based on the motion designation time chart MDT input by the user via the input unit 5, a CG animation as intended by the user can be created. The two-dimensional animation data ANM created in this way is stored in the completed animation memory 21 (animation creation means). At the same time, real-time animation during animation shooting, which is three-dimensional data regarding the positions and states of all objects including the character 25 constituting the inside of the three-dimensional virtual space VS at the time of shooting (rendering) and the virtual camera to be rendered. Data RTA is also stored in the completed animation memory 21 as CG animation creation environment data in a form reproducible in a three-dimensional virtual space (animation creation means).

こうして撮影されて完成アニメーションメモリ21に格納されたCGアニメーションを再生するには、入力部5を介して表示部6に表示された進行ボタン35,一時停止ボタン36及び停止ボタン33を操作して、主制御部2に完成アニメーションメモリ21に格納された2次元アニメーションデータANMの再生を指令する。すると、主制御部2は、完成アニメーションメモリ21に格納された2次元アニメーションデータANMを読み出し、表示部6上に表示する。     In order to reproduce the CG animation thus shot and stored in the completed animation memory 21, the progress button 35, the pause button 36 and the stop button 33 displayed on the display unit 6 are operated via the input unit 5. The main control unit 2 is instructed to reproduce the two-dimensional animation data ANM stored in the completed animation memory 21. Then, the main control unit 2 reads the two-dimensional animation data ANM stored in the completed animation memory 21 and displays it on the display unit 6.

なお、完成アニメーションメモリ21には、当該2次元アニメーションデータANMを作成した際の3次元仮想空間VS内を構成するキャラクタ25を含む全てのオブジェクト及びレンダリングする仮想カメラの位置及び状態に関する、アニメーション撮影中のリアルタイムアニメーションデータRTAが、CGアニメーション作成環境データとして3次元仮想空間で再現可能な形で格納されているので、当該2次元アニメーションデータANMに修正したい部分が生じても、直ちに対応するCGアニメーション作成環境データを完成アニメーションメモリ21から読み出して3次元仮想空間内に展開することで、3次元仮想空間内で容易に修正、改変を行なうことが出来る。これにより、カメラ位置の変更などによるレンダリング状態の変更が可能となるので、2次元画像の修正などでは行えないCGアニメーションの修正、改変を簡単に行なうことが出来る。     Note that the completed animation memory 21 is in the middle of shooting an animation regarding the positions and states of all objects including the character 25 constituting the 3D virtual space VS and the virtual camera to be rendered when the 2D animation data ANM is created. Real-time animation data RTA is stored as CG animation creation environment data in a reproducible form in the three-dimensional virtual space, so that even if a portion to be corrected occurs in the two-dimensional animation data ANM, the corresponding CG animation is created immediately. By reading out the environmental data from the completed animation memory 21 and expanding it in the three-dimensional virtual space, it can be easily corrected and altered in the three-dimensional virtual space. As a result, the rendering state can be changed by changing the camera position or the like, so that the CG animation can be easily corrected or altered that cannot be done by correcting the two-dimensional image.

図1は、本発明が適用される簡易アニメーション作成装置の一例を示すブロック図である。FIG. 1 is a block diagram showing an example of a simple animation creating apparatus to which the present invention is applied. 図2は、三元仮想空間内のステージの一例を示す斜視図である。FIG. 2 is a perspective view showing an example of a stage in the ternary virtual space. 図3は、ディスプレイに表示される操作画面の一例を示す図である。FIG. 3 is a diagram illustrating an example of an operation screen displayed on the display. 図4は、キャラクタへのモーション指令画面の一例を示す図である。FIG. 4 is a diagram illustrating an example of a motion command screen for a character. 図5は、別のキャラクタへのモーション指令画面の一例を示す図である。FIG. 5 is a diagram illustrating an example of a motion command screen for another character. 図6は、モーションプログラムテーブルの一例を示す図である。FIG. 6 is a diagram illustrating an example of a motion program table. 図7は、アニメーションスケジュールの一例を示す図である。FIG. 7 is a diagram illustrating an example of an animation schedule.

符号の説明Explanation of symbols

1……簡易アニメーション作成装置
5……入力手段(入力部)
6……表示手段(表示部)
7……3Dステージ設定部、選択キャラクタ表示手段
9……キャラクタデータメモリ
10……カメラ制御手段(カメラ制御部)
13……モーションプログラムメモリ
16……モーション編集手段、アニメーション表示手段(キャラクタ動作制御部)
19……キャラクタ動作手段、アニメーション作成手段、カメラスケジュール生成手段(アニメーション作成制御部)
22……ステージ
25、25A、25B……キャラクタ
26,26A、26B……仮想カメラ
ASH……アニメーションスケジュール
ANM……アニメーションデータ(2次元アニメーションデータ)
MC……モーションコマンド
RTA……アニメーションデータ(リアルタイムアニメーションデータ)
SCH4……カメラスケジュール
VS……3次元仮想空間
1 …… Simple animation creation device 5 …… Input means (input unit)
6 …… Display means (display part)
7 …… 3D stage setting section, selected character display means 9 …… Character data memory 10 …… Camera control means (camera control section)
13 …… Motion program memory 16 …… Motion editing means, animation display means (character motion control section)
19... Character movement means, animation creation means, camera schedule generation means (animation creation control unit)
22 …… Stage 25, 25A, 25B …… Characters 26, 26A, 26B …… Virtual camera ASH …… Animation schedule ANM …… Animation data (two-dimensional animation data)
MC …… Motion command RTA …… Animation data (real-time animation data)
SCH4 …… Camera schedule VS …… 3D virtual space

Claims (5)

3次元仮想空間内に設置されたステージ上にキャラクタをオブジェクトとして配置し、当該キャラクタのオブジェクトを所定の振りで動作させると共にそれらステージ及びキャラクタを仮想カメラでレンダリングすることで、リアルタイムにアニメーションを作成することの出来る、簡易アニメーション作成装置において、
前記3次元仮想空間をメモリ内に生成する3Dステージ設定部、
前記ステージに配置することの出来る前記キャラクタのキャラクタ生成データを格納するキャラクタデータメモリ、
前記ステージ上に配置すべきキャラクタを、ユーザが入力手段を介して選択可能に表示手段上に表示する選択キャラクタ表示手段、
前記ユーザが選択した前記キャラクタを、前記ステージ上に配置するキャラクタ配置手段、
前記キャラクタに対して指令することの出来る振りを複数種類、モーションコマンドとして格納すると共に、前記各モーションコマンドに対応したモーションプログラムを、前記各キャラクタに前記モーションプログラムに対応する振りを実行可能な形に格納したモーションプログラムメモリ、
前記キャラクタに対して指令することの出来る前記モーションコマンドを、前記モーションプログラムメモリから読み出し、前記ユーザが選択した前記キャラクタと共に、前記表示手段上に、ユーザが選択可能な形で表示する、モーションコマンド表示手段、
前記ユーザが前記各キャラクタについて選択した複数の前記モーションコマンドを、その実行時間と共にメモリに格納してアニメーションスケジュールを作成する、モーション編集手段、
前記作成されたアニメーションスケジュールに示されたモーションコマンドに基づいて、前記ユーザの前記入力手段を介した指令に基づき、前記ステージ上のキャラクタを動作させるキャラクタ動作手段、及び、
前記ステージ上のキャラクタの動作を前記仮想カメラを介してリアルタイムにレンダリングしてアニメーションデータとして完成アニメーションメモリに格納するアニメーション作成手段、
を有することを特徴とする簡易アニメーション作成装置。
An animation is created in real time by placing a character as an object on a stage installed in a three-dimensional virtual space, moving the object of the character with a predetermined swing, and rendering the stage and the character with a virtual camera. In a simple animation creation device that can
A 3D stage setting unit for generating the three-dimensional virtual space in a memory;
A character data memory for storing character generation data of the character that can be placed on the stage;
Selected character display means for displaying a character to be placed on the stage on the display means so that the user can select it via the input means,
Character placement means for placing the character selected by the user on the stage;
A plurality of types of swings that can be commanded to the character are stored as motion commands, and a motion program corresponding to each motion command can be executed in a form that allows each character to perform a swing corresponding to the motion program. Stored motion program memory,
The motion command that can be commanded to the character is read from the motion program memory and displayed on the display means together with the character selected by the user in a form selectable by the user. means,
A motion editing means for creating an animation schedule by storing a plurality of the motion commands selected by the user for each character in a memory together with an execution time thereof;
Based on a motion command shown in the created animation schedule, based on a command through the input means of the user, a character movement means for moving a character on the stage, and
Animation creating means for rendering the motion of the character on the stage in real time via the virtual camera and storing it in a completed animation memory as animation data;
A simple animation creating apparatus characterized by comprising:
前記アニメーション作成手段は、前記アニメーションデータを、2次元アニメーションデータとして格納している、ことを特徴とする、請求項1記載の簡易アニメーション作成装置。 The simple animation creating apparatus according to claim 1, wherein the animation creating means stores the animation data as two-dimensional animation data. 前記アニメーション作成手段は、前記レンダリングを行なった際の、前記3次元仮想空間内の前記キャラクタを含む全てのオブジェクト及び前記仮想カメラに関する3次元データを、リアルタイムアニメーションデータとして格納している、ことを特徴とする、請求項1記載の簡易アニメーション作成装置。 The animation creating means stores, as real-time animation data, three-dimensional data related to all objects including the character and the virtual camera in the three-dimensional virtual space when the rendering is performed. The simple animation creating apparatus according to claim 1. 前記簡易アニメーション作成装置は、更に、
前記3次元仮想空間内に複数台の前記仮想カメラを設定する仮想カメラ設定手段、
前記ユーザの前記入力手段を介した指示に基づき、前記レンダリングに使用する前記仮想カメラを選定し及びその使用タイミングを決定する、カメラ制御手段、
前記レンダリングに際した前記仮想カメラの選択状態及び使用タイミングを示すカメラスケジュールを生成する、カメラスケジュール生成手段を有し、
前記アニメーション作成手段は、前記生成されたカメラスケジュールに基づいて、前記仮想カメラを選択、使用してレンダリングを行なうことを特徴とする、請求項1記載の簡易アニメーション作成装置。
The simple animation creating device further includes:
Virtual camera setting means for setting a plurality of the virtual cameras in the three-dimensional virtual space;
Camera control means for selecting the virtual camera to be used for the rendering and determining its use timing based on an instruction through the input means of the user;
A camera schedule generating means for generating a camera schedule indicating a selection state and use timing of the virtual camera at the time of the rendering;
The simple animation creating apparatus according to claim 1, wherein the animation creating unit performs rendering by selecting and using the virtual camera based on the generated camera schedule.
前記モーションプログラムメモリは、前記各モーションコマンドに対応した振りを示すモーションアニメーションデータを、前記各キャラクタ毎に格納しており、
更に前記簡易アニメーション作成装置は、
前記ユーザが選択した前記キャラクタについてのモーションコマンドに対応した前記モーションアニメーションデータを読み出して、前記表示手段に表示する、モーションアニメーション表示手段を有する、
ことを特徴とする、請求項1記載のアニメーション作成装置。
The motion program memory stores motion animation data indicating a swing corresponding to each motion command for each character.
Furthermore, the simple animation creation device includes:
A motion animation display unit that reads out the motion animation data corresponding to a motion command for the character selected by the user and displays the motion animation data on the display unit;
The animation creating apparatus according to claim 1, wherein:
JP2008263870A 2008-10-10 2008-10-10 Simple animation creation device Active JP4989605B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008263870A JP4989605B2 (en) 2008-10-10 2008-10-10 Simple animation creation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008263870A JP4989605B2 (en) 2008-10-10 2008-10-10 Simple animation creation device

Publications (2)

Publication Number Publication Date
JP2010092402A true JP2010092402A (en) 2010-04-22
JP4989605B2 JP4989605B2 (en) 2012-08-01

Family

ID=42255027

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008263870A Active JP4989605B2 (en) 2008-10-10 2008-10-10 Simple animation creation device

Country Status (1)

Country Link
JP (1) JP4989605B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018183213A (en) * 2017-04-24 2018-11-22 株式会社ユニバーサルエンターテインメント Game machine
WO2021059372A1 (en) * 2019-09-24 2021-04-01 株式会社エクシヴィ Animation creation system
WO2021059371A1 (en) * 2019-09-24 2021-04-01 株式会社エクシヴィ Animation production method
WO2021059363A1 (en) * 2019-09-24 2021-04-01 株式会社エクシヴィ Animation creation method
WO2021059361A1 (en) * 2019-09-24 2021-04-01 株式会社エクシヴィ Animation production method
US11232605B2 (en) 2019-11-26 2022-01-25 Seiko Epson Corporation Method for generating image data, program, and information processing device
US11321897B2 (en) 2019-11-26 2022-05-03 Seiko Epson Corporation Method for generating video data, video data generation device, and program
US11524235B2 (en) * 2020-07-29 2022-12-13 AniCast RM Inc. Animation production system

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7115696B2 (en) * 2019-09-24 2022-08-09 株式会社エクシヴィ animation production system
US20220351445A1 (en) * 2019-09-24 2022-11-03 XVI Inc. Animation production system

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
CSND199900498022, 橋本, "3Dダンスアニメーション作成ソフトが登場:dance studio", ASCII 第23巻 第2号, 19990201, 第23巻 第2号, 289頁, JP, 株式会社アスキー ASCII Corporation *
CSND200800327003, 本間 一, "おどる初音ミク「MikuMikuDance」", I/O 第33巻 第6号, 20080601, 第33巻 第6号, 22〜24頁, JP, 株式会社工学社 *
JPN6010070206, 本間 一, "おどる初音ミク「MikuMikuDance」", I/O 第33巻 第6号, 20080601, 第33巻 第6号, 22〜24頁, JP, 株式会社工学社 *
JPN6010070207, 岡田有花, "「神ツール」——初音ミク踊らせるソフト「MikuMikuDance」大人気", 「神ツール」——初音ミク踊らせるソフト「MikuMikuDance」大人気, 20080310, JP *
JPN6010070208, 猪蔵 INOZO, "3D Studio MAXで、ガメラ、ガンダムに挑戦!3D STudio MAX一本勝負 Ippon Shob", GW 第2巻 第4号, 19990401, 第2巻 第4号, 80頁, JP, 株式会社アイ・ディ・ジーコミュニケーションズ *
JPN6010070209, 橋本, "3Dダンスアニメーション作成ソフトが登場:dance studio", ASCII 第23巻 第2号, 19990201, 第23巻 第2号, 289頁, JP, 株式会社アスキー ASCII Corporation *

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018183213A (en) * 2017-04-24 2018-11-22 株式会社ユニバーサルエンターテインメント Game machine
JP7016620B2 (en) 2017-04-24 2022-02-07 株式会社ユニバーサルエンターテインメント Pachinko machine
WO2021059361A1 (en) * 2019-09-24 2021-04-01 株式会社エクシヴィ Animation production method
JP2021193613A (en) * 2019-09-24 2021-12-23 株式会社エクシヴィ Animation creation method
WO2021059371A1 (en) * 2019-09-24 2021-04-01 株式会社エクシヴィ Animation production method
JPWO2021059371A1 (en) * 2019-09-24 2021-10-07 株式会社エクシヴィ Animation production method
JPWO2021059363A1 (en) * 2019-09-24 2021-10-07 株式会社エクシヴィ Animation production method
JPWO2021059372A1 (en) * 2019-09-24 2021-10-07 株式会社エクシヴィ Animation production system
JPWO2021059361A1 (en) * 2019-09-24 2021-10-07 株式会社エクシヴィ Animation production method
WO2021059363A1 (en) * 2019-09-24 2021-04-01 株式会社エクシヴィ Animation creation method
JP2021193614A (en) * 2019-09-24 2021-12-23 株式会社エクシヴィ Animation creation system
JP7454818B2 (en) 2019-09-24 2024-03-25 株式会社RiBLA Animation production method
WO2021059372A1 (en) * 2019-09-24 2021-04-01 株式会社エクシヴィ Animation creation system
JP7078216B2 (en) 2019-09-24 2022-05-31 株式会社エクシヴィ Animation production method
US11321897B2 (en) 2019-11-26 2022-05-03 Seiko Epson Corporation Method for generating video data, video data generation device, and program
US11232605B2 (en) 2019-11-26 2022-01-25 Seiko Epson Corporation Method for generating image data, program, and information processing device
US11524235B2 (en) * 2020-07-29 2022-12-13 AniCast RM Inc. Animation production system

Also Published As

Publication number Publication date
JP4989605B2 (en) 2012-08-01

Similar Documents

Publication Publication Date Title
JP4989605B2 (en) Simple animation creation device
JP6276882B1 (en) Information processing method, apparatus, and program for causing computer to execute information processing method
JP7272356B2 (en) Image processing device, image processing method, program
JP7348895B2 (en) System and method for controlling virtual camera
JP5785254B2 (en) Real-time animation of facial expressions
US9928665B2 (en) Method and system for editing scene in three-dimensional space
US20040036711A1 (en) Force frames in animation
Müller et al. Spatialproto: Exploring real-world motion captures for rapid prototyping of interactive mixed reality
US6628286B1 (en) Method and apparatus for inserting external transformations into computer animations
KR101757765B1 (en) System and method for producing 3d animation based on motioncapture
CN107844195B (en) Intel RealSense-based development method and system for virtual driving application of automobile
US11778283B2 (en) Video distribution system for live distributing video containing animation of character object generated based on motion of actors
JP5190524B2 (en) Object operation apparatus and method, and program
JP6672414B1 (en) Drawing program, recording medium, drawing control device, drawing control method
US20240163527A1 (en) Video generation method and apparatus, computer device, and storage medium
US20160344946A1 (en) Screen System
JP5214267B2 (en) Video production system and video production method
JP6554139B2 (en) Information processing method, apparatus, and program for causing computer to execute information processing method
KR20070025384A (en) Method and server for making dancing avatar and method for providing applied service by using the dancing avatar
Velho et al. Expanded Virtual Puppeteering.
JP2004246877A (en) Program projecting image onto game character, game machine incorporating program, storage medium storing program
Quevedo-Fernández et al. idAnimate: a general-Purpose animation sketching tool for Multi-Touch devices
JP2019117452A (en) Information processing program, information processing apparatus, information processing system and information processing method
Lupiac et al. Expanded Virtual Puppeteering
JP7441289B1 (en) Computer program, information processing terminal, and its control method

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110207

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110308

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110525

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20110602

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20110624

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120427

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4989605

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150511

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150511

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150511

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250