JP2002074383A - Method and device for generating character animation - Google Patents

Method and device for generating character animation

Info

Publication number
JP2002074383A
JP2002074383A JP2000266927A JP2000266927A JP2002074383A JP 2002074383 A JP2002074383 A JP 2002074383A JP 2000266927 A JP2000266927 A JP 2000266927A JP 2000266927 A JP2000266927 A JP 2000266927A JP 2002074383 A JP2002074383 A JP 2002074383A
Authority
JP
Japan
Prior art keywords
animation
character
script
basic
animation data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000266927A
Other languages
Japanese (ja)
Inventor
Yasunori Oto
康紀 大戸
Yuichi Ueda
裕一 上田
Takashi Nozaki
隆志 野崎
Yoichiro Onoda
陽一郎 斧田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2000266927A priority Critical patent/JP2002074383A/en
Publication of JP2002074383A publication Critical patent/JP2002074383A/en
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

PROBLEM TO BE SOLVED: To efficiently generate an animation. SOLUTION: An animation database 13 stores the set of basic animation data expressing the basic motions of a character. A script storage part 14 stores plural scripts. Each of scripts describes how to synthesize a new animation from the basic animation data expressing the motions of the character and describes the generation and synthesis of animations and correspondence with an event. The events generated outsides and insides are dispatched through an event processing part 12 to a script performing part 11, a correspondent script is performed and an internal state is transited. The script 2 part performing 11 performs the interpretation of the script, synthesizes basic animation data, generates and outputs a new animation.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、仮想的なキャラク
ターを作成し、その動きをアニメーションとして生成す
ることによって、ネットワークにおけるアバターやゲー
ムの登場人物などを演じさせる技術に関する。この技術
はアニメーションの生成時に利用され、通信、ゲーム、
映像コンテンツに幅広く適用される。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a technique for creating an avatar or a character in a game on a network by creating a virtual character and generating the movement as an animation. This technology is used to generate animations,
Widely applied to video content.

【0002】[0002]

【従来の技術】従来のキャラクターアニメーションにお
いては、いろいろなイベントによって必要となるアニメ
ーションをすべて作成していた。そして発生するイベン
トに対応するアニメーションを選択し、それを再生する
ということが行われていた。
2. Description of the Related Art In conventional character animation, all animations required for various events have been created. Then, an animation corresponding to an event to be generated is selected and played.

【0003】[0003]

【発明が解決しようとする課題】従来の技術では、キャ
ラクターに取らせたい動きをアニメーションのレベルか
らいくつも作成してデータベース化しておき、必要に応
じて選択して再生するということが行われていた。この
ため、アニメーションの開発効率が悪かった。本発明で
は、基本的なアニメーションだけをデータベース化して
おき、イベントに対応して複数の必要なアニメーション
を合成することによって適切なアニメーションを生成し
ようとするものである。
In the prior art, a number of movements that the character wants to take are created from the animation level and stored in a database, which is selected and reproduced as needed. Was. For this reason, animation development efficiency was poor. According to the present invention, only a basic animation is stored in a database, and an appropriate animation is generated by synthesizing a plurality of necessary animations in response to an event.

【0004】[0004]

【課題を解決するための手段】本発明によれば、アニメ
ーションの開発効率等を改善するために、特許請求の範
囲の記載のとおりの構成を採用している。ここでは、特
許請求の範囲の記載について補充的な説明を行う。
According to the present invention, in order to improve the development efficiency of animation and the like, a configuration as described in the claims is adopted. Here, a supplementary explanation will be given for the description of the claims.

【0005】本発明の概要を説明する。本発明の一側面
では、基本的なアニメーション(基本アニメーション)
のデータを先に配布、あるいは適宜配布することにして
おき、この後にキャラクターの振る舞いを記述するスク
リプトを設定、あるいは配布することによって、任意の
キャラクターアニメーションを行う。複数の基本アニメ
ーションを合成して新しいアニメーションを生成してい
くため、あらかじめ想定したたくさんのアニメーション
を用意しておく必要がない。また、基本アニメーション
のセットに対して、振る舞いを記述したスクリプトを作
用させるため、キャラクターの振る舞いを容易に変える
ことができ、また異なるキャラクターに対しても同じス
クリプトを利用できるため振る舞いの開発効率が向上す
る。
An outline of the present invention will be described. According to one aspect of the present invention, a basic animation (basic animation)
Is distributed first, or is distributed as appropriate, and thereafter, by setting or distributing a script describing the behavior of the character, an arbitrary character animation is performed. Since multiple basic animations are combined to generate a new animation, there is no need to prepare many animations in advance. In addition, a script describing the behavior is applied to the set of basic animations, so the behavior of the character can be easily changed, and the same script can be used for different characters, improving the development efficiency of the behavior I do.

【0006】さらに、本発明を説明する。本発明によれ
ば、キャラクターアニメーションの生成方法において、
それぞれ異なる動きを表す複数の基本アニメーションデ
ータをデータベースに記憶するステップと、キャラクタ
ーの振る舞いを記述する振る舞い記述データを記憶する
ステップと、上記振る舞い記述データに基づいて上記デ
ータベースに記憶されている基本アニメーションデータ
から合成アニメーションデータを生成するステップとを
実行するようにしている。
Further, the present invention will be described. According to the present invention, in a method for generating a character animation,
A step of storing a plurality of basic animation data each representing a different motion in a database; a step of storing behavior description data describing a behavior of a character; and a basic animation data stored in the database based on the behavior description data. And generating synthetic animation data from the program.

【0007】この構成においては、少ない基本アニメー
ションデータを素材として振舞い記述データで振る舞い
を記述して多様なアニメーションを合成することができ
る。
In this configuration, a variety of animations can be synthesized by describing the behavior with the behavior description data using a small amount of basic animation data as a material.

【0008】振る舞い記述データは、例えば所定のスク
リプト言語で記述されたスクリプトであり、スクリプト
実行環境を具備する情報処理機器で実行することができ
る。振る舞いは、限定された動きをそれぞれ記述する基
本アニメーションデータを複数組合せ補間手法により新
たなアニメーションデータを生成することを記述した
り、イベントに応じて基本アニメーションデータや新た
なアニメーションデータを起動したり、1の動き(アニ
メーションデータ)から他の動き(アニメーションデー
タ)へ遷移させたりすることを記述する。
[0008] The behavior description data is, for example, a script described in a predetermined script language, and can be executed by an information processing device having a script execution environment. The behavior describes that new animation data is generated by a combination of basic animation data that describes limited movements respectively, and it activates basic animation data or new animation data according to events, A transition from one movement (animation data) to another movement (animation data) is described.

【0009】上記振る舞いデータ(スクリプト)は、編
集環境においてユーザ自ら生成することもでき、また、
インターネット等の通信網、放送チャネル等を介して入
手したり、コンパクトディスク、ミニディスク、フロッ
ピー(登録商標)ディスク等の記録媒体を利用して入手
することもできる。振る舞いデータを処理可能な環境に
おいて、基本アニメーションデータを保持していれば振
る舞い記述データを入手するだけで多様なアニメーショ
ンを利用することが可能になる。振る舞いデータを処理
可能な環境は種々の情報処理機器で可能であり、ゲーム
機、パーソナルコンピュータ、インテリジェント電話
機、マルチメディアキオクス、インテリジェント家庭電
気製品等に適用可能である。
The behavior data (script) can be generated by the user himself in an editing environment.
It can be obtained through a communication network such as the Internet, a broadcast channel, or the like, or can be obtained using a recording medium such as a compact disk, a mini disk, and a floppy (registered trademark) disk. In an environment where behavior data can be processed, if basic animation data is held, various animations can be used just by acquiring behavior description data. The environment in which the behavior data can be processed is possible with various information processing devices, and is applicable to game machines, personal computers, intelligent telephones, multimedia kiosks, intelligent home appliances, and the like.

【0010】上記振る舞いデータ(スクリプト)のほか
に基本アニメーションを通信網、放送シャネル、記録媒
体等を介して頒布するようにしてもよい。
[0010] In addition to the behavior data (script), a basic animation may be distributed via a communication network, a broadcast channel, a recording medium, or the like.

【0011】なお、本発明は装置またはシステムとして
実現できるのみでなく、方法としても実現可能である。
また、そのような発明の一部をソフトウェアとして構成
することができることはもちろんである。またそのよう
なソフトウェアをコンピュータに実行させるために用い
るソフトウェア製品(記録媒体)も本発明の技術的な範
囲に含まれることも当然である。
Note that the present invention can be realized not only as an apparatus or a system but also as a method.
In addition, it goes without saying that a part of such an invention can be configured as software. Also, it goes without saying that a software product (recording medium) used for causing a computer to execute such software is also included in the technical scope of the present invention.

【0012】また、上記振る舞い記述データ例えば振る
舞いを記述したスクリプトを記録したコンピュータ読取
り可能な記録媒体も本発明の技術的な範囲に含まれるこ
とはもちろんである。
Further, it is a matter of course that a computer-readable recording medium in which the behavior description data, for example, a script in which the behavior is described, is recorded is also included in the technical scope of the present invention.

【0013】[0013]

【発明の実施の形態】以下、本発明の実施例について説
明する。ここでは、本発明のキャラクターアニメーショ
ンを実現するための装置の説明をしたあと、この装置上
で動作するアニメーション合成によるキャラクターアニ
メーションの生成の全体像の説明を行う。
Embodiments of the present invention will be described below. Here, after describing a device for realizing the character animation of the present invention, an overall image of generation of a character animation by animation synthesis operating on this device will be described.

【0014】図1は、本発明の実施例を全体として示し
ており、この図において、アニメーション自動生成装置
10は、スクリプト実行部11、イベント処理部12、
アニメーションデータベース13、スクリプト記憶部1
4、入力装置15、出力装置16等を含んで構成されて
いる。アニメーション自動生成装置10は、実際には、
ゲーム機、パーソナルコンピュータ等に実装される。ア
ニメーション編集装置として構成してもよい。
FIG. 1 shows an embodiment of the present invention as a whole. In FIG. 1, an automatic animation generation apparatus 10 includes a script execution unit 11, an event processing unit 12,
Animation database 13, script storage unit 1
4, an input device 15, an output device 16, and the like. The animation automatic generation device 10 is actually
It is implemented in game machines, personal computers, and the like. It may be configured as an animation editing device.

【0015】スクリプト実行部11は、所定のスクリプ
ト言語で記述されたスクリプトを解釈実行するものであ
る。個々のスクリプトは、後に詳述するように、基本ア
ニメーションデータを用いてキャラクターの振る舞いを
表すアニメーションを合成するものである。このスクリ
プトは、オブジェクトとして個々の振る舞いを記述し、
イベントが入力されるとそれに応じた動作を表すアニメ
ーションを順次生成し、また適宜にイベントを生成す
る。イベント処理部12は、入力装置15からのイベン
ト(外部イベント)やスクリプト自体が生成したイベン
トに対してリダイレクト等の処理を実行するものであ
る。アニメーションデータベース13は、限定された数
の基本アニメーションデータを保持するものである。基
本アニメーションデータは、歩く、走る、飛ぶ、回る等
のキャラクターの基本的な動作を表すものである。スク
リプト記憶部14は振る舞いを記述するスクリプトを記
憶するものである。スクリプトや基本アニメーション
は、ローカルで編集作成してもよいし、インターネット
等の通信網や放送チャネル(例えばデータ放送)やCD
−ROM、ミニディスク、フロッピーディスク、DVD
(デジタル・バーサタイル・ディスク)等の可搬記録媒
体を用いて外部から入手するようにしてもよい。入力装
置15は、コントローラ(ゲーム機)や、マウス装置、
キーボード等である。出力装置16は例えばディスプレ
イである。合成したアニメーションデータを記録装置に
記録してもよい。
The script execution section 11 interprets and executes a script described in a predetermined script language. As will be described in detail later, each script synthesizes an animation representing the behavior of the character using the basic animation data. This script describes each behavior as an object,
When an event is input, an animation representing an operation corresponding to the event is sequentially generated, and the event is generated as appropriate. The event processing unit 12 performs processing such as redirection on an event (external event) from the input device 15 or an event generated by the script itself. The animation database 13 holds a limited number of basic animation data. The basic animation data represents basic movements of a character, such as walking, running, flying, and turning. The script storage unit 14 stores a script describing behavior. Scripts and basic animations may be edited and created locally, communication networks such as the Internet, broadcast channels (for example, data broadcasting), and CDs.
-ROM, mini disk, floppy disk, DVD
(Digital versatile disk) or other portable recording medium may be used to obtain it from outside. The input device 15 includes a controller (game machine), a mouse device,
It is a keyboard or the like. The output device 16 is, for example, a display. The synthesized animation data may be recorded in a recording device.

【0016】次に、基本アニメーションの種類について
説明を行い、これを用いたキャラクターの振る舞い設定
についての説明を行う。
Next, the types of the basic animation will be described, and the behavior setting of the character using the basic animation will be described.

【0017】図2は、キャラクターアニメーション(基
本アニメーション)と振る舞いを記述したスクリプトを
分離して与えることを示す。用意する基本アニメーショ
ンとして、「歩く」や「物を掴む」など、そのキャラク
ターに行わせようとする動きの大まかなものを与えてお
く。なお、後で新たなアニメーションが必要になった場
合、適宜、スクリプトは、イベントの種類、基本アニメ
ーションの合成方法の指定、イベントとアニメーション
の関係などについて記述することにより、個々のアニメ
ーションを基にした新たなアニメーションの利用、およ
び、柔軟なキャラクターの振る舞いを定義することがで
きる。
FIG. 2 shows that a script describing a character animation (basic animation) and a behavior are given separately. As a basic animation to be prepared, give a rough motion such as "walk" or "grab an object" to be performed by the character. If a new animation is needed later, the script will be based on the individual animation by appropriately describing the type of event, the method of compositing the basic animation, and the relationship between the event and the animation. Use of new animations and flexible character behaviors can be defined.

【0018】以降、キャラクターとこれが持つアニメー
ション、および、振る舞いを記述するスクリプトの集合
をアクターと呼ぶことにする。
Hereinafter, a set of a script that describes a character, its animation, and its behavior will be referred to as an actor.

【0019】図3に、アクターがスクリプトを処理する
際の動作を示す。アクターは自分が保持するスクリプト
または外部から与えられたスクリプトを順次解釈し、ア
クターの内部や外部にイベントを発生させる。発生した
イベントは別のスクリプトの実行を促したり、登録され
ているアニメーションまたは合成によって得られるアニ
メーションを起動する。また、アニメーションの起動に
よって、これまで表示していたアニメーションとの遷移
的な合成を行うことにより、滑らかなアニメーションを
自動的に生成する。またユーザがコントローラを使って
イイベントを発生させることにより、アクターを外部か
ら制御することができる。
FIG. 3 shows an operation when an actor processes a script. The actor sequentially interprets a script held by the actor or a script given from the outside, and generates an event inside or outside the actor. The generated event prompts the execution of another script or activates a registered animation or an animation obtained by synthesis. In addition, when the animation is activated, a smooth animation is automatically generated by performing a transitional synthesis with the animation that has been displayed so far. In addition, the user can control the actor from outside by generating an event using the controller.

【0020】アニメーション合成は、複数の基本アニメ
ーションに対して補間処理を実行して新たなアニメーシ
ョンを生成することにより行う。補間処理は、線形補間
でもよいし、非線型補間でもよい。例えば、本出願人が
提案したアニメーション合成手法(特開平2000−1
1199号公報「アニメーションの自動生成方法」)を
採用することができる。
The animation synthesis is performed by executing interpolation processing on a plurality of basic animations to generate a new animation. The interpolation processing may be linear interpolation or non-linear interpolation. For example, an animation synthesizing method proposed by the present applicant (JP-A-2000-1)
1199, “Automatic Animation Generation Method”).

【0021】図4は、速度の異なる2つの歩行アニメー
ションから、速度をスクリプト側で調整できる新たなア
ニメーションを作成するところを示す。(a)に合成ア
ニメーション生成のためのスクリプトを示す。また
(b)に実際の合成の様子を示す。スクリプトでは、変
数tとして2つのアニメーション間の配分を調整する設
定を行った後、0から1まですこしずつtを増やしてい
くことによって、歩く速度を早くしている。またtをイ
ベントに連動して変化させることも可能である。
FIG. 4 shows the creation of a new animation in which the speed can be adjusted on the script side from two walking animations having different speeds. (A) shows a script for generating a synthetic animation. Also, (b) shows the actual state of synthesis. In the script, after setting the variable t to adjust the distribution between the two animations, the walking speed is increased by gradually increasing t from 0 to 1. Further, t can be changed in conjunction with an event.

【0022】図5に、直進するアニメーションと方向変
換するアニメーションを合成することにより、適当な曲
がり角度を持つアニメーションの生成例を示す。(a)
は振る舞いを記述したスクリプトであり、まっすぐ歩く
アニメーションを起動した後、2つのイベントによって
アクターが方向を変えることを指定している。(b)は
2つのアニメーションのが合成によって生成する、歩き
ながら緩やかに方向転換を行うアニメーションを示して
いる。(c)は、合成を行うタイミングとしてのイベン
トと、合成に用いられる重みの変化について示してい
る。なお、図では、固定の重みをとる場合について示し
ているが、合成比率をスクリプトで指定することも可能
である。
FIG. 5 shows an example of generating an animation having an appropriate bending angle by synthesizing an animation that goes straight and an animation that changes direction. (A)
Is a script that describes the behavior, and specifies that the actor changes direction by two events after activating the walking animation. (B) shows an animation that is generated by combining two animations and that slowly changes direction while walking. (C) shows an event as a timing for performing composition and a change in weight used for composition. Although the figure shows a case where a fixed weight is used, the combination ratio can be specified by a script.

【0023】図6では、部分的に指定したアニメーショ
ンを合成することにより、より複雑なアニメーションを
スクリプトによって合成することを示している。(a)
は、腰を下ろしてタバコを吸うアニメーションを合成す
るためのスクリプトを示している。ここで、合成のタイ
ミングを適宜ずらすことができるため、足を組むタイミ
ングとたばこに火をつけるタイミングなどを自由に設定
することができる。(b)に、腰を下ろす部分アニメー
ションとタバコを吸う部分アニメーションを、腰を下ろ
すアニメーションに加えることによって、望みのアニメ
ーションを生成しているところを示している。
FIG. 6 shows that a more complicated animation is synthesized by a script by synthesizing a partially specified animation. (A)
Shows a script for composing an animation of sitting down and smoking a cigarette. Here, since the synthesis timing can be shifted as appropriate, the timing of crossing legs and the timing of lighting a cigarette can be freely set. (B) shows that a desired animation is generated by adding a partial animation of sitting down and a partial animation of smoking a cigarette to the animation of sitting down.

【0024】次に、人間の表情は静止したものではなく
時間的な広がりがある。このため、図7に示すように、
使用する表情アニメーションを用意しておき、イベント
による遷移的なアニメーション合成を行うことによっ
て、表情を表現することもできる。(a)は各表現のア
ニメーションを示しており、(b)はイベントによるア
ニメーションの遷移状態を示している。
Next, human expressions are not stationary but have a temporal spread. Therefore, as shown in FIG.
A facial expression to be used can be prepared, and a facial expression can be expressed by performing a transitional animation composition by an event. (A) shows an animation of each expression, and (b) shows a transition state of animation by an event.

【0025】次に、図8に示すような、発声に対する顔
を用意しておき、図8に示すように、母音や子音をイベ
ントとして用いることによって、リップシンクを行うこ
とができる。
Next, a lip sync can be performed by preparing a face for utterance as shown in FIG. 8 and using vowels and consonants as events as shown in FIG.

【0026】このように、この実施例のいては、基とな
るアニメーションを容易しておき、別途、スクリプトに
よって、新たなアニメーションを動的に生成することが
できるため、予め、必要となるアニメーションをすべて
用意する必要がなくなるだけでなく、イベントと密接に
絡んだアニメーションを動的に生成することができるた
め、よりインタラクティブなコンテンツを作成すること
が可能となる。
As described above, in this embodiment, the original animation can be easily created, and a new animation can be dynamically generated by a separate script. Not only is it unnecessary to prepare all of them, but also animations closely related to events can be dynamically generated, so that more interactive contents can be created.

【0027】また、スクリプトを書き換えたり、他のキ
ャラクターに転用することが可能であり、コンテンツ開
発における、アニメーションの作成時間を軽減すること
ができる。
Also, the script can be rewritten or diverted to another character, and the time required to create an animation in content development can be reduced.

【0028】[0028]

【発明の効果】本発明によれば、アニメーションの制作
において、基本的なアニメーションをデータベースなど
のセットとして用意しておき、それらに対して振る舞い
を記述するスクリプトを作用させ、また、それに対応す
る複数のアニメーションを合成して生成することで、キ
ャラクターの振る舞いを容易に変えたり、新しく生成し
たりすることを可能にする。加えて、これらのスクリプ
トは異なるモデルのキャラクターに対しても適用可能で
ある。これらのことから、アニメーション制作におい
て、その制作工程の効率を飛躍的に向上させることがで
きる。
According to the present invention, in the production of animation, basic animations are prepared as a set such as a database, and a script for describing the behavior is applied to them. By synthesizing and generating an animation, it is possible to easily change the behavior of the character or create a new one. In addition, these scripts can be applied to different models of characters. From these facts, it is possible to dramatically improve the efficiency of the production process in animation production.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本発明の実施例を全体として示すブロック図
である。
FIG. 1 is a block diagram showing an embodiment of the present invention as a whole.

【図2】 上述実施例において基本アニメーションデー
タおよびスクリプトを別々に保持する態様を説明する図
である。
FIG. 2 is a diagram illustrating a mode in which basic animation data and a script are separately stored in the above-described embodiment.

【図3】 上述実施例の動作を説明する図である。FIG. 3 is a diagram illustrating the operation of the above embodiment.

【図4】 同系の2つの基本アニメーションを重み付け
加算して合成アニメーションを生成する動作を説明する
図である。
FIG. 4 is a diagram illustrating an operation of generating a composite animation by weighting and adding two similar basic animations.

【図5】 異なる系列の2つの基本アニメーションを重
ね合わせることにより合成アニメーションを生成する動
作を説明する図である。
FIG. 5 is a diagram illustrating an operation of generating a synthetic animation by superimposing two basic animations of different series.

【図6】 キャラクターの部分のアニメーションを加え
ることによって合成アニメーションを生成する動作を説
明する図である。
FIG. 6 is a diagram illustrating an operation of generating a synthetic animation by adding an animation of a character part.

【図7】 表情アニメーションを顔の部分のアニメーシ
ョンとして加えることによって合成アニメーションを生
成する動作を説明する図である。
FIG. 7 is a diagram illustrating an operation of generating a synthetic animation by adding a facial expression animation as an animation of a face part.

【図8】 発音に伴う顔の変化を説明する図である。FIG. 8 is a diagram illustrating a change of a face accompanying sound generation.

【図9】 音声に含まれる母音や子音をイベントとして
顔の表情アニメーション合成を実行することによってリ
ップシンクを行う動作を説明する図である。
FIG. 9 is a diagram illustrating an operation of performing lip sync by executing facial expression animation synthesis using vowels and consonants included in voice as an event.

【符号の説明】[Explanation of symbols]

10 アニメーション自動生成装置 11 スクリプト実行部 12 イベント処理部 13 アニメーションデータベース 14 スクリプト記憶部 15 入力装置 16 出力装置 DESCRIPTION OF SYMBOLS 10 Automatic animation generation apparatus 11 Script execution part 12 Event processing part 13 Animation database 14 Script storage part 15 Input device 16 Output device

フロントページの続き (72)発明者 野崎 隆志 東京都品川区東五反田1丁目14番10号 株 式会社ソニー木原研究所内 (72)発明者 斧田 陽一郎 東京都品川区東五反田1丁目14番10号 株 式会社ソニー木原研究所内 Fターム(参考) 5B050 BA08 BA12 EA19 FA10 FA19Continued on the front page (72) Inventor Takashi Nozaki 1-14-10 Higashi-Gotanda, Shinagawa-ku, Tokyo Stock inside Sony Kihara Research Laboratories (72) Inventor Yoichiro Axta 1-14-10 Higashi-Gotanda, Shinagawa-ku, Tokyo F-term (reference) in Sony Kihara Laboratories, Inc. 5B050 BA08 BA12 EA19 FA10 FA19

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】 キャラクターアニメーションの生成方法
において、 それぞれ異なる動きを表す複数の基本アニメーションデ
ータをデータベースに記憶するステップと、 キャラクターの振る舞いを記述する振る舞い記述データ
を記憶するステップと、 上記振る舞い記述データに基づいて上記データベースに
記憶されている基本アニメーションデータから合成アニ
メーションデータを生成するステップとを有することを
特徴とするキャラクターアニメーション生成方法。
1. A method for generating a character animation, comprising the steps of: storing a plurality of basic animation data, each representing a different motion, in a database; storing behavior description data describing a behavior of a character; Generating synthetic animation data from basic animation data stored in said database based on said character animation data.
【請求項2】 所定のスクリプト言語で記述されたスク
リプトを実行する環境で行われ、かつ、上記振る舞い記
述データを上記スクリプトとして記憶し、上記スクリプ
トは少なくとも上記キャラクターの動きと1の動きから
他の動きへの遷移を起動するイベントとを記述する請求
項1記載のキャラクターアニメーション生成方法。
2. The method is executed in an environment in which a script described in a predetermined script language is executed, and the behavior description data is stored as the script. 2. The character animation generating method according to claim 1, wherein an event for activating a transition to a movement is described.
【請求項3】 スクリプトに記述されたキャラクターの
動きに必要となる基本アニメーションデータを一まとめ
にして上記データベースに記憶し、これら基本アニメー
ションデータを外部からのイベントに基づいて適宜合成
していくことによってキャラクターアニメーションを生
成する請求項2記載のキャラクターアニメーション生成
方法。
3. The basic animation data necessary for the movement of the character described in the script is collectively stored in the database, and the basic animation data is appropriately synthesized based on external events. 3. The character animation generation method according to claim 2, wherein the character animation is generated.
【請求項4】 上記基本アニメーションデータは、キャ
ラクターの動きとして喜怒哀楽等の感情、歩く、飛ぶ、
回るなどのアニメーションデータを含む請求項3記載の
キャラクターアニメーション生成方法。
4. The basic animation data includes emotions such as emotions, walking, flying,
The character animation generating method according to claim 3, further comprising animation data such as turning.
【請求項5】 上記基本アニメーションデータは、キャ
ラクターの動きとしてリップシンクのアニメーションデ
ータを含む請求項3記載のキャラクターアニメーション
生成方法。
5. The character animation generating method according to claim 3, wherein said basic animation data includes lip sync animation data as a character movement.
【請求項6】 上記データベースに記憶されている複数
の基本アニメーションデータに対して補間計算を実行し
て新たな1のアニメーションデータを生成する請求項1
記載のキャラクターアニメーション生成方法。
6. A new animation data is generated by performing an interpolation calculation on a plurality of basic animation data stored in the database.
The described character animation generation method.
【請求項7】 所定のスクリプト言語で記述されたスク
リプトを実行する環境でキャラクターアニメーションを
生成する方法において、 それぞれ異なる動きを表す複数の基本アニメーションデ
ータをデータベースに記憶するステップと、 キャラクターの振る舞いを記述するスクリプトを記憶す
るステップと、 イベントに基づいて対応する上記スクリプトを実行して
上記データベースに記憶されている基本アニメーション
データから合成アニメーションデータを生成するステッ
プとを有することを特徴とするキャラクターアニメーシ
ョン生成方法。
7. A method for generating a character animation in an environment in which a script written in a predetermined script language is executed, a step of storing a plurality of basic animation data each representing a different motion in a database, and describing a behavior of the character. Storing a script to be executed, and executing the corresponding script based on an event to generate synthetic animation data from basic animation data stored in the database. .
【請求項8】 キャラクターアニメーション生成装置に
おいて、 それぞれ異なる動きを表す複数の基本アニメーションデ
ータを記憶するデータベースと、 キャラクターの振る舞いを記述する振る舞い記述データ
を記憶する手段と、 上記振る舞い記述データに基づいて上記データベースに
記憶されている基本アニメーションデータから合成アニ
メーションデータを生成する手段とを有することを特徴
とするキャラクターアニメーション生成装置。
8. A character animation generating apparatus, comprising: a database for storing a plurality of basic animation data each representing a different motion; a means for storing behavior description data for describing the behavior of a character; Means for generating synthetic animation data from basic animation data stored in a database.
【請求項9】 キャラクターアニメーション生成用のコ
ンピュータプログラムを記録したコンピュータ読取り可
能な記録媒体において、 それぞれ異なる動きを表す複数の基本アニメーションデ
ータをデータベースに記憶するステップと、 キャラクターの振る舞いを記述する振る舞い記述データ
を記憶するステップと、 上記振る舞い記述データに基づいて上記データベースに
記憶されている基本アニメーションデータから合成アニ
メーションデータを生成するステップとをコンピュータ
に実行させるために用いるコンピュータプログラムを記
録したコンピュータ読取り可能な記録媒体。
9. A computer-readable recording medium on which a computer program for generating a character animation is recorded, wherein a plurality of basic animation data each representing a different motion are stored in a database, and behavior description data describing the behavior of the character. And a computer-readable recording recording a computer program used to cause a computer to execute the step of generating synthetic animation data from the basic animation data stored in the database based on the behavioral description data Medium.
【請求項10】 それぞれ異なる動きを表す複数の基本
アニメーションデータをデータベースに記憶し、所定の
スクリプト言語で記述されたスクリプトを実行して上記
基本アニメーションから合成アニメーションを生成する
計算機環境において用いられるスクリプトを、コンピュ
ータ読取り可能に記憶する記録媒体であって、上記スク
リプトは少なくともキャラクターの動きと1の動きから
他の動きへの遷移を起動するイベントとを上記基本アニ
メーションデータと関連付けて記述するコンピュータ読
取り可能な記録媒体。
10. A plurality of basic animation data each representing a different motion is stored in a database, and a script used in a computer environment for generating a synthetic animation from the basic animation by executing a script described in a predetermined script language is executed. A computer readable storage medium, wherein the script describes at least a character movement and an event that triggers a transition from one movement to another movement in association with the basic animation data. recoding media.
JP2000266927A 2000-09-04 2000-09-04 Method and device for generating character animation Pending JP2002074383A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000266927A JP2002074383A (en) 2000-09-04 2000-09-04 Method and device for generating character animation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000266927A JP2002074383A (en) 2000-09-04 2000-09-04 Method and device for generating character animation

Publications (1)

Publication Number Publication Date
JP2002074383A true JP2002074383A (en) 2002-03-15

Family

ID=18753932

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000266927A Pending JP2002074383A (en) 2000-09-04 2000-09-04 Method and device for generating character animation

Country Status (1)

Country Link
JP (1) JP2002074383A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005216149A (en) * 2004-01-30 2005-08-11 Ntt Docomo Inc Mobile communication terminal and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005216149A (en) * 2004-01-30 2005-08-11 Ntt Docomo Inc Mobile communication terminal and program
JP4559092B2 (en) * 2004-01-30 2010-10-06 株式会社エヌ・ティ・ティ・ドコモ Mobile communication terminal and program

Similar Documents

Publication Publication Date Title
US10372790B2 (en) System, method and apparatus for generating hand gesture animation determined on dialogue length and emotion
US7468728B2 (en) Apparatus for controlling a virtual environment
US5689618A (en) Advanced tools for speech synchronized animation
US20180143741A1 (en) Intelligent graphical feature generation for user content
US12067643B2 (en) Systems and methods for creating a 2D film from immersive content
JP4380042B2 (en) Animation generation method and apparatus
US20180276185A1 (en) System, apparatus and method for formatting a manuscript automatically
CN112348932B (en) Mouth-shaped animation recording method and device, electronic equipment and storage medium
WO2024060873A1 (en) Dynamic image generation method and device
JP2002074383A (en) Method and device for generating character animation
US11461948B2 (en) System and method for voice driven lip syncing and head reenactment
Neff et al. Layered performance animation with correlation maps
Ritschel et al. Implementing Parallel and Independent Movements for a Social Robot's Affective Expressions
Walther-Franks et al. The animation loop station: near real-time animation production
WO2021235525A1 (en) Content playback program and content playback device
JP2003203242A (en) Electronic cartoon creating system and electronic cartoon creating method
JP3871902B2 (en) Information processing apparatus, information processing method by computer, program for causing computer to execute information processing method, and recording medium recording the program
CN117333591A (en) Virtual character dynamic explanation generation method, system and medium based on AIGC
CN118433431A (en) Video playing method, device, storage medium and program product
JP2023162179A (en) Slide playback program, slide playback device, and slide playback method
Arya et al. Face animation: A case study for multimedia modeling and specification languages
Haraszti Creating a DJ-ready Web Player for Interactive Music
KR20240023963A (en) Apparatus and method for providing speech video
Duarte et al. A conversational avatar framework for digital interactive storytelling
Rodrigues et al. An Expressive Talking Head Narrator for an Interactive Storytelling System