JP3467406B2 - Animation generation method and computer graphics - Google Patents

Animation generation method and computer graphics

Info

Publication number
JP3467406B2
JP3467406B2 JP12576098A JP12576098A JP3467406B2 JP 3467406 B2 JP3467406 B2 JP 3467406B2 JP 12576098 A JP12576098 A JP 12576098A JP 12576098 A JP12576098 A JP 12576098A JP 3467406 B2 JP3467406 B2 JP 3467406B2
Authority
JP
Japan
Prior art keywords
motion
data
characteristic
model
motion data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP12576098A
Other languages
Japanese (ja)
Other versions
JPH11328439A (en
Inventor
將弘 渡邊
範人 渡辺
謙司 椎葉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP12576098A priority Critical patent/JP3467406B2/en
Publication of JPH11328439A publication Critical patent/JPH11328439A/en
Application granted granted Critical
Publication of JP3467406B2 publication Critical patent/JP3467406B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、動作データを元に
作成するアニメーションに係り、特にモデルに適用する
動作データの多様で自律的な変更を可能にしたアニメー
ション生成方法と、そのコンピュータグラフイックスに
関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an animation created based on motion data, and more particularly, to an animation generation method capable of various and autonomous modification of motion data applied to a model, and a computer graphic thereof. .

【0002】[0002]

【従来の技術】3次元アニメーションの生成方法とし
て、キーフレームアニメーションが周知であるが、この
アニメーションは人間などの自然な動作を表現すること
が難しい。このため、現実の動作を撮像して再生するモ
ーションキャプチャの方法がある。しかし、モーション
キャプチャはデータ量が多くなるので、動作データを編
集して新たな動作を作成するのに困難がある。
2. Description of the Related Art Key frame animation is well known as a method for generating a three-dimensional animation, but it is difficult for this animation to represent a natural motion of a human being or the like. Therefore, there is a method of motion capture in which an actual operation is imaged and reproduced. However, since the amount of data in motion capture is large, it is difficult to edit motion data and create a new motion.

【0003】この問題の解決策の一つとして、特開平4
−71078号に提案されている「多関節物体の動作表
現方法」がある。ここでは、モーションキャプチャされ
た動作データをフーリエ級数(FFTパラメータ)化
し、複数の動作データを補間することでアニメーション
を生成する。また、オペレータが基本動作を修飾する
「副詞」を指定することで、例えば基本動作の“歩く”
を「副詞」の“楽しく”で修飾した、“楽しく歩く”の
動作表現を可能にしている。
As one of the solutions to this problem, Japanese Unexamined Patent Publication No.
There is a "motion expression method for an articulated object" proposed in No. 71078. Here, animation is generated by converting motion-captured motion data into a Fourier series (FFT parameter) and interpolating a plurality of motion data. In addition, if the operator specifies a "adverb" that modifies the basic motion, for example, "walk" of the basic motion
It is possible to express the motion of "walking happily" by modifying the "adverb" with "fun".

【0004】[0004]

【発明が解決しようとする課題】上記した引用例の方法
は、モーションキャプチャされた複数の基本動作の間を
補間したり、基本動作から指定した「副詞」の変更動作
を生成するなど、モーションキャプチャされたデータを
基に新たな動作を生成することが容易になる。
SUMMARY OF THE INVENTION The method of the above cited example is a motion capture method such as interpolating between a plurality of motion-captured basic motions or generating a change motion of a designated "adverb" from the basic motions. It becomes easy to generate a new operation based on the obtained data.

【0005】しかし、基本動作を修飾するため「副詞」
を指定した以降のフレームの修飾動作は固定となる。ま
た、多数のモデルに対して同一の「副詞」で修飾する
と、モデルが違う場合にも同一の修飾動作となり、全体
としてみると不自然なアニメーションになる。このた
め、より自然なアニメーションを生成するには、フレー
ム毎、かつモデル毎に動作を変更するための「副詞」を
頻繁に指定しなければならず、オペレータの作業量が膨
大になるという問題点がある。
However, in order to modify the basic movement, "adverb"
The modification operation of the frame after specifying is fixed. In addition, if a number of models are modified with the same "adverb", the modification action will be the same even if the models are different, resulting in an unnatural animation as a whole. Therefore, in order to generate a more natural animation, it is necessary to frequently specify the "adverb" for changing the motion for each frame and for each model, resulting in a huge amount of operator work. There is.

【0006】本発明の目的は、上記した従来技術の問題
点を克服し、自然で多様なアニメーションを簡単に作成
できるアニメーション生成方法とコンピュータグラフイ
ックスを提供することにある。
It is an object of the present invention to provide an animation generation method and a computer graphic capable of overcoming the above-mentioned problems of the prior art and easily producing a variety of natural animations.

【0007】[0007]

【課題を解決するための手段】上記の課題を解決する本
発明は、複数のモデルについての複数の周期的動作デー
タや、その周期的動作に追従する特徴的動作データを蓄
積している動作データベースより、所望の動作と経路
(パス)及びモデルを指定して複数のフレームからなる
アニメーションを生成する方法において、動作名、モデ
ルの固有的特性と能力的特性からなるモデル特性及びフ
レーム数を指定した動作スケジュールを参照し、前記動
作データベースから指定の動作名と固有特性に最適な周
期的動作データと指定の能力特性の反映に適応した第1
の特徴的動作データを選択し、前者の動作データを全フ
レームに反映すると共に、後者の動作データをフレーム
毎に前記能力特性の変化を評価して可変し、前者と後者
の動作データをフレーム毎に合成する。
According to the present invention for solving the above-mentioned problems, a motion database storing a plurality of periodic motion data of a plurality of models and characteristic motion data following the periodic motion. Therefore, in the method of generating an animation consisting of a plurality of frames by designating a desired motion, path (path) and model, the motion name, the model characteristic consisting of the characteristic characteristic and the ability characteristic of the model, and the number of frames are designated. The first adapted to refer to the operation schedule and reflect the specified operation name and the specified operation characteristic from the operation database, the optimum cyclic operation data and the specified ability characteristic.
Characteristic data is selected, the former motion data is reflected in all frames, and the latter motion data is changed by evaluating the change in the performance characteristics for each frame. To synthesize.

【0008】すなわち、モデルの特性に性別や年齢など
の固有的特性と共に体力などの能力的特性を設定し、前
者は最適な周期的動作データをの選択に使用し、後者は
選択した基本動作に対して“疲れ”などの修飾動作を合
成する場合に、フレーム毎に体力の低下を計算し、その
結果に応じて合成比率を変化させる。
That is, the characteristic of the model is set with the characteristic such as the physical strength as well as the specific characteristic such as sex and age, the former is used for the selection of the optimum periodic motion data, and the latter is used for the selected basic motion. On the other hand, when synthesizing a modification action such as “tiredness”, a decrease in physical strength is calculated for each frame, and the synthesis ratio is changed according to the result.

【0009】同様に、モデルが存在する仮想空間の気温
などの環境特性を設定し、“寒い”などの修飾動作を合
成する場合に、フレーム毎に気温の変化を計算し、その
結果に応じて合成比率を変化させる。
Similarly, when the environmental characteristics such as the temperature of the virtual space in which the model is present are set and the modifying action such as "cold" is synthesized, the change of the temperature is calculated for each frame, and according to the result, Change the composition ratio.

【0010】また、本発明は、周期的動作データとその
周期的動作に追従する確率的動作データを蓄積してい
て、前記動作データベースから指定の動作名とモデル特
性に最適な周期的動作データを選択して全フレームに反
映すると共に、フレーム毎に指定の頻度から確率的動作
の実施の有無を判定し、実施する場合には当該フレーム
の周期的動作データに指定の動作名の確率的動作データ
を合成する。
Further, according to the present invention, the periodic motion data and the stochastic motion data following the periodic motion are accumulated, and the optimum cyclic motion data for the designated motion name and model characteristic is stored from the motion database. It is selected and reflected in all frames, and whether or not a probabilistic operation is performed is determined from the specified frequency for each frame, and if it is performed, the probabilistic operation data of the specified operation name is added to the periodic operation data of the frame. To synthesize.

【0011】前記周期的動作データは“走る”、“歩
く”“止まる”など、前記確率的動作データは“手を挙
げる”、“首を振る”などであり、動作スケジュールで
前者の1つの動作名に対して後者の動作名と頻度が設定
されている。例えば、頻度が50%であれば、2フレー
ム毎に乱数を発生して、その結果から確率的動作を合成
するか否かを決定する。これによれば、フレーム画面上
の多数のモデルに同じ確率的動作を設定した場合でもそ
の動作の実行は確率的となり、画一化されない。
The periodic motion data is "run", "walk", "stop", etc., and the stochastic motion data is "raise hands", "shake head", etc., and one of the former motions in the motion schedule. The latter action name and frequency are set for the name. For example, if the frequency is 50%, a random number is generated every two frames, and it is determined from the result whether or not the stochastic motion is combined. According to this, even if the same probabilistic operation is set for many models on the frame screen, the execution of the operation becomes probabilistic and is not uniformized.

【0012】また、本発明は、動作データベースに周期
的動作データとその動作の遷移順序を示す複数の動作遷
移列を格納し、前記動作データベースから最適な周期的
動作データと共に、その最適な動作が先頭となる動作遷
移列を選択し、選択した周期的動作データから開始して
フレームを作成するとともに、フレーム毎に前記能力特
性の変化を評価してその変化がしきい値を越えたとき、
選択した動作遷移列の次の動作名の周期的動作データに
変更してフレームを作成する。あるいは、前記動作スケ
ジュールに環境特性を指定し、モデルの前記特徴的特性
および/または前記環境特性がフレーム毎に変化してし
きい値を越えたとき、前記周期的動作データの変更を行
なう。
Further, according to the present invention, periodic motion data and a plurality of motion transition sequences indicating the transition order of the motions are stored in the motion database, and the optimum cyclic motion data is stored together with the optimum motion from the motion database. When the leading motion transition sequence is selected, a frame is created starting from the selected periodic motion data, and when the change in the performance characteristics is evaluated for each frame and the change exceeds a threshold value,
A frame is created by changing to the periodic motion data of the next motion name in the selected motion transition sequence. Alternatively, environmental characteristics are specified in the operation schedule, and when the characteristic characteristics of the model and / or the environmental characteristics change every frame and exceed a threshold value, the periodic operation data is changed.

【0013】これによれば、スケジュール化された基本
の動作そのものを変更できる。例えば、体力が所定値以
下になると“走る”から“歩く”に変化したり、環境特
性で“雨”が降り出すと“歩く”から“走る”に変更す
ることができる。
According to this, the basic scheduled operation itself can be changed. For example, it can be changed from "run" to "walk" when the physical strength is below a predetermined value, or can be changed from "walk" to "run" when "rain" begins to fall due to environmental characteristics.

【0014】本発明のコンピュータグラフイックスは、
上記アニメーションの生成方法を実現する機能を備える
とともに、前記動作スケジュールの入力画面や各設定内
容に対応したメニュー画面を表示してユーザの入力を良
いにするユーザインターフェースを備えている。
The computer graphics of the present invention is
In addition to having a function for realizing the above-described animation generation method, a user interface for displaying the operation schedule input screen and the menu screen corresponding to each setting content to improve the user's input is provided.

【0015】[0015]

【発明の実施の形態】以下、本発明の実施の形態につい
て図面を参照しながら詳細に説明する。図1は、コンピ
ュータグラフイックスによるアニメーション作成装置の
機能ブロック図を示す。
BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. FIG. 1 shows a functional block diagram of an animation creating apparatus using computer graphics.

【0016】アニメーション作成装置はデータベース
1、動作スケジュールを格納する動作スケジュールテー
ブル6、確率的に合成される動作を格納する確率的動作
テーブル7、モデル特性を格納するモデル特性テーブル
8、モデルの存在する仮想空間の環境特性を格納する環
境状態テーブル9、テーブル6〜9に情報を格納するユ
ーザーインターフェース10、テーブル6〜9の設定内
容に基づき動作データベース21からモデルに適用する
最適な動作データを選択する動作選択手段2、選択した
動作データと特徴量データなどを合成し、モデルの各関
節のモーションデータを作成する合成動作生成手段3、
モーションデータを基にパスに沿った移動量を生成する
移動量生成手段4、及びアニメーションを表示する表示
手段5から構成される。
The animation creating apparatus has a database 1, an operation schedule table 6 for storing operation schedules, a stochastic operation table 7 for storing stochastic synthesized operations, a model characteristic table 8 for storing model characteristics, and a model. An environment state table 9 that stores environment characteristics of the virtual space, a user interface 10 that stores information in tables 6 to 9, and optimum operation data to be applied to the model is selected from the operation database 21 based on the setting contents of the tables 6 to 9. A motion selecting unit 2, a composite motion generating unit 3 for creating motion data of each joint of a model by synthesizing the selected motion data and feature amount data,
It comprises a movement amount generating means 4 for generating a movement amount along a path based on motion data, and a display means 5 for displaying an animation.

【0017】データベース1には、動作のカテゴリー毎
にモデル、関節構造、実データなどを階層構成した動作
データベース21、モデル特性を格納したモデル特性デ
ータベース22、モデルの関節構造を格納した関節構造
データベース23、複数の動作遷移の組合せ(動作遷移
列)を格納した動作遷移データベース24を有してい
る。
The database 1 includes a motion database 21 in which models, joint structures, and actual data are hierarchically structured for each motion category, a model characteristic database 22 that stores model characteristics, and a joint structure database 23 that stores model joint structures. , A motion transition database 24 that stores a combination of a plurality of motion transitions (motion transition sequence).

【0018】図2は、一実施例による動作データベース
の構成を示す。動作データベース21は、“歩く”など
の基本の動作毎に1周期分のデータを保持するサイクリ
ック動作データ部211、サイクリック動作部211か
ら抽出し、基本動作を“元気”、“疲れ”などの「副
詞」に応じて修飾した動作データを保持する特徴量デー
タ部212、“手を挙げる”“転ぶ”などの動作データ
を生データ(モーションキャプチャのままでFFT変換
していない)を保持するRAW動作データ部213、
“走る”⇒“歩く”⇒“止まる”のように、遷移条件に
応じて変化する動作の組合せを格納した動作遷移テーブ
ル214を有している。各動作データ部は動作のカテゴ
リー215、動作を行なうモデルの特性216、動作デ
ータの関節構造217、実動作データ218から構成さ
れている。実動作データ218は、FFTパラメータま
たはRAWモーションデータである。
FIG. 2 shows the configuration of the operation database according to one embodiment. The motion database 21 is extracted from the cyclic motion data part 211 and cyclic motion part 211 that retains data for one cycle for each basic motion such as “walking”, and the basic motion is “energetic”, “tired”, etc. Of the feature amount data section 212 that holds the motion data modified according to the “adverb”, and holds the motion data such as “raise your hand” and “fall” as raw data (FFT conversion is not performed as it is in motion capture). RAW operation data section 213,
It has a motion transition table 214 that stores combinations of motions that change according to transition conditions such as “run” → “walk” → “stop”. Each motion data section is composed of a motion category 215, model characteristics 216 that perform a motion, a joint structure 217 of motion data, and actual motion data 218. The actual operation data 218 is FFT parameter or RAW motion data.

【0019】図2の動作データベース21の構成は、デ
ータベース1のもつモデル特性DB22、関節構造DB
23、動作遷移DB24それぞれのデータから動作カテ
ゴリー毎に編集したもので、実際には他のデータベース
のデータとの接続関係を格納している。したがって、他
のデータベースの構成も図2から自明であり、その詳細
な説明は省略する。なお、図2の動作遷移テーブル21
4は動作遷移データベース24そのものであり、実際に
は動作データベース21と別構成となる。
The structure of the motion database 21 shown in FIG. 2 has a model characteristic DB 22 and a joint structure DB included in the database 1.
23, the action transition DB 24 is edited for each action category, and actually stores the connection relation with the data of other databases. Therefore, the configuration of other databases is also obvious from FIG. 2, and detailed description thereof will be omitted. The operation transition table 21 of FIG.
Reference numeral 4 is the motion transition database 24 itself, which actually has a different configuration from the motion database 21.

【0020】図3は、モデルの関節構造を示している。
モデルを構成する関節は親子関係に階層付けられ、関節
間の位置と各関節の角度情報は親関節からの相対的な値
として管理される。例えば、最上位の親となる腰の関節
31の位置情報を変更すると、関節31の子となる首の
関節32および股の関節33も、仮想空間内での位置を
変更することができる。同様に、首の関節32の子とな
る左肩の関節34以降の関節など、全関節の位置を変更
できる。
FIG. 3 shows the joint structure of the model.
The joints that make up the model are hierarchized in a parent-child relationship, and the position between joints and the angle information of each joint are managed as relative values from the parent joint. For example, if the position information of the waist joint 31 that is the highest parent is changed, the positions of the neck joint 32 and the hip joint 33 that are the children of the joint 31 can also be changed in the virtual space. Similarly, the positions of all joints such as the joints on and after the joint 34 on the left shoulder, which is a child of the joint 32 on the neck, can be changed.

【0021】図4は、モデルの関節構造とFFTモーシ
ョンデータの説明図を示す。サイクリック動作データ1
11の例で、動作データの型41、総関節数42、関節
の位置情報43、1周期のフレーム数44および各関節
の角度情報をFFTのパラメータ化した実データ45に
より構成される。1周期のフレーム数が20の場合、実
データは20行存在する。各行は関節の親子の順に、x
軸、y軸およびz軸方向のFFTパラメータ化された角
度情報が、動作の初期位置を示す直流データと変化位置
を示す交流データを交互に記述している。
FIG. 4 is an explanatory view of the joint structure of the model and the FFT motion data. Cyclic motion data 1
In the eleventh example, the motion data type 41, the total number of joints 42, the joint position information 43, the number of frames in one cycle 44, and the angle information of each joint are FFT parameterized actual data 45. When the number of frames in one cycle is 20, there are 20 rows of actual data. Each line is x in the order of the parent and child of the joint.
The FFT parameterized angle information in the axis, y-axis, and z-axis directions alternately describes DC data indicating the initial position of operation and AC data indicating the changed position.

【0022】図5は、RAWモーションデータの説明図
を示す。RAW動作データ113の例で、図4と同様に
動作データの型51、総関節数52、関節の位置情報5
3、RAW動作データのフレーム数54および実データ
55が記述されている。サイクリック動作データとの違
いは、実データ55が生の角度情報となる点である。
FIG. 5 shows an explanatory diagram of RAW motion data. In the example of the RAW motion data 113, the motion data type 51, the total number of joints 52, and the joint position information 5 are the same as in FIG.
3, the number of frames 54 of RAW operation data and the actual data 55 are described. The difference from the cyclic motion data is that the actual data 55 becomes raw angle information.

【0023】図6は、ユーザーインターフェースの構成
を示す。ユーザーインターフェース10は画面上に構成
される入出力手段で、モデルに適用する動作(例えば、
“歩く”)を選択する動作選択ボタン61とその表示領
域62、動作の1周期のフレーム数を入力する表示領域
63、動作の経路(例えば、“パスA”)を選択する動
作パス選択ボタン64とその表示領域65、確率的動作
設定ボタン66と設定した確率的動作テーブル7内の識
別番号の表示領域67、モデル特性設定ボタン68と設
定したモデル特性テーブル8内の識別番号の表示領域6
9、環境状態設定ボタン610と設定した環境状態テー
ブル9内の識別番号の表示領域611、一連のスケジュ
ールの設定状態を一覧表示するスケジュール表示領域6
15及び総フレーム表示領域616が設けられている。
なお、ユーザインターフェース10のその他の構成は、
以下の説明で明らかになる。
FIG. 6 shows the structure of the user interface. The user interface 10 is an input / output unit configured on the screen, and an operation applied to the model (for example,
A motion selection button 61 for selecting "walk") and its display area 62, a display area 63 for inputting the number of frames in one cycle of motion, and a motion path selection button 64 for selecting a motion path (for example, "path A"). And its display area 65, the stochastic operation setting button 66 and the identification number display area 67 in the set stochastic operation table 7, and the model characteristic setting button 68 and the identification number display area 6 in the set model characteristic table 8.
9, an environmental status setting button 610, an identification number display area 611 in the set environmental status table 9, and a schedule display area 6 for displaying a list of a series of schedule setting statuses
15 and a total frame display area 616 are provided.
Other configurations of the user interface 10 are as follows.
It will become clear in the following description.

【0024】次に、本実施例によるアニメーションの生
成動作を説明する。まず、ユーザがインターフェース1
0により行なう動作スケジュールの作成、及びテーブル
6〜9の設定について説明する。上述の選択ボタンまた
は設定ボタンをオン(押)すると、ユーザーインターフ
ェース10に内蔵するメニュー処理機能(図示なし)が
起動し、該当するメニュー画面が表示される。
Next, an animation generation operation according to this embodiment will be described. First, the user selects interface 1
Creation of an operation schedule performed by setting 0 and setting of tables 6 to 9 will be described. When the selection button or the setting button described above is turned on (pressed), a menu processing function (not shown) built in the user interface 10 is activated and a corresponding menu screen is displayed.

【0025】図7に、動作選択メニューの一例を示す。
ユーザーが動作メニュー画面から任意の動作を選択する
と、ユーザーインターフェース10はその動作を選択動
作表示領域62に表示する。
FIG. 7 shows an example of the operation selection menu.
When the user selects an arbitrary action from the action menu screen, the user interface 10 displays the action in the selected action display area 62.

【0026】図8に、パス選択メニューの一例を示す。
パスA〜Cは経路座標が設定されているパス、オブジェ
クトA,Bは目的地の座標が設定されているパスであ
る。止まったままの動作は“パスなし”となる。各パス
には識別番号が付与されていて、ユーザの選択したパス
の識別番号が動作パス表示領域65に示される。
FIG. 8 shows an example of the path selection menu.
Paths A to C are paths for which route coordinates are set, and objects A and B are paths for which destination coordinates are set. The operation when stopped is “no path”. An identification number is assigned to each path, and the identification number of the path selected by the user is displayed in the operation path display area 65.

【0027】図9に、動作パスの説明図を示す。仮想空
間内に、人間のモデル91と始点93と終点94を持つ
曲線92およびオブジェクト95が存在する。曲線92
や立方体95には名前が付与されている。曲線92が経
路座標の設定された固定パスである。動作パスとしてオ
ブジェクト95を指定した場合、人間モデル91は、仮
想空間内の現在地からオブジェクト95の方向に直進す
る仮想的なパス96を想定して、指定動作を行なわせ
る。また、特定のオブジェクトを設定しないで、例え
ば、人間モデル91が現在向いている方向に対し、仮想
的パス97を想定して、指定動作を行なわせることも可
能である。
FIG. 9 shows an explanatory diagram of the operation path. In the virtual space, a human model 91, a curve 92 having a start point 93 and an end point 94, and an object 95 exist. Curve 92
A name is given to the cube 95. A curved line 92 is a fixed path with route coordinates set. When the object 95 is designated as the motion path, the human model 91 performs the designated motion assuming a virtual path 96 that goes straight from the current position in the virtual space toward the object 95. In addition, without setting a specific object, for example, it is possible to assume the virtual path 97 in the direction in which the human model 91 is currently facing and perform the designated operation.

【0028】図10に、確率動作設定メニューの一例を
示す。確率的動作設定ボタン66を押すと、確立動作設
定メニュー画面が表示される。この画面上で、確率的動
作表示領域101に登録番号を入力する。次に、動作選
択領域102から確率的動作を行なうもの、例えば“手
を振る”を選択し、頻度入力表示領域103にその動作
を実行する頻度、例えば“30%”を入力する。登録ボ
タン105を押すと、選択した確率的動作とその頻度が
確率的動作一覧表示領域104に表示される。
FIG. 10 shows an example of the stochastic operation setting menu. When the stochastic operation setting button 66 is pressed, the establishment operation setting menu screen is displayed. On this screen, the registration number is entered in the probabilistic motion display area 101. Next, a person who performs a probabilistic operation, for example, “waving hands” is selected from the operation selection area 102, and the frequency of executing the operation, for example, “30%” is input to the frequency input display area 103. When the registration button 105 is pressed, the selected stochastic motion and its frequency are displayed in the stochastic motion list display area 104.

【0029】複数の確率的動作を設定する場合は、上記
手順を繰り返す。確率的動作一覧表示領域104の内容
を変更する場合、該当の行を指示して削除ボタン106
を押し、内容の削除後に再設定する。終了ボタン107
を押すと、確率的動作表示領域104に表示している内
容が確率的動作テーブル7に格納される。このように確
率的動作の設定後、ユーザは図6の入力画面の領域67
に登録番号を入力し、動作スケジュールに使用する確率
的動作を設定する。
When setting a plurality of stochastic operations, the above procedure is repeated. When changing the contents of the stochastic operation list display area 104, the corresponding line is designated and the delete button 106
Press to reset after deleting the contents. Finish button 107
When is pressed, the contents displayed in the stochastic motion display area 104 are stored in the stochastic motion table 7. After setting the probabilistic operation in this way, the user selects the area 67 on the input screen of FIG.
Enter the registration number in and set the probabilistic action to use for the action schedule.

【0030】図11に、モデル特性設定メニューの一例
を示す。モデル特性設定ボタン68を押すと、モデル特
性設定メニュー画面が表示される。ここでは、識別番号
表示領域111に特性番号を入力し、モデル特性入力領
域112にモデル特性を設定する。モデル特性として種
類113、性別114、年齢115、体力116、体調
117などを入力できる。体力は、例えば10点満点で
任意に採点する。設定終了ボタン118を押すと、入力
した情報がモデル特性テーブル8に格納される。モデル
特性の設定後、ユーザは入力画面の領域69に特性番号
を入力し、動作スケジュールに使用するモデル特性を設
定する。
FIG. 11 shows an example of the model characteristic setting menu. When the model characteristic setting button 68 is pressed, the model characteristic setting menu screen is displayed. Here, the characteristic number is input in the identification number display area 111, and the model characteristic is set in the model characteristic input area 112. Type 113, gender 114, age 115, physical fitness 116, physical condition 117, etc. can be input as model characteristics. The physical strength is arbitrarily scored, for example, with a maximum of 10 points. When the setting end button 118 is pressed, the input information is stored in the model characteristic table 8. After setting the model characteristic, the user inputs the characteristic number in the area 69 of the input screen to set the model characteristic used for the operation schedule.

【0031】図12に、環境状態設定メニューの一例を
示す。環境状態設定ボタン610を押すと、環境状態設
定メニュー画面が表示される。ここでは、識別番号表示
領域121に環境番号を入力し、環境状態入力領域11
2に環境状態を設定する。環境特性として気温123、
光度124、風力(風速)125などが入力できる。終
了ボタン126を押すと、入力した環境情報が環境状態
テーブル9に格納される。環境状態の設定後、ユーザは
入力画面の領域611に環境番号を入力し、動作スケジ
ュールに使用する環境特性を設定する。
FIG. 12 shows an example of the environmental condition setting menu. When the environmental condition setting button 610 is pressed, the environmental condition setting menu screen is displayed. Here, the environment number is input in the identification number display area 121, and the environment state input area 11
Set the environmental condition to 2. Environmental temperature of 123,
Light intensity 124, wind power (wind speed) 125, etc. can be input. When the end button 126 is pressed, the input environmental information is stored in the environmental status table 9. After setting the environmental state, the user inputs the environmental number in the area 611 of the input screen to set the environmental characteristics used for the operation schedule.

【0032】一連のメニューにより選択した動作やパ
ス、及び設定テーブル7〜9の識別情報は、動作スケジ
ュール毎に設定したフレーム数と共にユーザーインター
フェース10の入力画面に表示される。この状態で、ス
ケジュール登録ボタン612を押すと、スケジュール表
示領域615に動作、フレーム数、動作パス、確率的動
作、モデル特性及び環境状態からなる動作スケジュール
が表示される。
The operation and path selected by the series of menus and the identification information of the setting tables 7 to 9 are displayed on the input screen of the user interface 10 together with the number of frames set for each operation schedule. In this state, when the schedule registration button 612 is pressed, the schedule display area 615 displays an action schedule including actions, the number of frames, action paths, stochastic actions, model characteristics, and environmental conditions.

【0033】ユーザーは上述の入力を繰り返し、スケジ
ュール表示領域615に複数の動作スケジュールを表示
していく。表示中のスケジュールを変更する場合、変更
するスケジュール行を選択して情報を変更し、スケジュ
ール変更ボタン613を押す。また、表示中のスケジュ
ールを削除する場合、削除するスケジュールの行を選択
し、スケジュール削除ボタン614を押す。なお、現在
表示中の全スケジュールの総フレーム数は、総フレーム
表示領域616に表示される。
The user repeats the above input and displays a plurality of operation schedules in the schedule display area 615. To change the displayed schedule, select the schedule line to be changed, change the information, and press the change schedule button 613. When deleting the displayed schedule, the line of the schedule to be deleted is selected and the schedule deletion button 614 is pressed. The total frame number of all schedules currently displayed is displayed in the total frame display area 616.

【0034】表示した動作スケジュールは、アニメーシ
ョン生成ボタン617を押すと動作スケジュールテーブ
ル6に格納される。なお、終了ボタン618を押すと、
各テーブルに格納した情報が破棄され、アニメーション
を生成せずに終了する。
The displayed operation schedule is stored in the operation schedule table 6 when the animation generation button 617 is pressed. If you press the end button 618,
The information stored in each table is discarded and the process ends without generating an animation.

【0035】次に、アニメーション作成の処理手順を説
明する。ユーザーインターフェース10でスケジュール
テーブル6の設定が終了し、アニメーション生成ボタン
617が押されると、動作選択手段2が起動される。
Next, a processing procedure for creating an animation will be described. When the setting of the schedule table 6 is completed on the user interface 10 and the animation generation button 617 is pressed, the operation selection unit 2 is activated.

【0036】図13に、動作選択手段の処理フローを示
す。動作選択手段2は、まず動作スケジュールテーブル
6を参照し、作成しようとしているアニメーションが最
終フレームかチェックする(s10)。最終フレームで
なければ、動作データの選択処理(s11)から動作遷
移の選択処理(s14)まで実行し、次段の合成動作生
成手段を起動(s15)して、一フレームの処理を終了
する。
FIG. 13 shows a processing flow of the operation selecting means. The motion selecting means 2 first refers to the motion schedule table 6 and checks whether the animation to be created is the final frame (s10). If it is not the final frame, the process from the operation data selection process (s11) to the operation transition selection process (s14) is executed, the next-stage synthesized action generation means is activated (s15), and the process for one frame is completed.

【0037】図14に、動作データ選択処理(s11)
の詳細を示す。まず、現在のフレームが、動作スケジュ
ールテーブル6の新たな動作スケジュールか判定する
(s111)。新たなスケジュールであれば、テーブル
6からそのスケジュールに指定された動作名とモデル特
性番号を取得し(s112)、モデル特性テーブル8か
ら該当のモデル情報を取得する(s113)。そして、
動作データベース21から指定の動作とモデルに最適な
動作データを検索する(s114)。
FIG. 14 shows the operation data selection process (s11).
Shows the details of. First, it is determined whether the current frame is a new operation schedule in the operation schedule table 6 (s111). If it is a new schedule, the operation name and model characteristic number designated for the schedule are acquired from the table 6 (s112), and the corresponding model information is acquired from the model characteristic table 8 (s113). And
The optimum motion data for the specified motion and model is searched from the motion database 21 (s114).

【0038】このとき、指定の動作とモデルが完全に一
致するデータがあるかチェックし(s115)、完全に
一致する動作データがあればそれを選択する(s11
6)。完全に一致する動作データのない場合、検索した
中で指定のモデル特性に最も近い動作データを選択する
(s117)。
At this time, it is checked whether there is data in which the specified action and the model completely match (s115), and if there is completely matching action data, it is selected (s11).
6). If there is no motion data that completely matches, the motion data that is closest to the specified model characteristics among the searched data is selected (s117).

【0039】例えば、スケジュールで指定の動作が「歩
く」に対して、そのフレームにおけるモデル特性が「人
間」・「男性」・「25歳」であれば、動作選択手段2
は動作データベース21を検索し、カテゴリーが「歩
く」の動作データで、上記モデル特性が完全に一致する
動作データの選択を試みる。そして、完全に一致するデ
ータがない場合は、指定の動作が一致し、モデル特性の
「人間」、「男性」、「25歳」の順に近いものを検索
する。通常、「歩く」の動作データに対し「人間」、
「男性」は用意されているので、年齢が25歳に最も近
い動作データが選択される。
For example, when the action specified by the schedule is "walking" and the model characteristics in that frame are "human", "male", and "25 years old", the action selecting means 2
Searches the motion database 21 and attempts to select motion data whose category is “walking” and whose motion characteristics match the model characteristics. Then, when there is no completely matching data, the specified behaviors are matched, and the model characteristics “human”, “male”, and “25 years old” are searched for in the order of closeness. Normally, for "walking" motion data, "human",
Since “male” is prepared, the motion data whose age is closest to 25 is selected.

【0040】次に、動作選択手段2は確率的動作の選択
処理を行なう(s12)。図15に、確率的動作の選択
処理の詳細を示す。まず、現在の動作に対し確率的動作
を選択済みかチェックする(s121)。既に確率的動
作が選択されている場合は、本処理を終了する。
Next, the motion selection means 2 performs a probabilistic motion selection process (s12). FIG. 15 shows details of the probabilistic motion selection processing. First, it is checked whether a probabilistic motion has been selected for the current motion (s121). If the stochastic operation has already been selected, this processing ends.

【0041】確率的動作が選択されていない場合、全登
録データに対する処理が終了するか又は1つの確率的動
作を決定するまで以下の処理が繰り返される。このた
め、動作スケジュールの登録番号で確率的動作テーブル
7を参照し、設定されている確率的動作の全データ数を
取得し、その登録データ数を越えるまで以下の処理を繰
り返す(s122)。
When the probabilistic action is not selected, the following process is repeated until the process for all registered data is completed or one probabilistic action is determined. Therefore, the probabilistic motion table 7 is referenced by the registration number of the motion schedule, the total number of set probabilistic motion data is acquired, and the following process is repeated until the number of registered data is exceeded (s122).

【0042】確率的動作データの動作名と頻度を取得し
(s123)、その頻度から今回、乱数を発生させるか
判定する(s124)。例えば、頻度が50%であれ
ば、2フレーム毎に乱数を発生させる。乱数を発生した
場合(s125)、その乱数が特定値より大きいかチェ
ックする(s126)。この例では、乱数が0.5より
大きいか判定し、大きい場合は現在の動作に確率的動作
を付加する(s127)。確率的動作が決定された場合
は直ちに本処理を終了する。
The action name and frequency of the probabilistic action data are acquired (s123), and it is determined whether or not a random number is generated this time from this frequency (s124). For example, if the frequency is 50%, a random number is generated every two frames. When a random number is generated (s125), it is checked whether the random number is larger than a specific value (s126). In this example, it is determined whether the random number is larger than 0.5, and if it is larger, a probabilistic motion is added to the current motion (s127). When the probabilistic action is determined, this processing is immediately terminated.

【0043】例えば、図6の動作スケジュールで「走る
(フレーム数75、パスC)」に設定されている登録1
の確率的動作が、図10の「手を振る(頻度30%)」
と「首を振る(頻度50%)」の2つとする。この場
合、「手を振る」確率的動作を付加するか否かは、「走
る」のフレーム数75中でその30%、つまり3フレー
ム毎に乱数を発生させて評価する。同様に、「首を振
る」動作は2フレーム毎に乱数を発生させて評価する。
乱数が、例えば0.5を越えた場合に、そのフレームで
確率的動作を実施する。
For example, registration 1 set to "run (75 frames, path C)" in the operation schedule of FIG.
The probabilistic motion of “waving hands (frequency 30%)” in FIG.
And "Shake your head (frequency 50%)". In this case, whether or not to add a probabilistic motion of "waving" is evaluated by generating a random number for every 30% of 75 frames of "running", that is, every 3 frames. Similarly, the "shaking" motion is performed by generating a random number every two frames for evaluation.
When the random number exceeds 0.5, for example, the stochastic operation is performed in the frame.

【0044】本実施例の確率的動作は基本動作の終了ま
で実行され、1つの確率的動作の実行中は他の確率的動
作の評価は中止する。つまり、単位の動作スケジュール
における確率的動作は1つのみとなる。これは複数の確
率的動作が同時的に成立すると、人間の動作としては不
自然になるためである。このため、1つの動作スケジュ
ールに複数の確率的動作が設定されている場合、その動
作の選択と実施の要否の両方を乱数発生によって決定す
る。
The stochastic operation of this embodiment is executed until the end of the basic operation, and while one stochastic operation is being executed, evaluation of another stochastic operation is stopped. That is, there is only one stochastic operation in the unit operation schedule. This is because if a plurality of stochastic actions are simultaneously established, it becomes unnatural as a human action. Therefore, when a plurality of stochastic actions are set in one action schedule, both the selection of the action and the necessity of execution are determined by random number generation.

【0045】次に、動作選択手段2は、環境状態による
合成動作の選択処理を行なう(s13)。図16に、環
境状態による合成動作選択処理の詳細を示す。ここで
は、図12の環境特性(気温、光度、風力)を例に説明
する。
Next, the operation selecting means 2 performs a selecting operation of the combining operation according to the environmental condition (s13). FIG. 16 shows details of the combining operation selection process depending on the environmental state. Here, the environmental characteristics (temperature, luminous intensity, wind power) of FIG. 12 will be described as an example.

【0046】まず、スケジュール中の環境番号から環境
状態テーブル8を参照し、設定されている気温が特定値
(ここでは、10度)以下か判定する(s131)。特
定値以上の場合、「寒い」という特徴量データの合成比
率は0とする(s132)。気温が特定値以下の場合、
「寒い」の合成比率は、例えば、合成比率=10−気温
+100(%)によって求める(s133)。
First, referring to the environmental condition table 8 from the environmental number in the schedule, it is determined whether the set temperature is below a specific value (here, 10 degrees) (s131). When it is equal to or more than the specific value, the synthesis ratio of the feature amount data of "cold" is set to 0 (s132). If the temperature is below a certain value,
The synthesis ratio of “cold” is obtained by, for example, synthesis ratio = 10−air temperature + 100 (%) (s133).

【0047】この“寒い合成比率”は、後述の各FFT
パラメータの合成処理で、「寒い」のFFTデータに乗
算される。ちなみに、特徴量データ部212に格納され
ている「寒い」のFFTデータは、体を「ぶるぶる」振
るわせる動作データで、それを合成比率でデータを増減
して基本動作に付加される。なお、“寒い合成比率”
は、気温のステップ変化に対応する値として求めてもよ
い。
This "cold synthesis ratio" is used for each FFT described later.
In the parameter combining process, the “cold” FFT data is multiplied. Incidentally, the “cold” FFT data stored in the feature amount data section 212 is motion data that causes the body to “smoothly” shake, and is added to the basic motion by increasing / decreasing the data at a synthesis ratio. "Cold synthesis ratio"
May be obtained as a value corresponding to a step change in temperature.

【0048】次に、設定されている光度の値が「夜」で
あるかを判定する(s134)。「夜」でない場合は、
動作パスに対する“ズレなし”とする(s135)。
「夜」の場合は、モデルが曲線パスに沿って方向を修正
しながら移動するときに、暗いので修正する方向の角度
に誤差を生じるとみて、後述の移動量生成で算出する方
向の角度に対して、例えば“+20%のズレ”を設定す
る(s136)。
Next, it is determined whether the set luminous intensity value is "night" (s134). If not "night",
“No deviation” is set for the operation path (s135).
In the case of “night”, when the model moves along the curved path while correcting the direction, it is dark, so it is assumed that an error will occur in the angle of the direction to be corrected. On the other hand, for example, "+ 20% shift" is set (s136).

【0049】次に、進行方向に逆むきの風力が特定値
(例えば、10m/s)以上かを判定する(s13
7)。風力が特定値より小さい場合、モデルの進行に対
する移動量の減算をなしとする(s138)。風力が特
定値以上の場合は、移動量の減算式(例えば、10・
(風力−10)(%))で、風力に応じた移動量の減算
比率を設定する(s139)。ちなみに、風力15m/
sでは、減算比率が50%となり、モデルの前進が通常
の半分になる。
Next, it is judged whether or not the wind force against the traveling direction is a specific value (for example, 10 m / s) or more (s13).
7). When the wind force is smaller than the specific value, the movement amount is not subtracted from the progress of the model (s138). When the wind power is above a specific value, the moving amount subtraction formula (for example, 10
(Wind force-10) (%)) is set to the subtraction ratio of the movement amount according to the wind force (s139). By the way, wind force 15m /
At s, the subtraction ratio is 50%, and the model advances by half.

【0050】次に、動作選択手段2は、モデル特性の評
価による動作遷移の選択処理を行なう(s14)。本実
施例では、動作スケジュールの進行によりモデルの体力
が低下して遷移条件を満たす場合に、動作遷移列に従っ
た動作の遷移を行なう。
Next, the action selecting means 2 performs the action transition selecting process based on the evaluation of the model characteristic (s14). In the present embodiment, when the physical strength of the model decreases due to the progress of the action schedule and the transition condition is satisfied, the action transition according to the action transition sequence is performed.

【0051】図17に、動作遷移の選択処理のフロー図
を示す。まず、モデル特性テーブル8から体力値を取得
し(s140)、体力値の減算(ここでは、0.01)
を行なう(s141)。次に、指定の動作に適用する動
作遷移列を決定済みか判定する(s142)。決定して
いない場合、指定の動作をキーに動作遷移テーブル21
4を検索し、該当する動作遷移列を候補(図2では、
“走る”の動作遷移列が3つある)として取得し(s1
43)、その候補数内での乱数を発生して、使用する動
作遷移列を決定する(s144)。
FIG. 17 shows a flow chart of the operation transition selection processing. First, a physical strength value is acquired from the model characteristic table 8 (s140), and the physical strength value is subtracted (here, 0.01).
Is performed (s141). Next, it is determined whether the action transition sequence to be applied to the designated action has been determined (s142). If not decided, the action transition table 21 using the designated action as a key
4 and searches for a corresponding motion transition sequence (in FIG. 2,
Obtained as "run" motion transition sequence (3) (s1
43), a random number within the number of candidates is generated to determine the motion transition sequence to be used (s144).

【0052】次に、モデルの体力が特定値(ここでは、
3)以上か判定する(s145)。体力が特定値以上の
場合は、指定の動作である動作遷移列の1番目の動作の
ままとし、動作の遷移は行なわない。ただし、モデルの
「疲れ」の合成比率、例えば0.1%増加する合成比率
を計算し(s149)、現在の体力値をモデル特性テー
ブル8に保存して(s1491)、終了する。なお、
「疲れ」の動作は合成比率に応じて、例えば前傾姿勢や
腕位置の低下に反映される。
Next, the physical strength of the model is a specific value (here,
3) It is determined whether or not the above (s145). When the physical strength is equal to or greater than the specific value, the first motion in the motion transition sequence, which is the designated motion, remains as it is, and the motion transition is not performed. However, a composite ratio of "fatigue" of the model, for example, a composite ratio that increases by 0.1% is calculated (s149), the current physical strength value is stored in the model characteristic table 8 (s1491), and the process ends. In addition,
The motion of "tiredness" is reflected in, for example, a forward leaning posture and a decrease in arm position according to the composition ratio.

【0053】一方、モデルの体力は1フレーム毎に0.
0減算されているので、仮りに最初は5.0あった体力
も200フレーム目(約10秒後)に3.0となる。そ
して、モデルの体力が3.0より小さい場合は、体力が
0〜3か判定し(s146)、そうであれば、決定した
動作遷移列の2番目の動作を行うようにスケジュールを
変更する(s147)。さらに、体力が0以下となる場
合は、動作遷移列に3番目の動作が存在するか判定し
(s148)、3番目の動作があれば、スケジュールを
3番目の動作に変更する(s149)。2番目の動作、
3番目の動作に遷移した場合も、「疲れ」の合成比率を
計算する。
On the other hand, the physical strength of the model is 0.
Since 0 is subtracted, the physical strength that was 5.0 at first becomes 3.0 at the 200th frame (after about 10 seconds). Then, if the physical strength of the model is less than 3.0, it is determined whether the physical strength is 0 to 3 (s146), and if so, the schedule is changed so that the second motion of the determined motion transition sequence is performed ( s147). Further, when the physical strength is 0 or less, it is determined whether or not the third movement exists in the movement transition sequence (s148), and if there is the third movement, the schedule is changed to the third movement (s149). The second movement,
Also in the case of transition to the third action, the "fatigue" composite ratio is calculated.

【0054】これにより、動作スケジュールをモデルの
体力の低下に応じて、“走る”から2番目の“歩く”、
さらに3番目の“止まる”へ遷移できる。また、動作遷
移列はモデル毎に乱数により選択されるので、複数のモ
デルが“走る”場面でも、各モデルが次に遷移する動作
とタイミングが画一化されることはない。
As a result, the operation schedule is changed from "run" to "walk" in accordance with the decrease in physical strength of the model.
In addition, you can transition to the third stop. Further, since the motion transition sequence is selected for each model by a random number, even when a plurality of models “run”, the motion and timing of the next transition of each model are not standardized.

【0055】なお、上記では動作の遷移をモデルの体力
によったが、体調の悪化を指数または乱数によって評価
して“しゃがむ”などの動作に遷移させることもでき
る。また、環境特性から仮想空間に“雨”を降らせ、そ
の雨量等により“歩く”から“走る”に遷移させるな
ど、多様なバリエーションが可能である。
In the above, the transition of the movement depends on the physical strength of the model, but it is also possible to evaluate the deterioration of the physical condition by an exponent or a random number and make a transition to a movement such as "squatting". Further, various variations are possible such as "rain" is caused to fall in the virtual space due to environmental characteristics, and "walking" is changed to "running" depending on the amount of rain.

【0056】上記した一連の処理により、1フレームの
動作を合成するための動作データおよび合成比率が全て
決定された。次に、動作選択手段2は合成動作生成手段
3を起動(s15)した後、処理s10に戻って次フレ
ームの動作データの選択処理に移る。一方、起動された
合成動作生成手段3は、動作選択手段2により決定され
た動作データと合成比率を用いて逆FFT演算を実行
し、各関節の角度データからモデルのモーションデータ
を合成する(s15)。
By the series of processes described above, the motion data and the composition ratio for composing the motion of one frame are all determined. Next, the action selecting means 2 activates the synthesizing action generating means 3 (s15), and then returns to the process s10 to proceed to the action data selecting process of the next frame. On the other hand, the activated composite motion generating means 3 executes an inverse FFT operation using the motion data and the composite ratio determined by the motion selecting means 2 to combine the motion data of the model from the angle data of each joint (s15). ).

【0057】図18に、合成動作生成手段による処理手
順の詳細を示す。本実施例では、基本動作に対する“疲
れ”や“寒い”など、特徴量動作の合成は関節毎に実行
され、その後に指定関節に対して確率的動作の合成が行
なわれる。
FIG. 18 shows the details of the processing procedure by the synthetic motion generating means. In the present embodiment, the combination of the characteristic motions such as "tired" and "cold" with respect to the basic motion is executed for each joint, and then the probabilistic motion is combined with the designated joint.

【0058】まず、全ての関節に対して合成処理を行っ
たか判定する(s150)。全関節の合成が終了してい
ない場合、動作データベース21からFFTデータの直
流分を取得する(s151)。取得されるFFTデータ
は、動作スケジュールの指定に対し選択手段2で最適と
選択した動作データの現在の関節のFFTデータ(s1
51−1)、「疲れ」のFFTデータ(s151−
2)、「寒い」のFFTデータ(s151−3)であ
る。取得した3成分のFFTはパラメータ合成する(s
152)。このとき、「疲れ」のFFTに「疲れ合成比
率」、「寒い」のFFTに「寒い合成比率」を乗じた後
に加算してる。
First, it is determined whether or not synthesis processing has been performed for all joints (s150). When the synthesis of all joints is not completed, the DC component of the FFT data is acquired from the motion database 21 (s151). The acquired FFT data is the FFT data (s1) of the current joint of the motion data selected as the optimum by the selection means 2 in response to the designation of the motion schedule.
51-1), FFT data of "tiredness" (s151-
2), FFT data (s151-3) of "cold". The obtained three-component FFT is parameter-synthesized (s
152). At this time, the “tired” FFT is multiplied by the “tired synthesis ratio” and the “cold” FFT is multiplied by the “cold synthesis ratio”, and then added.

【0059】同様に、FFTデータの交流分を取得し
(s153−1〜3)、パラメータ合成を行なう(s1
54)。なお、本実施例では、直流と交流で同じ合成比
率を用いている。次に、合成した直流FFTと交流FF
Tデータに対し、フーリエ逆演算を行ない、関節の角度
データを復元する(s155)。以上の処理をモデルの
全関節について繰返し行なう。
Similarly, the AC component of the FFT data is acquired (s153-1 to s3-1), and parameter synthesis is performed (s1).
54). In this embodiment, the same composition ratio is used for DC and AC. Next, the synthesized DC FFT and AC FF
The inverse Fourier calculation is performed on the T data to restore the joint angle data (s155). The above process is repeated for all joints of the model.

【0060】全ての関節に対して角度データを復元した
のち、選択した動作に確率的動作が設定されているか判
定する(s156)。設定されている場合は、確率的動
作選択処理(s12)で選択された動作(例えば“手を
振る”)に対し、その動作に指定の関節の角度情報を動
作データベース21のRAWデータ部213から取得し
(s157)、指定の関節とその子となる関節に対し
て、先にFFT逆変換にて復元された角度データから確
率的動作の角度情報に差し替える(s158)。
After the angle data is restored for all joints, it is judged whether or not a stochastic motion is set for the selected motion (s156). If set, for the action (eg, “waving”) selected in the probabilistic action selection process (s12), the angle information of the joint designated for that action is obtained from the RAW data section 213 of the action database 21. The acquired joint information (s157) is replaced with the stochastic movement angle information from the angle data previously restored by the FFT inverse transformation for the designated joint and its child joints (s158).

【0061】本処理により、現在のフレームにおける指
定モデルの各関節の角度情報が、確率的動作を含んで全
て決定する。各関節の動作が決定すると、移動量生成手
段4に全関節の角度情報が送られる。
By this processing, all the angle information of each joint of the designated model in the current frame including the probabilistic motion is determined. When the motion of each joint is determined, the angle information of all the joints is sent to the movement amount generating means 4.

【0062】移動量生成手段4は、ユーザーが指定した
動作パスおよびモデルの合成動作から、モデルの移動量
および方向を決定する。図19に、移動量生成手段の処
理手順の詳細を示す。
The movement amount generating means 4 determines the movement amount and direction of the model from the movement path designated by the user and the combined movement of the model. FIG. 19 shows the details of the processing procedure of the movement amount generating means.

【0063】まず、送られてきたモデルの合成結果と1
フレーム前の合成結果を比較し(s20)、比較の結果
より、現在の合成結果が1フレーム前からどれだけ移動
したかを決定する(s21)。移動量は、例えば接地し
ている足を基準とし、各関節の位置の差分から計算す
る。
First, the synthesis result of the sent model and 1
The synthesis result before the frame is compared (s20), and how much the current synthesis result has moved from the one frame before is determined from the comparison result (s21). The movement amount is calculated from the difference between the positions of the joints with the grounded foot as a reference.

【0064】次に、環境条件による合成動作選択処理
(s13)において、移動量の減算指定があったか判定
する(s22)。減算指定がある場合、計算された移動
量に減算比率を乗じて減算する(s23)。
Next, it is judged whether or not the movement amount subtraction is designated in the synthesis operation selection process (s13) depending on the environmental conditions (s22). When the subtraction is designated, the calculated movement amount is multiplied by the subtraction ratio to perform the subtraction (s23).

【0065】次に、動作パス上の目標点の座標を取得し
(s24)、現在(処理対象)のモデルの正面方向から
目標点に向かう修正角度の1フレーム分を計算する(s
25)。さらに、環境条件による合成動作選択処理(s
13)において、動作パスに対するズレ指定があるか判
定し(s26)、ある場合はそのズレ分(上記では、修
正角度を+20%)を付加する(s27)。
Next, the coordinates of the target point on the operation path are acquired (s24), and one frame of the correction angle from the front direction of the current (processing target) model toward the target point is calculated (s).
25). Furthermore, the synthetic operation selection process (s
In 13), it is determined whether or not there is a shift designation for the motion path (s26), and if there is a shift designation, the shift amount (in the above, the correction angle is + 20%) is added (s27).

【0066】最後に、前フレームにおけるモデルの最上
位の関節の位置と角度情報に、計算された移動量を加
え、目標点に対するずれ角度を補正して、今回のフレー
ムの仮想空間におけるモデルの位置と向きを決定する
(s28)。これにより、モデルは位置と向きが変更さ
れ、表示手段5の画面上で移動して表示される。
Finally, the position of the model in the virtual space of the current frame is corrected by adding the calculated movement amount to the position and angle information of the uppermost joint of the model in the previous frame and correcting the displacement angle with respect to the target point. And the direction is determined (s28). As a result, the position and orientation of the model are changed, and the model is moved and displayed on the screen of the display means 5.

【0067】例えば、動作パスとして曲線を指定した場
合を想定し、図20を用いて説明する。曲線のパスを移
動させる場合、始点201と終点202の間に、例えば
モデルの歩幅に対応した仮想的な目標点203〜201
1を設定する。始点201におけるモデルの向き201
2は、移動量の計算後に最も近い目標点203に向けて
補正を開始し、始点201から仮想目標点203の1歩
を表現するフレーム数に応じて、順次その向き2013
〜2016を変更していく。そして、仮想目標点203
の近傍に達した際に、次の仮想目標点204に変更す
る。
For example, assuming that a curve is designated as an operation path, description will be made with reference to FIG. When moving a curved path, between the start point 201 and the end point 202, for example, virtual target points 203 to 201 corresponding to the stride of the model
Set 1. Model orientation 201 at start point 201
2 starts the correction toward the closest target point 203 after the movement amount is calculated, and the orientation 2013 is sequentially determined according to the number of frames expressing one step from the start point 201 to the virtual target point 203.
~ 2016 will be changed. Then, the virtual target point 203
When reaching the vicinity of, the virtual target point 204 is changed to the next virtual target point 204.

【0068】図21に、本実施例により生成されたアニ
メションの模式図を示す。この例は、スケジュールとし
て「動作:歩く」、「フレーム数:80」、「動作パ
ス:パスA」、「確率的動作:手を挙げる(頻度:50
%)」、「モデル特性:男性、24歳、体力5」、「環
境設定:昼、気温20度」とした場合である。
FIG. 21 shows a schematic diagram of the animation generated by this embodiment. In this example, as a schedule, "motion: walking", "frame number: 80", "motion path: path A", "stochastic motion: raising hands (frequency: 50)
%) ”,“ Model characteristics: male, 24 years old, physical fitness 5 ”, and“ environment setting: daytime, temperature 20 degrees ”.

【0069】モデル212は、パスA211を「歩く、
男性、20歳」のFFTデータによって歩行している。
データベースに20歳のデータがなければ、近傍の動作
データが選択される。そして、2フレーム毎に乱数を発
生し、確率的動作が決定されたフレームでは“手を挙げ
る”動作213を行いながら、パスA上を歩く。また、
動作スケジュールの処理フレーム数が増加するしたがっ
て、「疲れ」の合成比率が増加していき、段々と“前か
がみ”の歩行姿勢214に変化していく。さらに、体力
値が0となるフレームで状態遷移を生じ、基本動作が
「止まる」215に変更されて動作を停止し、「疲れ」
の合成比率が高まって“うなだれた”姿勢となる。
The model 212 "walks on the path A 211.
Walking with FFT data of "male, 20 years old".
If there is no 20-year-old data in the database, nearby motion data is selected. Then, a random number is generated every two frames, and in a frame in which a probabilistic motion is determined, a “hand-raising” motion 213 is performed while walking on the path A. Also,
Therefore, the number of frames to be processed in the motion schedule increases, so that the combined ratio of “tiredness” increases and gradually changes to the “forward leaning” walking posture 214. Furthermore, a state transition occurs in the frame where the physical strength value becomes 0, and the basic motion is changed to “stop” 215 to stop the motion, and “tired”
The composition ratio of the sword increases and it becomes a "sag" posture.

【0070】以上のように、本実施例では全く同一の動
作スケジュール、モデル特性、環境特性および確率的動
作を指定した場合でも、最終的に生成されるアニメーシ
ョンは発生する乱数によって毎回異なることになり、画
一的なアニメーションを回避できる。
As described above, in the present embodiment, even when exactly the same operation schedule, model characteristic, environment characteristic and stochastic operation are designated, the finally generated animation is different every time depending on the generated random number. , You can avoid uniform animation.

【0071】また、同一スケジュールを指定しても、モ
デル特性、環境特性または確率的動作の一部を変更する
ことで、生成するアニメーションを多様に変更すること
ができる。かつ、ユーザインターフェースのメニュー画
面上で選択、指定するのみで、簡単に変更が行なえる。
Even if the same schedule is designated, the generated animation can be variously changed by changing part of the model characteristic, the environmental characteristic or the stochastic operation. Moreover, changes can be easily made by simply selecting and designating on the menu screen of the user interface.

【0072】また、動作選択に際して一般的な言語を指
定するため、コンピュータアニメーションの専門家でな
い人間でも複雑なアニメーションを作成することができ
る。
Further, since a general language is designated when selecting an operation, even a person who is not an expert in computer animation can create a complicated animation.

【0073】[0073]

【発明の効果】本発明によれば、動作スケジュールを設
定するのみで、モデル特性や環境特性に応じた基本動作
の修飾や移動量の修正、確率的動作の付加、さらには基
本動作そのものの遷移など、モデルが演じるアニメーシ
ョンを多様に変更できるので、自然なアニメーションを
短時間に作成できる効果がある。
According to the present invention, only by setting an operation schedule, the basic operation is modified or the movement amount is modified according to the model characteristic or the environmental characteristic, the stochastic operation is added, and the basic operation itself is transitioned. Since the animation played by the model can be changed in various ways, there is an effect that a natural animation can be created in a short time.

【0074】また、ユーザインターフェースの入力画面
から動作スケジュールを設定するのみで、各フレームで
の動作の変更や合成を自律的に決定できるので、ユーザ
によるアニメの作成や変更作業が簡単になる効果があ
る。
Further, since it is possible to autonomously determine the change or composition of the motion in each frame only by setting the motion schedule from the input screen of the user interface, there is an effect that the user can easily create and change the animation. is there.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例によるアニメーション生成装
置(コンピュータグラフイックス)の構成を示すブロッ
ク図。
FIG. 1 is a block diagram showing the configuration of an animation generation device (computer graphics) according to an embodiment of the present invention.

【図2】一実施例による動作データベースのデータ構成
図。
FIG. 2 is a data configuration diagram of an operation database according to an embodiment.

【図3】モデルの関節構造の一と親子関係を示す説明
図。
FIG. 3 is an explanatory diagram showing a parent-child relationship with a model joint structure.

【図4】サイクリック動作データの記述例を示す説明
図。
FIG. 4 is an explanatory diagram showing a description example of cyclic operation data.

【図5】RAW動作データの記述例を示す説明図。FIG. 5 is an explanatory diagram showing a description example of RAW operation data.

【図6】一実施例によるユーザーインターフェースの画
面構成図。
FIG. 6 is a screen configuration diagram of a user interface according to an embodiment.

【図7】一実施例による動作データ選択メニューの画面
構成図。
FIG. 7 is a screen configuration diagram of an operation data selection menu according to an embodiment.

【図8】一実施例による動作パス選択メニューの画面構
成図。
FIG. 8 is a screen configuration diagram of an operation path selection menu according to an embodiment.

【図9】動作パスの説明図。FIG. 9 is an explanatory diagram of an operation path.

【図10】一実施例による確率的動作選択メニューの画
面構成図。
FIG. 10 is a screen configuration diagram of a stochastic operation selection menu according to an embodiment.

【図11】一実施例によるモデル特性入力メニューの画
面構成図。
FIG. 11 is a screen configuration diagram of a model characteristic input menu according to an embodiment.

【図12】一実施例による環境状態設定メニューの画面
構成図。
FIG. 12 is a screen configuration diagram of an environmental status setting menu according to an embodiment.

【図13】本発明の一実施例による動作選択処理を示す
概略フロー図。
FIG. 13 is a schematic flowchart showing an operation selection process according to an embodiment of the present invention.

【図14】動作データ選択処理の詳細フロー図。FIG. 14 is a detailed flowchart of operation data selection processing.

【図15】確率的動作選択処理の詳細フロー図。FIG. 15 is a detailed flowchart of probabilistic action selection processing.

【図16】環境条件による合成動作選択処理の詳細フロ
ー図。
FIG. 16 is a detailed flowchart of a combining operation selection process according to environmental conditions.

【図17】モデル特性による動作遷移の選択処理の詳細
フロー図。
FIG. 17 is a detailed flowchart of a process of selecting a motion transition based on model characteristics.

【図18】本発明の一実施例による合成動作生成処理の
フロー図。
FIG. 18 is a flow diagram of a combined motion generation process according to an embodiment of the present invention.

【図19】本発明の一実施例による移動量生成処理のフ
ロー図。
FIG. 19 is a flow chart of movement amount generation processing according to an embodiment of the present invention.

【図20】移動量生成処理を説明するための説明図。FIG. 20 is an explanatory diagram illustrating a movement amount generation process.

【図21】本実施例による生成アニメーションの一例を
示す説明図。
FIG. 21 is an explanatory diagram showing an example of a generated animation according to the present embodiment.

【符号の説明】[Explanation of symbols]

1…データベース、2…動作選択手段、3…合成動作生
成手段、4…移動量生成手段、5…表示手段、6…動作
スケジュールテーブル、7…確率的動作テーブル、8…
モデル特性テーブル、9…環境状態テーブル、10…ユ
ーザインターフェース、21…動作データベース、22
…モデル特性データベース、23…関節構造データベー
ス、24…動作遷移データベース、211…サイクリッ
ク動作部、212…特徴量データ部、213…RAW動
作データ部、214…動作遷移テーブル、215…動作
カテゴリー、216…モデル特性、217…関節構造、
218…実動作データ、61…動作選択ボタン、62…
選択動作表示領域、63…フレーム数指定表示領域、6
4…動作パス選択ボタン、65…動作パス表示領域、6
6…確率的動作選択ボタン、67…確率的動作識別番号
表示領域、68…モデル特性設定ボタン、69…モデル
特性識別番号表示領域、610…環境状態設定ボタン、
611…環境状態識別番号表示領域、612…スケジュ
ール登録ボタン、613…スケジュール変更ボタン、6
14…スケジュール削除ボタン、615…スケジュール
表示領域、616…総フレーム数表示領域、617…ア
ニメーション生成ボタン、618…終了ボタン、101
…確率的動作識別番号入力表示領域、102…確率動作
選択領域、103…頻度入力表示領域、104…確率的
動作一覧表示領域、105…確率的動作登録ボタン、1
06…確率的動作削除ボタン、107…確率的動作設定
メニュー終了ボタン、111…モデル特性識別番号入力
表示領域、112…モデル特性入力領域、113…モデ
ルの種類、114…モデルの性別、115…モデルの年
齢、116…モデルの体力、117…モデルの体調、1
18…モデル特性設定メニュー終了ボタン、121…環
境状態識別番号入力表示領域、122…環境状態入力領
域、123…気温、124…光度、125…風力、12
6…環境状態設定メニュー終了ボタン。
DESCRIPTION OF SYMBOLS 1 ... Database, 2 ... Operation selection means, 3 ... Composite operation generation means, 4 ... Movement amount generation means, 5 ... Display means, 6 ... Operation schedule table, 7 ... Stochastic operation table, 8 ...
Model characteristic table, 9 ... Environmental state table, 10 ... User interface, 21 ... Operation database, 22
... model characteristic database, 23 ... joint structure database, 24 ... motion transition database, 211 ... cyclic motion part, 212 ... feature amount data part, 213 ... RAW motion data part, 214 ... motion transition table, 215 ... motion category, 216 ... model characteristics, 217 ... joint structure,
218 ... Actual operation data, 61 ... Operation selection button, 62 ...
Selection operation display area, 63 ... Frame number designation display area, 6
4 ... operation path selection button, 65 ... operation path display area, 6
6 ... Probabilistic action selection button, 67 ... Probabilistic action identification number display area, 68 ... Model characteristic setting button, 69 ... Model characteristic identification number display area, 610 ... Environmental state setting button,
611 ... Environmental state identification number display area, 612 ... Schedule registration button, 613 ... Schedule change button, 6
14 ... Schedule delete button, 615 ... Schedule display area, 616 ... Total frame number display area, 617 ... Animation generation button, 618 ... End button, 101
... Probabilistic motion identification number input display area, 102 ... Stochastic motion selection area, 103 ... Frequency input display area, 104 ... Stochastic motion list display area, 105 ... Stochastic motion registration button, 1
06 ... Probabilistic action deletion button, 107 ... Probabilistic action setting menu end button, 111 ... Model characteristic identification number input display area, 112 ... Model characteristic input area, 113 ... Model type, 114 ... Model sex, 115 ... Model Age, 116 ... Physical strength of model, 117 ... Physical condition of model, 1
18 ... Model characteristic setting menu end button, 121 ... Environmental condition identification number input display area, 122 ... Environmental condition input area, 123 ... Temperature, 124 ... Luminous intensity, 125 ... Wind power, 12
6 ... End button of the environmental condition setting menu.

フロントページの続き (56)参考文献 特開 平11−120378(JP,A) 特開 平9−311947(JP,A) 特開 平4−195476(JP,A) 鵜沼宗利 外1名,”コンピュータア ニメーションにおける感情を伴った人間 の歩行動作の生成方法”,電子情報通信 学会論文誌(情報・システムII−情報 処理),社団法人電子情報通信学会, 1993年 8月25日,第J76−D−II 巻,第8号,p.1822−1831 井上誠喜 外1名,”画面合成用画像 データベース〜動画部品による画面合成 〜”,第39回(平成元年後期)全国大会 講演論文集(II)(データ処理 ソフ トウェア ソフトウェア工学),社団法 人情報処理学会,1989年10月18日,p. 964−965 (58)調査した分野(Int.Cl.7,DB名) G06T 15/70 CSDB(日本国特許庁)Continuation of the front page (56) Reference JP-A-11-120378 (JP, A) JP-A-9-311947 (JP, A) JP-A-4-195476 (JP, A) Muneto Unuma, 1 person, "Computer Method for Generating Human Walking Motion with Emotion in Animation ”, IEICE Transactions on Information and Systems II-Information Processing, The Institute of Electronics, Information and Communication Engineers, August 25, 1993, J76-D -Vol. II, No. 8, p. 1822-1831 Seiki Inoue, 1 person, "Image database for screen synthesis ~ Screen synthesis by moving image parts ~", Proc. Of the 39th National Conference (Late 1989) (II) (Data Processing Software Software Engineering), Japan Society for Human Information Processing, October 18, 1989, p. 964-965 (58) Fields investigated (Int.Cl. 7 , DB name) G06T 15/70 CSDB (Japan Patent Office)

Claims (11)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 複数のモデルについての周期的動作デー
タや、その周期的動作に追従する特徴的動作データを蓄
積している動作データベースより、所望の動作と経路及
びモデルを指定して複数のフレームからなるアニメーシ
ョンを生成する方法において、 動作名、モデルの固有的特性と能力的特性からなるモデ
ル特性、及びフレーム数を指定した動作スケジュールを
参照し、前記動作データベースから指定の動作名と固有
特性に最適な周期的動作データと指定の能力特性の反映
に適応した第1の特徴的動作データを選択し、前者の動
作データを全フレームに反映すると共に、後者の動作デ
ータをフレーム毎に前記能力特性の変化を評価して可変
し、前者と後者の動作データをフレーム毎に合成する場
合に、 前記動作スケジュールの指定に、モデルの存在する環境
特性を含み、前記動作データベースから指定の環境特性
に適応した第2の特徴的動作データを選択し、その特徴
的動作データをフレーム毎に前記環境特性の変化を評価
して可変し、上述した他の動作データとフレーム毎に合
成することを特徴とするアニメーションの生成方法。
1. A periodic motion data for a plurality of models.
Data and characteristic motion data that follows its cyclic motion.
From the accumulated motion database, desired motion and route
And animate consisting of multiple frames by specifying the model
In the method of generating a model, a model consisting of a motion name, model specific characteristics and capability characteristics.
The operation schedule that specifies the video characteristics and the number of frames.
Unique with the specified operation name from the above operation database
Optimal periodic motion data and reflection of specified ability characteristics
Select the first characteristic motion data adapted to
The operation data is reflected in all frames and the latter operation
The data can be changed by evaluating the change in the performance characteristics for each frame.
However, when combining the former and latter motion data for each frame,
In this case, the specification of the operation schedule includes the environmental characteristics in which the model exists, and the second characteristic operation data that is adapted to the specified environmental characteristics is selected from the operation database, and the characteristic operation data is selected for each frame. A method for generating an animation, characterized in that the change in the environmental characteristic is evaluated and varied, and the change is combined with the other motion data described above for each frame.
【請求項2】 請求項1において、 モデルの前記固有的特性は種類(例えば、人間)、性別
など、前記能力的特性は体力などをそれぞれ含み、ま
た、前記環境特性は気温などを含み、 フレーム毎に、前記体力の減少による"疲れの合成比率"
を求め、その合成比率に応じて"疲れ"を表わした前記第
1の特徴的動作データを可変し、および/または前記気
温の減少による"寒いの合成比率"を求め、その合成比率
に応じて"寒い"を表わした前記第2の特徴的動作データ
を可変することを特徴とするアニメーションの生成方
法。
2. The model according to claim 1, wherein the intrinsic characteristic of the model includes type (eg, human), gender, etc., the performance characteristic includes physical strength, etc., and the environmental characteristic includes temperature, etc. "Combined ratio of fatigue" due to the decrease in physical strength
Is calculated, and the first characteristic motion data representing "fatigue" is changed according to the combined ratio, and / or the "cold combined ratio" due to the decrease in the temperature is calculated, and according to the combined ratio. A method for generating an animation, wherein the second characteristic motion data representing "cold" is changed.
【請求項3】 複数のモデルについての周期的動作デー
タや、その周期的動作に追従する確率的動作データを蓄
積している動作データベースより、所望の動作と経路及
びモデルを指定して複数のフレームからなるアニメーシ
ョンを生成する方法において、 動作名、モデル特性、確率的動作名と頻度及びフレーム
数を指定した動作スケジュールを参照し、前記動作デー
タベースから指定の動作名とモデル特性に最適な周期的
動作データを選択して全フレームに反映すると共に、フ
レーム毎に指定の頻度から確率的動作の実施の有無を判
定し、実施する場合には当該フレームの周期的動作デー
タに指定の動作名の確率的動作データを合成することを
特徴とするアニメーションの生成方法。
3. A plurality of frames by designating desired motions, paths, and models from a motion database accumulating periodic motion data of a plurality of models and stochastic motion data following the periodic motions. In the method of generating an animation consisting of, a motion schedule that specifies a motion name, model characteristics, a probabilistic motion name and frequency, and the number of frames is referred to from the motion database, and the optimum cyclic motion for the specified motion name and model characteristics. Data is selected and reflected in all frames, and whether or not a probabilistic operation is performed is determined from the specified frequency for each frame, and if it is performed, the probabilistic operation name specified in the periodic operation data of the frame is used. A method for generating an animation characterized by synthesizing motion data.
【請求項4】 請求項3において、 前記周期的動作データは、"走る"、"歩く""止まる"な
ど、前記確率的動作データは、"手を挙げる"、"首を振
る"などを含み、動作スケジュールで前者の1つの動作
名に対して後者の複数の動作名が設定されている場合
に、乱数の発生によって確率的動作名の1つとその実施
の要否を決定することを特徴とするアニメーションの生
成方法。
4. The periodic motion data according to claim 3 , wherein the periodic motion data includes “run”, “walk”, “stop”, etc., and the stochastic motion data includes “raise hand”, “shake head”, etc. , When one action name of the former is set to a plurality of action names of the latter in the action schedule, one of the probabilistic action names and the necessity of execution thereof are determined by the generation of random numbers. How to generate an animation.
【請求項5】 動作名毎に複数のモデルについての周期
的動作データを蓄積している動作データベースから、所
望の動作と経路及びモデルを指定して複数のフレームか
らなるアニメーションを生成する方法において、 予め前記動作データベースに、動作の遷移順序を示す複
数の動作遷移列を格納し、 動作名、モデルの固有的特性と能力的特性からなるモデ
ル特性及びフレーム数を指定した動作スケジュールを参
照し、前記動作データベースから指定の動作名と固有特
性に最適な周期的動作データと共に、指定の動作名が先
頭となる動作遷移列を選択し、 選択した周期的動作データから開始してフレームを作成
するとともに、フレーム毎に前記能力的特性の変化を評
価してその変化がしきい値を越えたとき、選択した動作
遷移列の次の動作名の周期的動作データに変更してフレ
ームを作成することを特徴とするアニメーションの生成
方法。
5. A method for generating an animation composed of a plurality of frames by designating a desired motion, a path, and a model from a motion database accumulating periodic motion data for a plurality of models for each motion name, In the operation database, a plurality of operation transition sequences indicating the order of operation transitions are stored in advance, and an operation name, an operation schedule in which a model characteristic consisting of a characteristic characteristic and a capability characteristic of the model and a frame number are designated are referred to, From the motion database, select the motion transition sequence that starts with the specified motion name along with the specified motion name and the cyclic motion data that is most suitable for the unique characteristic, and create a frame starting from the selected cyclic motion data. When the change in the above-mentioned performance characteristics is evaluated for each frame and the change exceeds the threshold value, the next action name of the selected action transition sequence A method for generating animation, characterized by changing to periodic motion data to create a frame.
【請求項6】 請求項5において、 前記動作スケジュールに環境特性を指定し、モデルの前
記能力的特性および/または前記環境特性がフレーム毎
に変化してしきい値を越えたとき、前記周期的動作デー
タの変更を行なうことを特徴とするアニメーションの生
成方法。
6. The method according to claim 5 , wherein an environmental characteristic is specified in the operation schedule, and when the capability characteristic of the model and / or the environmental characteristic changes every frame and exceeds a threshold value, the periodic characteristic is set. A method for generating an animation characterized by changing motion data.
【請求項7】 複数のモデルについての複数の周期的動
作データを蓄積している動作データベースより、所望の
動作と経路及びモデルを指定して複数のフレームからな
るアニメーションを生成する方法において、 予め、前記動作データベースに、その周期的動作に追従
する特徴的動作データや確率的動作データ及び周期的動
作の遷移順序を示す動作遷移列を格納し、 動作名、固有的特性と能力的特性からなるモデル特性、
環境特性及び頻度を含む確率的動作を指定した動作スケ
ジュールを参照し、前記動作データベースから指定の動
作名と固有特性に最適な周期的動作データを選択し、 フレーム毎に、前記能力的特性および/または環境特性
に適応した特徴的動作データをそれら特性の変化に応じ
て可変し、また、指定の頻度から確率的動作の付加の要
否を判定し、可変した特徴的動作データまたは付加要と
判定された確率的動作データを選択した周期的動作デー
タに合成し、さらに、前記能力的特性および/または環
境特性の変化が各々に設定されているしきい値を越えた
とき、前記動作遷移列の順序で前記周期的動作データを
変更することを特徴とするアニメーションの生成方法。
7. A method of generating an animation composed of a plurality of frames by designating a desired motion, a path and a model from a motion database accumulating a plurality of periodic motion data of a plurality of models, wherein: The behavioral database stores characteristic behavioral data that follows the periodical behavior, probabilistic behavioral data, and behavioral transition sequences that indicate the transitional order of the periodical behavior, and is a model consisting of behavioral names, unique characteristics, and ability characteristics. Characteristic,
By referring to an operation schedule specifying a probabilistic operation including environmental characteristics and frequency, periodical operation data that is optimum for a specified operation name and unique characteristics is selected from the operation database, and the performance characteristics and // Alternatively, the characteristic motion data adapted to the environmental characteristics are changed according to changes in those characteristics, and it is determined whether or not the probabilistic motion is required to be added based on the designated frequency, and it is determined that the changed characteristic operation data or the addition is required. The selected stochastic motion data is combined with the selected cyclic motion data, and further, when the change of the performance characteristic and / or the environmental characteristic exceeds the threshold value set for each, the motion transition sequence A method of generating animation, characterized in that the periodic motion data is changed in order.
【請求項8】 請求項7において、 前回と今回のフレーム間で、前記周期的動作データまた
は前記周期的動作データと上記の他の動作データを合成
した合成動作データを比較し、その差分から描画のため
の移動量を求めるときに、前記環境特性の変化に応じた
移動量の減算値によって移動量の修正を行なうことを特
徴とするアニメーションの生成方法。
8. The method according to claim 7 , wherein between the previous frame and the current frame, the cyclic motion data or the composite motion data in which the cyclic motion data and the other motion data are combined is compared, and drawing is performed from the difference. The method for generating an animation is characterized in that the movement amount is corrected by a subtraction value of the movement amount in accordance with the change in the environmental characteristic when the movement amount for is calculated.
【請求項9】 複数のモデルについての複数の動作デー
タを蓄積しているデータベースと、作成するアニメーシ
ョンについて動作、経路、モデル、フレーム数等を含む
動作スケジュールを指定するユーザインターフェース
と、指定された動作スケジュールに基づいて使用する動
作データを選択する動作選択手段やフレーム間における
動作データの移動量を求める移動量生成手段を有して、
移動量に応じたフレーム画面を表示するアニメーション
生成装置と、を備えるコンピュータグラフイックスによ
るアニメーション作成装置において、 前記データベースは、前記動作データとして基本となる
動作の複数の周期的動作データと、その周期的動作に追
従する特徴的動作データまたは確率的に付加する確率的
動作データの少なくとも一つを蓄積し、 前記ユーザインターフェースは、前記スケジュールに対
しモデルの固有的特性と能力的特性を設定するモデル特
性テーブル、確率的動作の指定とその頻度を設定する確
率的動作テーブル、またはモデルの存在する仮想空間の
環境特性を設定する環境状態テーブルの少なくとも一つ
を設け、 前記動作選択手段は、前記動作スケジュールに設定され
た動作名と固有的特性を基に最適な周期的動作データを
選択すると共に、前記頻度に基づく確率的動作の付加の
決定または前記能力的特性もしくは前記環境特性の変化
に基づく前記特徴的動作データの可変の少なくとも一つ
を行ない、その結果によるデータと前記の最適な周期的
動作データを合成する機能を設けたことを特徴とするコ
ンピュータグラフイックスによるアニメーション作成装
9. A database accumulating a plurality of motion data for a plurality of models, a user interface for designating a motion schedule including a motion, a path, a model, the number of frames, etc. for an animation to be created, and a designated motion. It has a movement selection means for selecting movement data to be used based on a schedule and a movement amount generation means for obtaining a movement amount of movement data between frames,
An animation generating device for displaying a frame screen according to the amount of movement, and a computer graphic .
In the animation creating device , the database includes at least a plurality of periodic motion data of a basic motion as the motion data, and characteristic motion data that follows the cyclic motion or stochastic motion data that is stochastically added. The user interface stores one, the model characteristic table for setting the intrinsic characteristic and the capability characteristic of the model for the schedule, the stochastic operation table for specifying the probabilistic operation and its frequency, or the model At least one environment state table for setting environment characteristics of the existing virtual space is provided, and the operation selecting unit selects optimum cyclic operation data based on the operation name and unique characteristics set in the operation schedule. And determining the addition of stochastic motion based on the frequency or the performance characteristic or the Perform at least one variable of the characteristic operating data based on the change in the boundary characteristics, animation using computer graph acme box, characterized in that a resulting function of combining the optimal periodic motion data of the data and the by Creation device
Place
【請求項10】 請求項9において、 前記データベースは、周期的動作を遷移する場合の変更
順序を示した動作遷移列を蓄積し、 前記動作選択手段は、前記能力的特性の変化が所定値を
越えた場合に選択した周期的動作を先頭とする動作遷移
列の次の周期的動作に遷移する機能を設けたことを特徴
とするコンピュータグラフイックスによるアニメーショ
ン作成装置
10. The database according to claim 9 , wherein the database stores a motion transition sequence indicating a change order in the case of transitioning a periodic motion, and the motion selection means sets a change in the capability characteristic to a predetermined value. An animation by computer graphics, which is provided with a function of transitioning to the next periodic operation of the action transition sequence starting with the selected periodic action when exceeding the limit.
Creation device .
【請求項11】 請求項9または10において、 前記ユーザインターフェースは、前記動作スケジュール
の入力画面と設定内容に対応したメニュー画面を有して
構成されていることを特徴とするコンピュータグラフイ
ックスによるアニメーション作成装置
11. The animation creation by computer graphics according to claim 9 or 10 , wherein the user interface is configured to have an input screen of the operation schedule and a menu screen corresponding to setting contents. Equipment .
JP12576098A 1998-05-08 1998-05-08 Animation generation method and computer graphics Expired - Fee Related JP3467406B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP12576098A JP3467406B2 (en) 1998-05-08 1998-05-08 Animation generation method and computer graphics

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP12576098A JP3467406B2 (en) 1998-05-08 1998-05-08 Animation generation method and computer graphics

Publications (2)

Publication Number Publication Date
JPH11328439A JPH11328439A (en) 1999-11-30
JP3467406B2 true JP3467406B2 (en) 2003-11-17

Family

ID=14918150

Family Applications (1)

Application Number Title Priority Date Filing Date
JP12576098A Expired - Fee Related JP3467406B2 (en) 1998-05-08 1998-05-08 Animation generation method and computer graphics

Country Status (1)

Country Link
JP (1) JP3467406B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003337956A (en) * 2002-03-13 2003-11-28 Matsushita Electric Ind Co Ltd Apparatus and method for computer graphics animation
JP2003346185A (en) * 2002-05-24 2003-12-05 Olympus Optical Co Ltd Information display system and personal digital assistant
JP2004287558A (en) * 2003-03-19 2004-10-14 Matsushita Electric Ind Co Ltd Video phone terminal, virtual character forming device, and virtual character movement control device
JP4684238B2 (en) * 2004-11-30 2011-05-18 パナソニック株式会社 Scene modification expression generation device and scene modification expression generation method
US20110298810A1 (en) * 2009-02-18 2011-12-08 Nec Corporation Moving-subject control device, moving-subject control system, moving-subject control method, and program

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
井上誠喜 外1名,"画面合成用画像データベース〜動画部品による画面合成〜",第39回(平成元年後期)全国大会講演論文集(II)(データ処理 ソフトウェア ソフトウェア工学),社団法人情報処理学会,1989年10月18日,p.964−965
鵜沼宗利 外1名,"コンピュータアニメーションにおける感情を伴った人間の歩行動作の生成方法",電子情報通信学会論文誌(情報・システムII−情報処理),社団法人電子情報通信学会,1993年 8月25日,第J76−D−II巻,第8号,p.1822−1831

Also Published As

Publication number Publication date
JPH11328439A (en) 1999-11-30

Similar Documents

Publication Publication Date Title
US6999084B2 (en) Method and apparatus for computer graphics animation utilizing element groups with associated motions
US10565768B2 (en) Generating smooth animation sequences
JP7061238B2 (en) Reinforcement learning to train characters using heterogeneous target animation data
Xia et al. Dynamic view-dependent simplification for polygonal models
KR100845390B1 (en) Image processing apparatus, image processing method, record medium, and semiconductor device
Lau et al. Modeling spatial and temporal variation in motion data
US20120038628A1 (en) Real-time automatic concatenation of 3d animation sequences
Ashida et al. Pedestrians: Creating agent behaviors through statistical analysis of observation data
EP0835481B1 (en) Installation and method for controlling a movable apparatus
JP2019175266A (en) Operation generation device, model generation device, operation generation method and program
US20220270324A1 (en) Systems and methods for generating a model of a character from one or more images
Kalisiak et al. A grasp‐based motion planning algorithm for character animation
Hornus et al. Implicit modelling using subdivision-curves
JP3467406B2 (en) Animation generation method and computer graphics
US20090179901A1 (en) Behavioral motion space blending for goal-directed character animation
JP2011113135A (en) Virtual character generation device and virtual character generation program
JP4047575B2 (en) Display object generation method in information processing apparatus, program for controlling execution thereof, and recording medium storing the program
JP2008015713A (en) Motion deformation system and method for it
JP4668321B2 (en) Computer system and operation control method
KR100426313B1 (en) Method for modifying posture of an articulated object in manufacturing picture
JP2003337956A (en) Apparatus and method for computer graphics animation
Lee et al. Interactive Character Path-Following Using Long-Horizon Motion Matching With Revised Future Queries
JP2009037572A (en) Behavioral synthesis system and method therefor
EP3933698A1 (en) Method and control unit for generating stylized motion of an object, such as a robot or a virtual avatar
KR20010057880A (en) Animation method for walking motion variation

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees