JP2002342784A - Video game device and video game animation generation program and its recording medium - Google Patents

Video game device and video game animation generation program and its recording medium

Info

Publication number
JP2002342784A
JP2002342784A JP2001142933A JP2001142933A JP2002342784A JP 2002342784 A JP2002342784 A JP 2002342784A JP 2001142933 A JP2001142933 A JP 2001142933A JP 2001142933 A JP2001142933 A JP 2001142933A JP 2002342784 A JP2002342784 A JP 2002342784A
Authority
JP
Japan
Prior art keywords
data
motion
information
video game
motion data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001142933A
Other languages
Japanese (ja)
Inventor
Tokuichi Kitaguchi
徳一 北口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
YUKES KK
Original Assignee
YUKES KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by YUKES KK filed Critical YUKES KK
Priority to JP2001142933A priority Critical patent/JP2002342784A/en
Publication of JP2002342784A publication Critical patent/JP2002342784A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a video game device, a video game animation generation program and its recording medium, capable of generating a natural animation picture. SOLUTION: This video game device for generating a two-dimensional animation picture by using three-dimensional modeling data and motion data is provided with a recording means for recording the position information of a plurality of centroid points added with characters in a key frame and the motion data of the centroid points corresponding to frames and a position information generating means for generating the position information of the centroid points in any frame other than the key frame by using the position information of the centroid points in the key frame and the motion data of the centroid points. Data generated based on the data obtained by a motion capture are used for at least angle components in the motion data of the centroid points, and data set by a hand is used for the position information of the centroid points in the key frame.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、ビデオゲーム装
置、ビデオゲームにおけるアニメーションを生成するコ
ンピュータプログラム及び該プログラムを記録したコン
ピュータ読み取り可能な記録媒体に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a video game apparatus, a computer program for generating animation in a video game, and a computer-readable recording medium on which the program is recorded.

【0002】[0002]

【従来の技術】図1はビデオゲーム装置の概略構成を示
すブロック図である。図1において、音響データを処理
する機能に関しては省略している。ビデオゲーム装置
は、ゲーム装置本体100、ゲーム装置の操作者(以下
「プレーヤ」と記す)が操作するコントローラ120、
ゲーム装置本体100の処理を記述したプログラム、画
像データなどを記録しているDVD−ROM130及び
ゲームの進行状況の情報を記録する外部メモリ(図示せ
ず)を備えている。ゲーム装置本体100は、ビデオ信
号を伝送するためのケーブル(以下「AVケーブル」と
記す)を介して映像表示装置140と接続される。映像
表示装置140には、家庭用テレビ放送受信装置などを
使用することができる。ゲーム装置本体100から出力
される映像信号は、AVケーブルを介して映像表示装置
140に入力されて、ゲーム内容に応じた映像表示が行
なわれる。
2. Description of the Related Art FIG. 1 is a block diagram showing a schematic configuration of a video game device. In FIG. 1, the function of processing sound data is omitted. The video game device includes a game device main body 100, a controller 120 operated by an operator of the game device (hereinafter, referred to as “player”),
The game apparatus 100 includes a DVD-ROM 130 that stores a program describing processing of the game apparatus main body 100, image data, and the like, and an external memory (not shown) that stores information on the progress of the game. The game device main body 100 is connected to the video display device 140 via a cable for transmitting a video signal (hereinafter, referred to as “AV cable”). As the video display device 140, a home television broadcast receiving device or the like can be used. The video signal output from the game device main body 100 is input to the video display device 140 via the AV cable, and video display according to the game content is performed.

【0003】ゲーム装置本体100は、中央演算処理ユ
ニット(以下「CPU」と記す)101、ROM10
2、RAM103、グラフィックス処理ユニット(以下
「GPU」と記す)104、フレームメモリ105、ビ
デオ出力部106、DVD−ROMデコーダ107、D
VD−ROMドライブ108、コントローラ120との
インタフェース部(以下「I/F部」と記す)109を
備えている。CPU101、ROM102、RAM10
3、GPU104、DVD−ROMデコーダ107及び
I/F部109は、内部バス110を介して接続されて
いる。
The game apparatus main body 100 includes a central processing unit (hereinafter referred to as “CPU”) 101, a ROM 10
2, RAM 103, graphics processing unit (hereinafter referred to as "GPU") 104, frame memory 105, video output unit 106, DVD-ROM decoder 107, D
A VD-ROM drive 108 and an interface unit (hereinafter, referred to as “I / F unit”) 109 with the controller 120 are provided. CPU 101, ROM 102, RAM 10
3, the GPU 104, the DVD-ROM decoder 107, and the I / F unit 109 are connected via the internal bus 110.

【0004】ROM102には、ゲーム装置本体100
の基本的な制御を行なうための基本ソフト(以下「O
S」と記す)が記録されている。電源が投入されると、
CPU101は最初にROM102の特定のアドレスか
らOSを読み出し、各部の制御を開始した後、DVD−
ROMドライブ108を介して、DVD−ROM130
からゲームのプログラム、画像データなどを読み出す。
The ROM 102 stores a game device main body 100.
Basic software (hereinafter referred to as “O
S ”) is recorded. When the power is turned on,
The CPU 101 first reads the OS from a specific address of the ROM 102, starts control of each unit, and then reads the DVD-ROM.
Via the ROM drive 108, the DVD-ROM 130
From the game program, image data, etc.

【0005】CPU101は、DVD−ROM130か
らゲームプログラムや3次元モデルのモデリングデータ
などを読み出してRAM103に記録し、GPU104
に画像生成を指示する。DVD−ROM130から読み
出されるデータに、色情報、画像データの値に対する表
示色を指定するカラールックアップテーブル、オブジェ
クトの表面にマッピングする模様であるテクスチャデー
タなどが含まれている場合には、これらもRAM103
に記録される。
The CPU 101 reads out a game program, modeling data of a three-dimensional model, and the like from the DVD-ROM 130 and records them in the RAM 103.
Is instructed to generate an image. When the data read from the DVD-ROM 130 includes color information, a color look-up table that specifies a display color for the value of image data, texture data that is a pattern mapped on the surface of an object, and the like, these are also used. RAM103
Will be recorded.

【0006】GPU104は、CPU101からの画像
生成の指示に従って、RAM103に記録されたCGデ
ータ、即ち3次元モデリングデータ、色情報、カラール
ックアップテーブル及びテクスチャデータなどを使用し
て、複数のポリゴンから構成される3次元モデルのモデ
リング処理やレンダリング処理を行なう。そして、設定
された視点から見た画像を、3次元空間を平面に投影す
る方法によって生成し、生成された画像データをフレー
ムメモリ105に記録する。ここで、ポリゴンとは、3
次元オブジェクトの表面形状を近似的に表すための最小
要素であり、ポリゴンは三角形又は四角形以上の平面の
多角形形状が利用される。
The GPU 104 comprises a plurality of polygons using CG data recorded in the RAM 103, ie, three-dimensional modeling data, color information, a color look-up table, texture data, and the like, in accordance with an image generation instruction from the CPU 101. Modeling and rendering of the three-dimensional model to be performed. Then, an image viewed from the set viewpoint is generated by a method of projecting a three-dimensional space onto a plane, and the generated image data is recorded in the frame memory 105. Here, the polygon is 3
This is a minimum element for approximately representing the surface shape of the dimensional object, and the polygon used is a triangular or quadrilateral or more polygonal plane.

【0007】ビデオ出力部106は、ゲーム装置本体1
00内部の同期信号発生部(図示せず)で発生された同
期信号のタイミングで、フレームメモリ105の所定の
領域からディジタル画像データを読み出し、該ディジタ
ル画像データをアナログ信号に変換した後、所定形式の
ビデオ信号にエンコードして出力端子(図示せず)に供
給する。
[0007] The video output unit 106 is a game device main unit 1.
The digital image data is read from a predetermined area of the frame memory 105 at the timing of a synchronizing signal generated by a synchronizing signal generator (not shown) inside the 00, and the digital image data is converted into an analog signal. And supplies it to an output terminal (not shown).

【0008】コントローラ120は、ゲームのプレーヤ
がゲーム装置本体100に指示を入力するための装置で
あり、コントローラ120にはゲームの開始を指示する
スタートボタンや、方向を指示する方向キーなど、複数
のボタンやキーが設けられている。コントローラ120
からプレーヤの操作に応じた各種の操作信号が送出さ
れ、ゲーム装置本体100はI/F部109を介して操
作信号を受信する。
The controller 120 is a device for a game player to input an instruction to the game apparatus main body 100. The controller 120 has a plurality of buttons such as a start button for instructing the start of the game and a direction key for instructing a direction. Buttons and keys are provided. Controller 120
Sends various operation signals according to the operation of the player, and the game apparatus main body 100 receives the operation signals via the I / F unit 109.

【0009】3次元CGによるビデオゲームにおいて
は、ポリゴンによって形成された立体的な仮想物(以下
「キャラクタ」と記す)を仮想3次元空間に配置し、上
記したように投影法によって2次元画像を生成する。通
常、キャラクタは、頭、首、肩、肢、胴などに対応する
複数のオブジェクトによって構成され、各々のオブジェ
クトの内部には複数のボーンが設定される。
In a video game using three-dimensional CG, a three-dimensional virtual object (hereinafter, referred to as a “character”) formed by polygons is arranged in a virtual three-dimensional space, and a two-dimensional image is projected by the projection method as described above. Generate. Usually, a character is composed of a plurality of objects corresponding to the head, neck, shoulder, limb, torso, etc., and a plurality of bones are set inside each object.

【0010】ボーンは、隣接するボーンと接続された設
定となっている場合には、ボーンの長さを保持したまま
で接続点を中心にして回転され得る。各オブジェクトの
表面形状を表すポリゴンデータは、オブジェクト内部に
備えられた各々のボーンに対応付けられており、例え
ば、各々のポリゴンの座標は対応付けられたボーンに対
する相対座標で指定される。これによって、ボーンの位
置関係の変化に応じてオブジェクトの表面の位置及び形
状が変化し、オブジェクトから構成されているキャラク
タの位置及び形状が変化することとなる。
When a bone is set so as to be connected to an adjacent bone, the bone can be rotated about the connection point while maintaining the length of the bone. The polygon data representing the surface shape of each object is associated with each bone provided inside the object. For example, the coordinates of each polygon are specified by relative coordinates with respect to the associated bone. As a result, the position and shape of the surface of the object change according to the change in the positional relationship of the bones, and the position and shape of the character composed of the object change.

【0011】通常、ビデオゲーム装置を使用してゲーム
プレーヤがコントローラを操作することによって、キャ
ラクタの3次元CGデータが変更され、該変更されたデ
ータを使用して2次元画像を作成することによって、映
像表示装置の画面上でキャラクタが動いているように表
示(以下「アニメーション」と記す)される。キャラク
タの形状は、各ボーンの位置及び角度によって指定でき
ることから、各フレーム毎に各ボーンの位置及び角度を
記録しておき、これに基づき各フレームの画像を生成す
る。NTSC方式のビデオ信号で表示する場合には、1
/30秒又は1/60秒間隔で変化させることによっ
て、滑らかにアニメーションさせることができる。
Normally, the three-dimensional CG data of a character is changed by a game player operating a controller using a video game device, and a two-dimensional image is created using the changed data. The character is displayed as if it is moving on the screen of the video display device (hereinafter referred to as “animation”). Since the shape of the character can be specified by the position and angle of each bone, the position and angle of each bone are recorded for each frame, and an image of each frame is generated based on this. When displaying with an NTSC video signal, 1
By changing at an interval of / 30 seconds or 1/60 seconds, animation can be smoothly performed.

【0012】各フレームのボーンの位置及び角度を直接
指定する代わりに、特定の基準となるフレーム(以下
「キーフレーム」と記す)を定めて、モデリングデータ
の特定の点の座標に関して、フレーム毎にキーフレーム
との差分情報を記録しておき、該差分情報とキーフレー
ムに対応する3次元CGデータとを使用して任意フレー
ムの画像を生成する方法も使用される。
Instead of directly specifying the positions and angles of the bones in each frame, a specific reference frame (hereinafter referred to as a “key frame”) is defined, and the coordinates of a specific point in the modeling data are determined for each frame. A method of recording difference information from a key frame and generating an image of an arbitrary frame using the difference information and three-dimensional CG data corresponding to the key frame is also used.

【0013】連続する複数のフレームによって表される
キャラクタの一連の動作(以下「モーション」と記す)
を表すためには、オブジェクトに関する一連の位置び角
度の差分情報(以下「モーションデータ」と記す)を指
定することが必要となる。ビデオゲーム装置において
は、各キャラクタに実行させたい複数のモーションの各
々に対応して予めモーションデータが記録されている。
キャラクタにモーションを行わせたい場合には、該モー
ションに対応するモーションデータを読み出して、フレ
ーム毎にキャラクタのボーンの位置、角度を計算して、
この計算結果とキャラクタのモデリングデータとを使用
して3次元CGデータを生成した後、2次元のフレーム
画像を生成する。
A series of motions of a character represented by a plurality of continuous frames (hereinafter referred to as "motion")
It is necessary to specify difference information (hereinafter referred to as “motion data”) of a series of positions and angles regarding the object in order to represent In the video game device, motion data is recorded in advance for each of a plurality of motions to be performed by each character.
If you want the character to perform a motion, read out the motion data corresponding to the motion, calculate the position and angle of the character's bone for each frame,
After generating the three-dimensional CG data using the calculation result and the modeling data of the character, a two-dimensional frame image is generated.

【0014】モーションデータの生成は、主に次の2種
類の方法によって行われる。第1の方法は、モーション
に対応する一連のフレームにおいて、キーフレームを定
めて、キーフレームにおいて人間が手作業でキャラクタ
のボーンの位置及び角度を指定(以下「手付け」と記
す)する方法である。この方法においては、隣り合うキ
ーフレームの間のフレームに関しては、コンピュータ
が、隣り合う2枚のキーフレームにおけるボーンの位置
及び角度の情報を使用して、補間処理によってボーンの
位置及び角度を計算する。そして、該計算結果を使用し
て各フレームの画像が生成され、モーションとして表示
される(以下「手付けモーション」と記す)。
Generation of motion data is mainly performed by the following two methods. The first method is a method in which a key frame is determined in a series of frames corresponding to a motion, and a position and an angle of a bone of a character are manually designated by a human in the key frame (hereinafter, referred to as “hand”). . In this method, for a frame between adjacent key frames, the computer calculates the position and angle of the bone by interpolation using information of the position and angle of the bone in two adjacent key frames. . Then, an image of each frame is generated using the calculation result, and is displayed as a motion (hereinafter, referred to as “hand motion”).

【0015】第2の方法はモーションキャプチャと呼ば
れる方法であり、人間などの実際の生物にセンサを取り
付けて動きを数値化する方法であり、電磁気的方法、光
学的方法などがある。例えば、電磁気的方法において
は、複数の電磁気センサを取り付けた生物を電磁場内に
配置し、生物の動きに応じて発生する電気信号をセンサ
から受信し、該電気信号を位置情報に変換することによ
って、各々のセンサの位置の時間変化情報(以下「キャ
プチャデータ」と記す)を取得することができる。各々
のセンサの位置を、モデリングデータのボーンの所定の
点と対応させることによって、キャプチャデータをモー
ションデータとして使用することができる。モーション
キャプチャ法は、キーフレームを使用する方法とは異な
り、補間処理によってフレーム画像を作成することがな
いので、不規則で予想し難い生物の動きを正確に再現す
ることができる。
The second method is a method called motion capture, in which a sensor is attached to an actual creature such as a human to quantify the movement, such as an electromagnetic method and an optical method. For example, in the electromagnetic method, a living thing equipped with a plurality of electromagnetic sensors is placed in an electromagnetic field, an electric signal generated according to the movement of the living thing is received from the sensor, and the electric signal is converted into position information. , The time change information of the position of each sensor (hereinafter referred to as “capture data”) can be obtained. By associating the position of each sensor with a predetermined point on the bone of the modeling data, the captured data can be used as motion data. Unlike the method using a key frame, the motion capture method does not create a frame image by an interpolation process, and thus can accurately reproduce irregular and unpredictable movement of a living thing.

【0016】[0016]

【発明が解決しようとする課題】上記した手付けモーシ
ョンにおいては、キャラクタの動きが直線的、機械的に
なってしまう。また、補間処理によって生成されるキー
フレーム間の画像は、高次の関数を使用して補間した場
合には滑らかな動きにはなるが、生物の不規則な要素を
含んだ自然な動きを再現することはできず、計算に時間
もかかることとなる。
In the hand motion described above, the character moves linearly and mechanically. Also, the image between key frames generated by the interpolation process will be smooth when interpolated using a higher-order function, but it will reproduce the natural motion including irregular elements of living things And the calculation takes time.

【0017】モーションキャプチャによって取得したモ
ーションデータを使用すれば、自然な動きを再現するこ
とは可能となるが、モーションキャプチャは、電磁気的
方法、光学的方法などの何れの方法を使用したとして
も、大掛かりで複雑な機材が必要であり、対象物に不自
然な荷重を付加したり、動きを拘束することとなり、デ
ータ取得には多大な時間と費用がかかる。従って、全て
のシーンにおけるキャラクタのモーションデータをモー
ションキャプチャによって取得することは、非常に困難
である。
The use of motion data obtained by motion capture makes it possible to reproduce natural motion. However, motion capture can be performed using any method such as an electromagnetic method and an optical method. Large and complicated equipment is required, and an unnatural load is applied to the target object, and the movement is restricted, so that it takes a lot of time and cost to acquire data. Therefore, it is very difficult to acquire motion data of a character in all scenes by motion capture.

【0018】また、同じゲームの中で、手付けモーショ
ンとモーションキャプチャによって作成されたモーショ
ンとを併用すると、違和感を与えるゲームとなってしま
い、特に同一のシーンにおいて併用すると違和感が目立
つ。
Further, if the hand-made motion and the motion created by the motion capture are used together in the same game, the game will give a sense of incongruity. In particular, when used together in the same scene, the discomfort will be noticeable.

【0019】本発明は以上の課題を解決すべく、手付け
モーションによって自然な動きを実現し、手付けモーシ
ョンとモーションキャプチャによるモーションデータを
使用した画像とを併用した場合において違和感の無い映
像を実現することが可能な、ビデオゲーム装置、ビデオ
ゲームアニメーション生成プログラム及びその記録媒体
を提供しようとするものである。
SUMMARY OF THE INVENTION In order to solve the above-mentioned problems, the present invention realizes natural motion by hand motion, and realizes an image free from discomfort when using hand motion and an image using motion capture motion data. It is an object of the present invention to provide a video game device, a video game animation generation program, and a recording medium for the video game device.

【0020】[0020]

【課題を解決するための手段】本発明の目的は、以下の
手段によって達成される。
The object of the present invention is achieved by the following means.

【0021】即ち、本発明の一態様によれば、3次元モ
デリングデータと動きの情報であるモーションデータと
を使用してアニメーション画像を生成するビデオゲーム
装置であって、キャラクタに付与された複数の代表点の
キーフレームにおける位置情報及び該代表点のモーショ
ンデータをフレームに対応させて記録する記録手段と、
前記代表点のキーフレームにおける位置情報と前記代表
点のモーションデータとを使用して前記キーフレーム以
外のフレームにおける前記代表点の位置情報を生成する
位置情報生成手段とを備え、前記代表点のモーションデ
ータの内、少なくとも角度成分はモーションキャプチャ
によって得られたデータを基に生成されたデータであ
り、前記代表点のキーフレームにおける位置情報は手付
けによって設定されたデータであるビデオゲーム装置が
提供される。
That is, according to one aspect of the present invention, there is provided a video game apparatus for generating an animation image using three-dimensional modeling data and motion data as motion information, wherein a plurality of characters are assigned to a character. Recording means for recording the position information of the representative point in the key frame and the motion data of the representative point in association with the frame;
Position information generating means for generating position information of the representative point in a frame other than the key frame using position information of the representative point in a key frame and motion data of the representative point, Among the data, at least the angle component is data generated based on data obtained by motion capture, and the position information of the representative point in the key frame is data set by hand. .

【0022】前記キャラクタは複数のオブジェクトを備
え、前記代表点は該オブジェクトに設定されたボーンに
付与された点とすることができる。
The character may include a plurality of objects, and the representative point may be a point assigned to a bone set on the object.

【0023】また、前記オブジェクトに付与したオブジ
ェクト番号と前記オブジェクトに対応する代表点のモー
ションデータに付与したモーションデータ番号とを対応
させて記録する記録手段と、コントローラからの信号に
応じて、前記オブジェクト番号毎に前記モーションデー
タ番号を選択する選択手段とを更に備えているビデオゲ
ーム装置であってもよい。
A recording means for recording the object number assigned to the object and the motion data number assigned to the motion data of the representative point corresponding to the object in correspondence with each other; The video game device may further include a selection unit that selects the motion data number for each number.

【0024】或いは、前記キーフレーム以外のフレーム
における2つの前記ボーンの成す角度が、予め設定され
た上限値よりも大きいか否か又は予め設定された下限値
よりも小さいか否かを判断する判断手段と、前記角度が
前記上限値よりも大きい又は前記下限値よりも小さい場
合に、前記角度を所定の値に置き換える置換手段とを更
に備えているビデオゲーム装置であってもよい。
Alternatively, it is determined whether or not the angle formed by the two bones in a frame other than the key frame is larger than a predetermined upper limit or smaller than a predetermined lower limit. The video game device may further comprise means and replacement means for replacing the angle with a predetermined value when the angle is larger than the upper limit or smaller than the lower limit.

【0025】また、本発明の別の一態様によれば、3次
元モデリングデータと動きの情報であるモーションデー
タとを使用してアニメーション画像を生成するビデオゲ
ーム装置に、キャラクタに付与された複数の代表点のキ
ーフレームにおける位置情報が手付けによって設定され
たデータであり、前記代表点のモーションデータの内、
少なくとも角度成分がモーションキャプチャによって得
られたデータを基に生成されたデータである場合、前記
代表点のキーフレームにおける位置情報及び前記代表点
のモーションデータをフレームに対応させて記録する機
能、前記代表点のキーフレームにおける位置情報と前記
代表点のモーションデータとを使用して前記キーフレー
ム以外のフレームにおける前記代表点の位置情報を生成
する機能を実現させるビデオゲームアニメーション生成
プログラムが提供される。
According to another aspect of the present invention, a video game device that generates an animation image using three-dimensional modeling data and motion data as motion information is provided with a plurality of characters assigned to a character. The position information in the key frame of the representative point is data set by hand, and among the motion data of the representative point,
When at least the angle component is data generated based on data obtained by motion capture, a function of recording the position information of the representative point in the key frame and the motion data of the representative point in association with the frame, A video game animation generation program is provided which realizes a function of generating position information of the representative point in a frame other than the key frame using position information of a point in a key frame and motion data of the representative point.

【0026】前記キャラクタは複数のオブジェクトを備
え、前記代表点は該オブジェクトに設定されたボーンに
付与された点とすることができる。
The character may include a plurality of objects, and the representative point may be a point assigned to a bone set for the object.

【0027】また、前記オブジェクトに付与したオブジ
ェクト番号と前記オブジェクトに対応する代表点のモー
ションデータに付与したモーションデータ番号とを対応
させて記録する機能、コントローラからの信号に応じ
て、前記オブジェクト番号毎に前記モーションデータ番
号を選択する機能を更に実現させるビデオゲームアニメ
ーション生成プログラムであってもよい。
A function for recording the object number assigned to the object and the motion data number assigned to the motion data of the representative point corresponding to the object in correspondence with each other; A video game animation generation program may further realize a function of selecting the motion data number.

【0028】或いは、前記キーフレーム以外のフレーム
における2つの前記ボーンの成す角度が、予め設定され
た上限値よりも大きいか否か又は予め設定された下限値
よりも小さいか否かを判断する機能、前記角度が前記上
限値よりも大きい又は前記下限値よりも小さい場合に、
前記角度を所定の値に置き換える機能を更に実現させる
ビデオゲームアニメーション生成プログラムであっても
よい。
Alternatively, a function of determining whether the angle formed by the two bones in a frame other than the key frame is larger than a predetermined upper limit or smaller than a predetermined lower limit. , When the angle is larger than the upper limit or smaller than the lower limit,
The video game animation generation program may further realize a function of replacing the angle with a predetermined value.

【0029】また、本発明の別の一態様によれば、3次
元モデリングデータと動きの情報であるモーションデー
タとを使用してアニメーション画像を生成するビデオゲ
ーム装置に、キャラクタに付与された複数の代表点のキ
ーフレームにおける位置情報が手付けによって設定され
たデータであり、前記代表点のモーションデータの内、
少なくとも角度成分がモーションキャプチャによって得
られたデータを基に生成されたデータである場合、前記
代表点のキーフレームにおける位置情報及び前記代表点
のモーションデータをフレームに対応させて記録する機
能、前記代表点のキーフレームにおける位置情報と前記
代表点のモーションデータとを使用して前記キーフレー
ム以外のフレームにおける前記代表点の位置情報を生成
する機能を実現させるビデオゲームアニメーション生成
プログラムを記録したコンピュータ読み取り可能な記録
媒体を提供することができる。
According to another aspect of the present invention, a video game device that generates an animation image using three-dimensional modeling data and motion data that is motion information is provided with a plurality of characters assigned to a character. The position information in the key frame of the representative point is data set by hand, and among the motion data of the representative point,
When at least the angle component is data generated based on data obtained by motion capture, a function of recording the position information of the representative point in the key frame and the motion data of the representative point in association with the frame, Computer readable recording of a video game animation generating program for realizing a function of generating position information of the representative point in a frame other than the key frame using position information of a point in a key frame and motion data of the representative point It is possible to provide a simple recording medium.

【0030】前記キャラクタは複数のオブジェクトを備
え、前記代表点は該オブジェクトに設定されたボーンに
付与された点とすることができる。
The character may include a plurality of objects, and the representative point may be a point assigned to a bone set on the object.

【0031】また、前記オブジェクトに付与したオブジ
ェクト番号と前記オブジェクトに対応する代表点のモー
ションデータに付与したモーションデータ番号とを対応
させて記録する機能、コントローラからの信号に応じ
て、前記オブジェクト番号毎に前記モーションデータ番
号を選択する機能を更に実現させるビデオゲームアニメ
ーション生成プログラムを記録したコンピュータ読み取
り可能な記録媒体であってもよい。
A function of recording the object number assigned to the object and the motion data number assigned to the motion data of the representative point corresponding to the object in correspondence with each other; A computer-readable recording medium that records a video game animation generation program that further realizes a function of selecting the motion data number.

【0032】或いは、前記キーフレーム以外のフレーム
における2つの前記ボーンの成す角度が、予め設定され
た上限値よりも大きいか否か又は予め設定された下限値
よりも小さいか否かを判断する機能、前記角度が前記上
限値よりも大きい又は前記下限値よりも小さい場合に、
前記角度を所定の値に置き換える機能を更に実現させる
ビデオゲームアニメーション生成プログラムを記録した
コンピュータ読み取り可能な記録媒体であってもよい。
Alternatively, a function of determining whether the angle formed by the two bones in a frame other than the key frame is larger than a predetermined upper limit or smaller than a predetermined lower limit. , When the angle is larger than the upper limit or smaller than the lower limit,
A computer-readable recording medium on which a video game animation generation program for further realizing a function of replacing the angle with a predetermined value may be recorded.

【0033】[0033]

【発明の実施の形態】以下、本発明に係るビデオゲーム
装置、ビデオゲームアニメーション生成プログラム及び
その記録媒体の実施の形態について説明する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, embodiments of a video game apparatus, a video game animation generation program, and a recording medium thereof according to the present invention will be described.

【0034】キャラクタは、複数のオブジェクトから構
成され、各オブジェクトは内部に複数のボーンを備え、
オブジェクト表面は複数のポリゴンによって構成されて
いる。ボーンは線分であり、ボーンの位置は両端の2点
の座標によって指定する。例えば、ボーンの両端の一方
を始点とし、始点を3次元空間に固定した座標軸に対す
る座標によって指定し、終点は対応する始点を原点とし
た相対座標で指定する。即ち、ボーンの3次元空間にお
ける位置は始点の座標によって決まり、終点の座標の角
度成分(θ,φ)、及び動径成分(r)によってボーン
の方向が決まる。
The character is composed of a plurality of objects, each of which has a plurality of bones therein.
The object surface is composed of a plurality of polygons. The bone is a line segment, and the position of the bone is specified by the coordinates of two points at both ends. For example, one of both ends of the bone is set as a start point, the start point is specified by coordinates on a coordinate axis fixed in a three-dimensional space, and the end point is specified by relative coordinates with the corresponding start point as the origin. That is, the position of the bone in the three-dimensional space is determined by the coordinates of the start point, and the direction of the bone is determined by the angle components (θ, φ) and the radial component (r) of the coordinates of the end point.

【0035】複数のボーンが同じ端点を備えている場合
には、その点において複数のボーンが接続されており、
各ボーンは接続点を中心として回転することができる
が、ボーンの長さは変化しないので隣接するボーンの変
位の影響を受けて動きが制限されることとなる。
When a plurality of bones have the same end point, a plurality of bones are connected at that point,
Each bone can rotate around the connection point, but the length of the bone does not change, so that the movement is limited by the displacement of the adjacent bone.

【0036】図2に、キャラクタ、オブジェクト、ボー
ンの関係の1例を示す。図3は、図2に対応したデータ
構造を示している。図2においては、キャラクタは2つ
の第1オブジェクト21及び第2オブジェクト22から
構成されており、第1オブジェクト21の内部には第1
ボーン23及び第2ボーン24が、第2オブジェクト2
2の内部には第3ボーン25及び第4ボーン26が設定
されている。点P1〜P5はボーンの始点又は終点であ
り、第1ボーン23と第2ボーン24は点P2におい
て、第1ボーン23と第3ボーン25は点P1におい
て、第3ボーン25と第4ボーン26は点P4におい
て、各々接続されている。図3においては、ボーンの接
続点である点P1、P2、P4の座標は、重複を避ける
ために各々1つだけ記録されている。
FIG. 2 shows an example of the relationship between a character, an object, and a bone. FIG. 3 shows a data structure corresponding to FIG. In FIG. 2, the character is composed of two first objects 21 and a second object 22, and the first object 21 has a first object inside.
The bone 23 and the second bone 24 are the second object 2
A third bone 25 and a fourth bone 26 are set inside the second bone 2. The points P1 to P5 are the start or end points of the bones. The first bone 23 and the second bone 24 are at the point P2, the first bone 23 and the third bone 25 are at the point P1, and the third bone 25 and the fourth bone 26. Are connected at a point P4. In FIG. 3, only one coordinate is recorded for each of the points P1, P2, and P4, which are the connection points of the bones, in order to avoid duplication.

【0037】各終点の座標は、隣接するボーンの成す角
度によって指定することも可能であることから、以下の
説明においては、図4に示すように点P3、P5の座標
の角度成分を角度α、βによって表す。図4において、
角度α1は第2ボーン24が第1ボーン23と成す角
度、角度β1は第1ボーン23を軸とした第2ボーン2
4の回転角度、角度α2は第4ボーン26が第3ボーン
25と成す角度、角度β2は第3ボーン25を軸とした
第4ボーン26の回転角度である。
Since the coordinates of each end point can be specified by the angle between adjacent bones, in the following description, as shown in FIG. 4, the angle components of the coordinates of the points P3 and P5 are represented by an angle α. , Β. In FIG.
The angle α1 is the angle formed by the second bone 24 with the first bone 23, and the angle β1 is the second bone 2 with the first bone 23 as an axis.
The rotation angle of 4, the angle α2 is the angle formed by the fourth bone 26 with the third bone 25, and the angle β2 is the rotation angle of the fourth bone 26 around the third bone 25.

【0038】図5〜7は、図4に対応した、キャラクタ
のアニメーション用のデータ構造を示すものである。図
5は、オブジェクト番号とモーションデータ番号とを対
応させて記録したテーブルであり、各オブジェクトに適
用可能なモーションデータを指定したテーブルである。
FIGS. 5 to 7 show the data structure for character animation corresponding to FIG. FIG. 5 is a table in which object numbers and motion data numbers are recorded in correspondence with each other, and is a table in which motion data applicable to each object is specified.

【0039】図6は、図3の(b)に対応するデータを
示しており、オブジェクト番号に対応させてオブジェク
トの点P1〜P5の座標を記録したテーブルである。図
6のデータは、キーフレーム用に手付けによって指定さ
れたキャラクタの位置及び形状に対応する。図5、6に
おいて、オブジェクト番号=0に対応する点は、基準点
を示しており、基準点以外の点は、基準点からの相対位
置として指定される。
FIG. 6 shows the data corresponding to FIG. 3B, and is a table in which the coordinates of the points P1 to P5 of the object are recorded in correspondence with the object numbers. The data in FIG. 6 corresponds to the position and shape of the character manually specified for the key frame. 5 and 6, the point corresponding to the object number = 0 indicates a reference point, and points other than the reference point are designated as relative positions from the reference point.

【0040】図4と図6における座標成分の関係は、点
Aと点Bの距離をL[A,B]と表すと、 θ1=θ(1,1,0)、 φ1=φ(1,1,0) α1=α(2,1,0)、 β1=β(2,1,0) α2=α(4,1,0)、 β2=β(4,1,0) L[P1,P2]=r(1,1,0) L[P2,P3]=r(2,1,0) L[P1,P4]=r(3,1,0) L[P4,P5]=r(4,1,0) である。
The relationship between the coordinate components in FIGS. 4 and 6 is as follows: When the distance between the point A and the point B is represented by L [A, B], θ1 = θ (1,1,0) and φ1 = φ (1, 1,0) α1 = α (2,1,0), β1 = β (2,1,0) α2 = α (4,1,0), β2 = β (4,1,0) L [P1, P2] = r (1,1,0) L [P2, P3] = r (2,1,0) L [P1, P4] = r (3,1,0) L [P4, P5] = r ( 4,1,0).

【0041】図7は、モーションデータ番号に対応させ
て、モーションキャプチャによって得られたキャプチャ
データを記録したテーブルであり、点P1〜P5の座標
の時間変化が、第1フレーム〜第nフレームの一連のデ
ータとして記録されている。点P2〜P5は各ボーンの
終点であり、ボーンの長さが初期値から変化しないこと
から、角度成分だけで座標が決まる。点P1は、基準点
であることから、座標の動径成分(r成分)の情報も備
えている。図6、7において、各変数の括弧内の数値
(i,j,k)は、第iボーン、始点(j=0)又は終
点(j=1)、第kフレームを表す。例えば、Δα
(2,1,3)は、第2ボーンの終点の第3フレームに
おけるデータであることを表す。Δr、Δθ、Δφ、Δ
α、Δβは、特定のフレームにおける各点の座標のキー
フレーム(第0フレ−ム)における対応する点の座標と
の差分データ形式で記録されている。図7のモーション
データ番号1、3、5のキャプチャデータは第nフレー
ムまでのデータを備えているが、モーションデータ番号
2、4、6のキャプチャデータは、第nフレームよりも
少ないデータしか備えておらず、モーションデータ番号
1、3、5よりもモーション再生の時間が短いことを示
している。
FIG. 7 is a table in which the captured data obtained by the motion capture is recorded in correspondence with the motion data number. The time change of the coordinates of the points P1 to P5 is a series of the first to nth frames. Is recorded as data. The points P2 to P5 are the end points of each bone, and since the length of the bone does not change from the initial value, the coordinates are determined only by the angle components. Since the point P1 is a reference point, it also has information on a radial component (r component) of coordinates. 6 and 7, the numerical value (i, j, k) in parentheses of each variable represents the i-th bone, the start point (j = 0) or the end point (j = 1), and the k-th frame. For example, Δα
(2, 1, 3) represents data in the third frame at the end point of the second bone. Δr, Δθ, Δφ, Δ
.alpha. and .DELTA..beta. are recorded in the form of a difference data between the coordinates of each point in a specific frame and the coordinates of the corresponding point in the key frame (0th frame). The capture data of motion data numbers 1, 3, and 5 in FIG. 7 includes data up to the n-th frame, whereas the capture data of motion data numbers 2, 4, and 6 includes less data than the n-th frame. This indicates that the time of motion reproduction is shorter than the motion data numbers 1, 3, and 5.

【0042】図8は、本発明に係るビデオゲーム装置、
ビデオゲームアニメーション生成プログラムに関して、
CPU101が行う処理のフローチャートを示す。以
下、図4〜7を使用して、アニメーション画像の生成に
関して説明する。
FIG. 8 shows a video game device according to the present invention.
Regarding the video game animation generation program,
4 shows a flowchart of a process performed by the CPU 101. Hereinafter, generation of an animation image will be described with reference to FIGS.

【0043】ステップ801において、DVD−ROM
130からCGデータ、即ちアニメーションの対象であ
るキャラクタのモデリングデータを読み出して、RAM
103に記録する。同時に、キーフレーム用に手付けで
指定されたボーンの位置及び角度、モーションキャプチ
ャによって得られたモーションデータ(図5〜7のデー
タ)をDVD−ROM130から読み出して、RAM1
03に記録する。
At step 801, the DVD-ROM
CG data, that is, the modeling data of the character to be animated is read from
Record in 103. At the same time, the position and angle of the bone manually specified for the key frame, and the motion data (data in FIGS. 5 to 7) obtained by the motion capture are read from the DVD-ROM 130,
Record at 03.

【0044】ステップ802において、GPU104に
指示をして、図6に示す各点の座標データとステップ8
01で読み出したキャラクタのモデリングデータを使用
してキーフレームに対するキャラクタの3次元CGデー
タを生成させ、この生成されたCGデータを使用して特
定の視点から見た2次元画像を生成させ、フレームメモ
リ105に記録させる。フレームメモリ105に記録さ
れたデータは、ビデオ出力部106によって所定のタイ
ミングで読み出され、ビデオ信号に変換されて映像表示
装置140に供給される。
In step 802, the GPU 104 is instructed to store the coordinate data of each point shown in FIG.
01 is used to generate three-dimensional CG data of the character for the key frame using the modeling data of the character read out, and a two-dimensional image viewed from a specific viewpoint is generated using the generated CG data. 105 is recorded. The data recorded in the frame memory 105 is read out at a predetermined timing by the video output unit 106, converted into a video signal, and supplied to the video display device 140.

【0045】ステップ803において、コントローラ1
20からの信号を受信し、操作ボタンの押下情報からキ
ャラクタに対する動作指示を判断する。
In step 803, the controller 1
The control unit 20 receives a signal from the control unit 20 and determines a motion instruction for the character based on the press information of the operation button.

【0046】ステップ804において、ステップ803
で決定された動作指示に対応して、各オブジェクトに適
用するモーションデータ番号を決定する。以下のステッ
プにおいては、1例として、基準点、オブジェクト番号
1、オブジェクト番号2の各々に対して、モーションデ
ータ番号1、3、5を適用するように決定されたとす
る。
In step 804, step 803
A motion data number to be applied to each object is determined according to the operation instruction determined in step (1). In the following steps, as an example, it is assumed that it is determined that motion data numbers 1, 3, and 5 are applied to each of the reference point, object number 1, and object number 2.

【0047】ステップ805において、フレーム番号を
示すkに1をセットする。
At step 805, 1 is set to k indicating the frame number.

【0048】ステップ806において、第kフレームに
おける基準点の座標を計算する。具体的には、図6の点
P1の座標(r,θ,φ)と、図7におけるモーション
データ番号1の一連のデータ中の第kフレームに対応す
る(Δr,Δθ,Δφ)を使用して、第kフレームにお
ける座標データを、 r(1,0,k)=r(1,0,0)+Δr(1,0,k) θ(1,0,k)=θ(1,0,0)+Δθ(1,0,k) φ(1,0,k)=φ(1,0,0)+Δφ(1,0,k) によって計算する。
In step 806, the coordinates of the reference point in the k-th frame are calculated. Specifically, the coordinates (r, θ, φ) of the point P1 in FIG. 6 and (Δr, Δθ, Δφ) corresponding to the k-th frame in the series of data of motion data number 1 in FIG. 7 are used. Then, the coordinate data in the k-th frame is calculated as follows: r (1,0, k) = r (1,0,0) + Δr (1,0, k) θ (1,0, k) = θ (1,0, 0) + Δθ (1,0, k) φ (1,0, k) = φ (1,0,0) + Δφ (1,0, k)

【0049】ステップ807において、第kフレームに
おける基準点以外の点の座標を計算する。具体的には、
図6の点P2〜P5の座標の角度成分(θ,φ)又は
(α,β)と、図7におけるモーションデータ番号3、
5の(Δθ,Δφ)又は(Δα,Δβ)を使用して、第
kフレームにおける座標の角度成分を、 θ(i,1,k)=θ(i,1,0)+Δθ(i,1,k) φ(i,1,k)=φ(i,1,0)+Δφ(i,1,k) (ここで、i=1又は3)、 α(i,1,k)=α(i,1,0)+Δα(i,1,k) β(i,1,k)=β(i,1,0)+Δβ(i,1,k) (ここで、i=2又は4)によって計算する。
In step 807, coordinates of points other than the reference point in the k-th frame are calculated. In particular,
The angle components (θ, φ) or (α, β) of the coordinates of the points P2 to P5 in FIG.
Using (Δθ, Δφ) or (Δα, Δβ) of 5, the angle component of the coordinates in the k-th frame is calculated as follows: θ (i, 1, k) = θ (i, 1,0) + Δθ (i, 1) , K) φ (i, 1, k) = φ (i, 1,0) + Δφ (i, 1, k) (where i = 1 or 3), α (i, 1, k) = α ( i, 1,0) + Δα (i, 1, k) β (i, 1, k) = β (i, 1,0) + Δβ (i, 1, k) (where i = 2 or 4) calculate.

【0050】ステップ808において、ステップ802
と同様にGPU104に指示をして、ステップ807、
808において計算された座標データ及び各ボーンの長
さデータを使用して、第kフレームに対するキャラクタ
の3次元CGデータを生成させ、生成されたCGデータ
を使用して特定の視点から見た2次元画像を生成させ、
フレームメモリ105に記録させる。ここで、ステップ
807において得られた座標は、各始点からの相対座標
であることから、ステップ806において得られた基準
点の座標を基に、3次元空間に固定された原点に対する
座標に変換される。フレームメモリ105に記録された
データは、ビデオ出力部106によって所定のタイミン
グで読み出され、ビデオ信号に変換されて映像表示装置
140に供給される。
At step 808, step 802
Is instructed to the GPU 104 in the same manner as in step 807,
The coordinate data and the length data of each bone calculated in 808 are used to generate three-dimensional CG data of the character for the k-th frame, and the generated CG data is used to generate two-dimensional CG data from a specific viewpoint. Generate an image,
The data is recorded in the frame memory 105. Here, since the coordinates obtained in step 807 are relative coordinates from each starting point, the coordinates are converted to coordinates with respect to the origin fixed in the three-dimensional space based on the coordinates of the reference point obtained in step 806. You. The data recorded in the frame memory 105 is read out at a predetermined timing by the video output unit 106, converted into a video signal, and supplied to the video display device 140.

【0051】ステップ809において、最後のフレーム
まで処理が完了したか否かを判断し、完了したと判断し
た場合にはステップ811に移行し、完了していないと
判断した場合には、ステップ810に移行してkに1を
加算してステップ806に戻り、次の第(k+1)フレ
ームの画像を生成するためにステップ806〜808に
おける処理を繰り返す。
In step 809, it is determined whether or not the processing has been completed up to the last frame. If it is determined that the processing has been completed, the process proceeds to step 811. If it is determined that the processing has not been completed, the process proceeds to step 810. The processing shifts, 1 is added to k, the process returns to step 806, and the processes in steps 806 to 808 are repeated to generate the image of the next (k + 1) th frame.

【0052】最後に、ステップ811において、コント
ローラ120からの信号が終了を指示する信号か否かを
判断し、終了の指示があるまで、ステップ803に戻り
上記の処理を繰り返す。
Finally, in step 811, it is determined whether or not the signal from the controller 120 is a signal for instructing termination, and the flow returns to step 803 to repeat the above processing until there is a termination instruction.

【0053】以上において、手付けによるキーフレーム
の情報とキャプチャデータとは、各々独自に生成された
データであることから、ステップ807における計算結
果をそのまま使用して画像を生成すると、不具合のある
画像が生成される場合がある。例えば、人間の肘や膝関
節は通常一方向にしか曲がらないが、ステップ807の
計算結果によってボーンの成す角度が180度を超える
と、違和感のある画像となってしまう。
In the above description, the key frame information and the capture data by hand are individually generated data. Therefore, if an image is generated using the calculation result in step 807 as it is, a defective image is generated. May be generated. For example, the human elbow or knee joint normally bends in only one direction, but if the angle formed by the bones exceeds 180 degrees as a result of the calculation in step 807, an uncomfortable image will result.

【0054】以下においては、プレーヤに対して違和感
を与えないように一定の角度範囲を超えないようにする
処理に関して説明する。図9は、図8のステップ807
とステップ808の間に挿入される処理を示す。
In the following, a description will be given of a process for preventing a player from feeling uncomfortable so as not to exceed a certain angle range. FIG. 9 is a flowchart showing step 807 in FIG.
And the processing inserted between step 808 and FIG.

【0055】ステップ901において、ループカウンタ
に初期値をセットする。ステップ902において、図8
のステップ807の計算結果であるα(i,1,k)
(i=2又は4)が、予め設定した下限値よりも小さい
か否かを判断する。下限値αminよりも小さいと判断し
た場合、ステップ903に移行してαをαminで置き換
える。
In step 901, an initial value is set in a loop counter. In step 902, FIG.
Α (i, 1, k) which is the calculation result of step 807
It is determined whether (i = 2 or 4) is smaller than a preset lower limit. If it is determined that the value is smaller than the lower limit value αmin, the process proceeds to step 903 to replace α with αmin.

【0056】ステップ904において、図8のステップ
807の計算結果であるα(i,1,k)(i=2又は
4)が、予め設定した上限値よりも大きいか否かを判断
する。上限値αmaxよりも大きいと判断した場合、ステ
ップ905に移行してαをαmaxで置き換える。
In step 904, it is determined whether or not α (i, 1, k) (i = 2 or 4), which is the calculation result in step 807 in FIG. 8, is larger than a preset upper limit. If it is determined that the value is larger than the upper limit value αmax, the process shifts to step 905 to replace α with αmax.

【0057】ステップ906において、処理が完了した
か否かを判断し、完了していないと判断すれば、ステッ
プ907においてiに次の値をセットして、ステップ9
03に戻り上記の処理を繰り返す。
In step 906, it is determined whether or not the processing has been completed. If it is determined that the processing has not been completed, the next value is set in i in step 907, and
03 and repeat the above processing.

【0058】ステップ906において処理が完了したと
判断すれば、ステップ808に移行し、ステップ903
又は904において設定されたαmin又はαmaxを使用し
て、キャラクタの3次元CGデータが計算される。
If it is determined in step 906 that the processing has been completed, the flow shifts to step 808, where
Alternatively, the three-dimensional CG data of the character is calculated using αmin or αmax set in 904.

【0059】上記において、角度αが設定範囲内に無い
場合に、角度αを設定範囲の上限値又は下限値で置き換
えることを説明したが、上限値又は下限値以外の所定の
値で置き換えることや、上限値又は下限値と図8のステ
ップ807の計算結果に基づくαとの平均値に置き換え
ることなども可能である。
In the above description, when the angle α is not within the set range, the angle α is replaced with the upper limit or the lower limit of the set range. However, the angle α may be replaced with a predetermined value other than the upper limit or the lower limit. , And the average value of α based on the calculation result of step 807 in FIG.

【0060】上記においては、図4に示すように、各々
2つのボーンを備えた2つのオブジェクトによって構成
されるキャラクタに関して説明したが、キャラクタをさ
らに多数のボーンを備えた多数のオブジェクトから構成
した場合でも、同様に処理することによってモーション
を生成することが可能である。
In the above description, as shown in FIG. 4, a character constituted by two objects each having two bones has been described. However, when the character is constituted by a large number of objects having further many bones. However, it is possible to generate a motion by performing the same processing.

【0061】また、図5〜7においては、各オブジェク
トに適用できるモーションデータとして各々2つずつ指
定しているが、各オブジェクト毎に異なる数のモーショ
ンデータを指定することも可能である。さらに、1つの
オブジェクトに対してより多数のモーションデータを使
用することによって、コントローラからの信号によって
さまざまなモーションを生成することができる。
Further, in FIGS. 5 to 7, two motion data are designated as motion data applicable to each object. However, a different number of motion data can be designated for each object. Furthermore, by using more motion data for one object, various motions can be generated by signals from the controller.

【0062】また、図5〜7に示すように、モーション
データはキャラクタのモデリングデータと別に指定され
ていることから、キャラクタのモデリングデータが同じ
ボーン構造のオブジェクトを備えている場合には、その
オブジェクトに対して既存のモーションデータをそのま
ま適用することができる。
Further, as shown in FIGS. 5 to 7, since the motion data is specified separately from the modeling data of the character, if the modeling data of the character includes an object having the same bone structure, , The existing motion data can be applied as it is.

【0063】また、上記においては、オブジェクト番号
とモーションデータ番号とを対応させて記録する場合を
説明したが、複数のキーフレームデータを備え、図10
に示すようにオブジェクト番号にモーションデータ番号
及びキーフレーム番号を対応させて記録し、コントロー
ラからの信号によって、オブジェクトのモーション生成
に使用するモーションデータ及びキーフレームデータを
選択することも可能である。
In the above description, the case where the object numbers and the motion data numbers are recorded in association with each other has been described.
As shown in (1), the motion data number and the key frame number are recorded in association with the object number, and the motion data and the key frame data used for generating the motion of the object can be selected by a signal from the controller.

【0064】また、上記においてモーションデータは、
全てキャプチャデータであるとしたが、基準点に対する
モーションデータ例えば図7におけるモーションデータ
番号1、2に対応するモーションデータを、手付けによ
って指定したデータから補間処理によって生成したデー
タとすることも可能である。その場合には、キャプチャ
データによって表現される不規則な動きは角度成分のみ
に反映されることとなる。
In the above, the motion data is
Although it is assumed that all of the data is capture data, motion data corresponding to the reference point, for example, motion data corresponding to motion data numbers 1 and 2 in FIG. 7 may be data generated by interpolation processing from manually specified data. . In that case, the irregular movement represented by the capture data is reflected only on the angle component.

【0065】また、上記においては、キーフレームとの
差分情報によって指定されたモーションデータを使用す
る場合を説明したが、隣接するフレーム間の差分情報と
して指定されたモーションデータを使用することも可能
である。
In the above description, the case where the motion data specified by the difference information from the key frame is used has been described. However, the motion data specified as the difference information between adjacent frames can be used. is there.

【0066】また、ゲームのプログラム及びデータの記
録媒体としてはDVD−ROMに限定されるものではな
く、CD−ROMや半導体メモリを内蔵したゲームカセ
ットなどであってもよい。また、ゲーム装置本体100
の内部構成も図1の構成に限定されるものではなく、ネ
ットワークとのインタフェース部を備えて、ネットワー
ク経由でゲームのプログラムやデータなどを読み込むも
のであってもよい。
The recording medium for the game program and data is not limited to a DVD-ROM, but may be a CD-ROM or a game cassette containing a semiconductor memory. In addition, the game device body 100
The internal configuration is not limited to the configuration shown in FIG. 1, but may include an interface unit with a network and read a game program or data via the network.

【0067】[0067]

【発明の効果】本発明に係るビデオゲーム装置、ビデオ
ゲーム画面制御プログラム及びその記録媒体によれば、
キャラクタの動きが直線的な動きとならず、自然な動き
を再現することが可能となる。
According to the video game apparatus, the video game screen control program and the recording medium according to the present invention,
The movement of the character does not become a linear movement, and a natural movement can be reproduced.

【0068】また、既存の手付けモーションデータを使
用することができることから、データ取得に多大な時間
と費用がかかるモーションキャプチャによってモーショ
ンデータを新たに作成する頻度を少なくすることがで
き、ゲームの制作費用を低減することが可能となる。
Further, since the existing hand-made motion data can be used, the frequency of newly creating motion data can be reduced by the motion capture, which requires a great deal of time and cost for data acquisition, and the production cost of the game can be reduced. Can be reduced.

【0069】また、ゲームの同一のシーンにおいて、手
付けモーションとモーションキャプチャによって取得さ
れたデータを基に生成されたモーションを併用する場合
に発生する違和感を緩和することができる。
In addition, in the same scene of the game, it is possible to reduce a sense of discomfort that occurs when the hand-made motion and the motion generated based on the data acquired by the motion capture are used together.

【0070】また、異なるキャラクタでも、同じボーン
構造であるオブジェクトを備えていれば、そのオブジェ
クトに対して、モーションキャプチャによってモーショ
ンデータを新たに作成することなく、既存のモーション
キャプチャによるモーションデータを使用して、自然な
動きを再現することが可能となり、適用する既存のモー
ションデータを変更することによって、同じオブジェク
トに対して様々な変化のある動きを再現することが可能
となる。
Also, if different characters have an object having the same bone structure, the motion data of the existing motion capture is used for the object without newly creating motion data by the motion capture. Thus, natural motion can be reproduced, and by changing existing motion data to be applied, it is possible to reproduce various changing motions for the same object.

【図面の簡単な説明】[Brief description of the drawings]

【図1】ビデオゲーム装置の概略構成を示すブロック図
である。
FIG. 1 is a block diagram illustrating a schematic configuration of a video game device.

【図2】本発明の実施の形態に係るキャラクタがオブジ
ェクトとボーンによって構成されている状態を示す説明
図である。
FIG. 2 is an explanatory diagram showing a state in which the character according to the embodiment of the present invention is composed of objects and bones.

【図3】(a)(b)は本発明の実施の形態に係るオブ
ジェクトとボーンの構造データを示す説明図である。
FIGS. 3A and 3B are explanatory diagrams showing object and bone structure data according to the embodiment of the present invention.

【図4】本発明の実施の形態に係るボーンの終点の座標
を角度(α,β)によって指定した状態を示す説明図で
ある。
FIG. 4 is an explanatory diagram showing a state in which coordinates of an end point of a bone are designated by angles (α, β) according to the embodiment of the present invention.

【図5】本発明の実施の形態に係るオブジェクト番号と
モーションデータ番号とを対応させて記録したテーブル
を示す説明図である。
FIG. 5 is an explanatory diagram showing a table in which object numbers and motion data numbers are recorded in association with each other according to the embodiment of the present invention.

【図6】本発明の実施の形態に係るキーフレームにおけ
る各点の座標データを記録したテーブルを示す説明図で
ある。
FIG. 6 is an explanatory diagram showing a table in which coordinate data of each point in a key frame according to the embodiment of the present invention is recorded.

【図7】本発明の実施の形態に係るモーションデータ番
号毎にキャプチャデータを記録したテーブルを示す説明
図である。
FIG. 7 is an explanatory diagram showing a table in which capture data is recorded for each motion data number according to the embodiment of the present invention.

【図8】本発明の実施の形態に係るCPUの処理を示す
フローチャートである。
FIG. 8 is a flowchart showing processing of a CPU according to the embodiment of the present invention.

【図9】本発明の実施の形態に係るボーン間の角度を修
正する処理を示すフローチャートである。
FIG. 9 is a flowchart illustrating a process of correcting an angle between bones according to the embodiment of the present invention.

【図10】本発明の実施の形態に係るオブジェクト番
号、モーションデータ番号及びキーフレーム番号を対応
させて記録したテーブルを示す説明図である。
FIG. 10 is an explanatory diagram showing a table in which object numbers, motion data numbers, and key frame numbers are recorded in association with each other according to the embodiment of the present invention.

【符号の説明】[Explanation of symbols]

100 ゲーム装置本体 101 中央演算処理ユニット(CPU) 102 ROM 103 RAM 104 グラフィックス処理ユニット(GPU) 105 フレームメモリ 106 ビデオ出力部 107 DVD−ROMデコーダ 108 DVD−ROMドライブ 109 インタフェース部(I/F部) 110 内部バス 120 コントローラ 130 DVD−ROM 140 映像表示装置 REFERENCE SIGNS LIST 100 game device main unit 101 central processing unit (CPU) 102 ROM 103 RAM 104 graphics processing unit (GPU) 105 frame memory 106 video output unit 107 DVD-ROM decoder 108 DVD-ROM drive 109 interface unit (I / F unit) 110 internal bus 120 controller 130 DVD-ROM 140 video display device

Claims (12)

【特許請求の範囲】[Claims] 【請求項1】 3次元モデリングデータと動きの情報
であるモーションデータとを使用してアニメーション画
像を生成するビデオゲーム装置であって、 キャラクタに付与された複数の代表点のキーフレームに
おける位置情報及び該代表点のモーションデータをフレ
ームに対応させて記録する記録手段と、 前記代表点のキーフレームにおける位置情報と前記代表
点のモーションデータとを使用して前記キーフレーム以
外のフレームにおける前記代表点の位置情報を生成する
位置情報生成手段とを備え、 前記代表点のモーションデータの内、少なくとも角度成
分はモーションキャプチャによって得られたデータを基
に生成されたデータであり、 前記代表点のキーフレームにおける位置情報は手付けに
よって設定されたデータであることを特徴とするビデオ
ゲーム装置。
1. A video game apparatus for generating an animation image using three-dimensional modeling data and motion data as motion information, comprising: position information in a key frame of a plurality of representative points given to a character; Recording means for recording the motion data of the representative point in association with the frame; and using the position information of the representative point in the key frame and the motion data of the representative point to record the representative point in a frame other than the key frame. Position information generating means for generating position information, wherein at least the angle component of the motion data of the representative point is data generated based on data obtained by motion capture, and in the key frame of the representative point. The feature is that the location information is data set by hand. That the video game device.
【請求項2】 前記キャラクタは複数のオブジェクト
を備え、 前記代表点は該オブジェクトに設定されたボーンに付与
された点であることを特徴とする請求項1に記載のビデ
オゲーム装置。
2. The video game device according to claim 1, wherein the character has a plurality of objects, and the representative point is a point given to a bone set for the object.
【請求項3】 前記オブジェクトに付与したオブジェ
クト番号と前記オブジェクトに対応する代表点のモーシ
ョンデータに付与したモーションデータ番号とを対応さ
せて記録する記録手段と、 コントローラからの信号に応じて、前記オブジェクト番
号毎に前記モーションデータ番号を選択する選択手段と
を備えていることを特徴とする請求項2に記載のビデオ
ゲーム装置。
3. Recording means for recording an object number assigned to the object and a motion data number assigned to motion data of a representative point corresponding to the object in correspondence with each other; 3. The video game apparatus according to claim 2, further comprising a selection unit that selects the motion data number for each number.
【請求項4】 前記キーフレーム以外のフレームにお
ける2つの前記ボーンの成す角度が、予め設定された上
限値よりも大きいか否か又は予め設定された下限値より
も小さいか否かを判断する判断手段と、 前記角度が前記上限値よりも大きい又は前記下限値より
も小さい場合に、前記角度を所定の値に置き換える置換
手段とを備えていることを特徴とする請求項2に記載の
ビデオゲーム装置。
4. A determination for determining whether an angle formed by two bones in a frame other than the key frame is larger than a predetermined upper limit or smaller than a predetermined lower limit. 3. The video game according to claim 2, further comprising: means for replacing the angle with a predetermined value when the angle is larger than the upper limit or smaller than the lower limit. apparatus.
【請求項5】 3次元モデリングデータと動きの情報
であるモーションデータとを使用してアニメーション画
像を生成するビデオゲーム装置に、 キャラクタに付与された複数の代表点のキーフレームに
おける位置情報が手付けによって設定されたデータであ
り、 前記代表点のモーションデータの内、少なくとも角度成
分がモーションキャプチャによって得られたデータを基
に生成されたデータである場合、 前記代表点のキーフレームにおける位置情報及び前記代
表点のモーションデータをフレームに対応させて記録す
る機能、 前記代表点のキーフレームにおける位置情報と前記代表
点のモーションデータとを使用して前記キーフレーム以
外のフレームにおける前記代表点の位置情報を生成する
機能を実現させることを特徴とするビデオゲームアニメ
ーション生成プログラム。
5. A video game apparatus for generating an animation image using three-dimensional modeling data and motion data as motion information, wherein position information of key points of a plurality of representative points given to a character is manually added. The set data, wherein at least the angle component of the motion data of the representative point is data generated based on data obtained by motion capture, the position information and the representative of the representative point in a key frame. A function of recording motion data of a point in association with a frame; generating position information of the representative point in a frame other than the key frame using the position information of the representative point in a key frame and the motion data of the representative point. Video game characterized by realizing Animation creation program.
【請求項6】 前記キャラクタは複数のオブジェクト
を備え、 前記代表点は該オブジェクトに設定されたボーンに付与
された点であることを特徴とする請求項5に記載のビデ
オゲームアニメーション生成プログラム。
6. The video game animation generation program according to claim 5, wherein the character includes a plurality of objects, and the representative point is a point given to a bone set to the object.
【請求項7】 前記オブジェクトに付与したオブジェ
クト番号と前記オブジェクトに対応する代表点のモーシ
ョンデータに付与したモーションデータ番号とを対応さ
せて記録する機能、 コントローラからの信号に応じて、前記オブジェクト番
号毎に前記モーションデータ番号を選択する機能を実現
させることを特徴とする請求項6に記載のビデオゲーム
アニメーション生成プログラム。
7. A function of recording the object number assigned to the object and the motion data number assigned to the motion data of the representative point corresponding to the object in correspondence with each other. 7. The video game animation generation program according to claim 6, wherein a function of selecting the motion data number is realized.
【請求項8】 前記キーフレーム以外のフレームにお
ける2つの前記ボーンの成す角度が、予め設定された上
限値よりも大きいか否か又は予め設定された下限値より
も小さいか否かを判断する機能、 前記角度が前記上限値よりも大きい又は前記下限値より
も小さい場合に、前記角度を所定の値に置き換える機能
を実現させることを特徴とする請求項6に記載のビデオ
ゲームアニメーション生成プログラム。
8. A function of determining whether an angle formed by two bones in a frame other than the key frame is larger than a predetermined upper limit or smaller than a predetermined lower limit. 7. The computer-readable storage medium according to claim 6, wherein a function of replacing the angle with a predetermined value when the angle is larger than the upper limit or smaller than the lower limit is realized.
【請求項9】 3次元モデリングデータと動きの情報
であるモーションデータとを使用してアニメーション画
像を生成するビデオゲーム装置に、 キャラクタに付与された複数の代表点のキーフレームに
おける位置情報が手付けによって設定されたデータであ
り、 前記代表点のモーションデータの内、少なくとも角度成
分がモーションキャプチャによって得られたデータを基
に生成されたデータである場合、 前記代表点のキーフレームにおける位置情報及び前記代
表点のモーションデータをフレームに対応させて記録す
る機能、 前記代表点のキーフレームにおける位置情報と前記代表
点のモーションデータとを使用して前記キーフレーム以
外のフレームにおける前記代表点の位置情報を生成する
機能を実現させることを特徴とするビデオゲームアニメ
ーション生成プログラムを記録したコンピュータ読み取
り可能な記録媒体。
9. A video game apparatus for generating an animation image using three-dimensional modeling data and motion data as motion information, wherein position information in a key frame of a plurality of representative points given to a character is manually added. The set data, wherein at least the angle component of the motion data of the representative point is data generated based on data obtained by motion capture, the position information and the representative of the representative point in a key frame. A function of recording motion data of a point in association with a frame; generating position information of the representative point in a frame other than the key frame using the position information of the representative point in a key frame and the motion data of the representative point. Video game characterized by realizing A computer-readable recording medium an animation generator.
【請求項10】 前記キャラクタは複数のオブジェク
トを備え、 前記代表点は該オブジェクトに設定されたボーンに付与
された点であることを特徴とする請求項9に記載のビデ
オゲームアニメーション生成プログラムを記録したコン
ピュータ読み取り可能な記録媒体。
10. The video game animation generation program according to claim 9, wherein the character includes a plurality of objects, and the representative point is a point given to a bone set in the object. Computer readable recording medium.
【請求項11】 前記オブジェクトに付与したオブジ
ェクト番号と前記オブジェクトに対応する代表点のモー
ションデータに付与したモーションデータ番号とを対応
させて記録する機能、 コントローラからの信号に応じて、前記オブジェクト番
号毎に前記モーションデータ番号を選択する機能を実現
させることを特徴とする請求項10に記載のビデオゲー
ムアニメーション生成プログラムを記録したコンピュー
タ読み取り可能な記録媒体。
11. A function of recording an object number assigned to the object and a motion data number assigned to motion data of a representative point corresponding to the object in correspondence with each other. 11. A computer-readable recording medium storing a video game animation generation program according to claim 10, wherein a function of selecting the motion data number is realized.
【請求項12】 前記キーフレーム以外のフレームに
おける2つの前記ボーンの成す角度が、予め設定された
上限値よりも大きいか否か又は予め設定された下限値よ
りも小さいか否かを判断する機能、 前記角度が前記上限値よりも大きい又は前記下限値より
も小さい場合に、前記角度を所定の値に置き換える機能
を実現させることを特徴とする請求項10に記載のビデ
オゲームアニメーション生成プログラムを記録したコン
ピュータ読み取り可能な記録媒体。
12. A function of determining whether an angle formed by two bones in a frame other than the key frame is larger than a predetermined upper limit or smaller than a predetermined lower limit. 11. The video game animation generation program according to claim 10, wherein a function of replacing the angle with a predetermined value when the angle is larger than the upper limit or smaller than the lower limit is realized. Computer readable recording medium.
JP2001142933A 2001-05-14 2001-05-14 Video game device and video game animation generation program and its recording medium Pending JP2002342784A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001142933A JP2002342784A (en) 2001-05-14 2001-05-14 Video game device and video game animation generation program and its recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001142933A JP2002342784A (en) 2001-05-14 2001-05-14 Video game device and video game animation generation program and its recording medium

Publications (1)

Publication Number Publication Date
JP2002342784A true JP2002342784A (en) 2002-11-29

Family

ID=18989150

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001142933A Pending JP2002342784A (en) 2001-05-14 2001-05-14 Video game device and video game animation generation program and its recording medium

Country Status (1)

Country Link
JP (1) JP2002342784A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102930582A (en) * 2012-10-16 2013-02-13 郅刚锁 Animation production method based on game engine
JP2018028813A (en) * 2016-08-18 2018-02-22 株式会社カプコン Game program and game system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102930582A (en) * 2012-10-16 2013-02-13 郅刚锁 Animation production method based on game engine
JP2018028813A (en) * 2016-08-18 2018-02-22 株式会社カプコン Game program and game system

Similar Documents

Publication Publication Date Title
US6738067B2 (en) Image processing device, image processing method and recording medium
KR100418173B1 (en) Image generation apparatus, its method, game machine and recording medium
JP3133299B2 (en) Game device, moving image display method, and recording medium
JPH0816820A (en) Three-dimensional animation generation device
JP2000107447A (en) Video game device, game image display method, and recording medium
TW459209B (en) Animation creation apparatus and method
US20110175922A1 (en) Method for defining animation parameters for an animation definition interface
US20050243092A1 (en) Method for defining animation parameters for an animation definition interface
US5986660A (en) Motion capture data system and display
EP2164048A1 (en) Game device, game device control method, program, and information storage medium
JP3530095B2 (en) Three-dimensional object transformation method and video game apparatus in video game, and computer-readable recording medium on which video game program is recorded
JP3990258B2 (en) Image generation system, program, and information storage medium
JP4447000B2 (en) Image generation system, program, and information storage medium
JP2002342784A (en) Video game device and video game animation generation program and its recording medium
JP3551538B2 (en) Method and apparatus for creating a three-dimensional model
JPH09147134A (en) Animation generating device
JP3643796B2 (en) Program, information storage medium, and game device
JP5408206B2 (en) Image generation method, image generation apparatus, and program
KR101859318B1 (en) Video content production methods using 360 degree virtual camera
JP4257764B2 (en) Game character motion display method
JP3363134B2 (en) 3D model drawing data creation method, apparatus, 3D video game apparatus, and readable recording medium on which 3D model drawing data creation program is recorded
JP4786389B2 (en) Program, information storage medium, and image generation system
JP3765115B2 (en) Video generation device
JP2002262178A (en) Video display device
JP3589657B2 (en) 3D polygon surface pattern processing method