JPH10307930A - Animation production system - Google Patents
Animation production systemInfo
- Publication number
- JPH10307930A JPH10307930A JP9117271A JP11727197A JPH10307930A JP H10307930 A JPH10307930 A JP H10307930A JP 9117271 A JP9117271 A JP 9117271A JP 11727197 A JP11727197 A JP 11727197A JP H10307930 A JPH10307930 A JP H10307930A
- Authority
- JP
- Japan
- Prior art keywords
- data
- frame
- time
- series
- music
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Processing Or Creating Images (AREA)
- Studio Circuits (AREA)
- Electrophonic Musical Instruments (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】この発明は、コンピュータグ
ラフィックス(以下、CGと呼ぶ)により生成される仮
想空間内のオブジェクトを音楽に同期させて動かすよう
にしたアニメーション作成システムに関する。[0001] 1. Field of the Invention [0002] The present invention relates to an animation creating system for moving an object in a virtual space generated by computer graphics (hereinafter referred to as CG) in synchronization with music.
【0002】[0002]
【従来の技術】アニメーションを音楽に同期させるに
は、一般に音楽データからその時間要素に沿ったコマ割
りを行って、各コマの静止画像を作成し、それを時系列
に並べて動画としていく手法がとられる。例えば音楽の
特定のタイミングに特定の映像をはめ込むためには、そ
のような特定の映像をキーフレームとして用意し、音楽
データを時間軸に沿った波形などで観測しながら上記特
定のタイミング(例えば波形のピーク等)を捉えてキー
フレームを割り当て、その後、キーフレーム間を補間し
て全体のアニメーションを作成していく。2. Description of the Related Art In order to synchronize animation with music, generally, a method of dividing frames according to the time element from music data, creating a still image of each frame, and arranging them in chronological order as a moving image is known. Be taken. For example, in order to fit a specific video at a specific timing of music, such a specific video is prepared as a key frame, and the music data is observed with a waveform along a time axis. , Etc.) and assigning key frames, and then interpolating between key frames to create an entire animation.
【0003】このような伝統的手法の大きな欠点は、ア
ニメーション作成にリアルタイム性がないことであり、
制作結果の評価は、全てのアニメーションが完成した後
でないと不可能である点である。このため、アニメーシ
ョンの作成及び編集作業は、試行錯誤的になり多大な手
間がかかる。また、完成した映像と音楽との同期の程度
も作成者の経験や勘に大きく依存するという問題があ
る。更に、音楽を変更した場合には、アニメーションも
再度作り直さなければならない。A major disadvantage of such a traditional method is that animation creation has no real-time property.
Evaluation of the production result is impossible only after all animations are completed. For this reason, the creation and editing work of the animation is trial and error and takes a lot of trouble. In addition, there is a problem that the degree of synchronization between the completed video and the music greatly depends on the experience and intuition of the creator. Furthermore, if the music is changed, the animation must be recreated.
【0004】一方、近年、CG用チップの描画性能向上
に伴い、三次元CG(以下3DCGと呼ぶ)によるアニ
メーションをリアルタイムに編集するシステムが開発さ
れている(「リアルタイムキャラクタアニメーションシ
ステムの開発と運用」,小倉,NICOGRAPH論文集1993,p
p131〜139)。また、3DCGによる動画のフレーム制
御を動的なタイムスタンプで管理することにより、3D
CGと実時間との対応付けが可能な実時間対応型CGも
提案されている(「リアルタイム・インタラクティブ三
次元CGシミュレータ」,鈴木他,NICOGRAPH論文集199
3,pp149〜158)。更に、強弱などの音楽の演奏情報に
心理的な観点から対応を付けたCGを電子楽器の演奏に
合わせて、リアルタイムに生成するシステムも提案され
ている(「コンピュータグラフィクスによる音楽の可視
化の研究」,春口,NICOGRAPH論文集1994,pp112〜11
9)。On the other hand, in recent years, a system for editing animation by three-dimensional CG (hereinafter referred to as 3DCG) in real time has been developed along with the improvement of drawing performance of a CG chip (“Development and operation of a real-time character animation system”). , Kokura, NICOGRAPH Transactions 1993, p.
p131-139). Also, by controlling the frame control of moving images by 3DCG with dynamic time stamps, 3D
A real-time-capable CG capable of associating CG with real-time has also been proposed ("Real-time interactive 3D CG simulator", Suzuki et al., NICOGRAPH Transactions 199).
3, pp149-158). Furthermore, there has been proposed a system for generating a CG in which the performance information of music such as strength is correlated from a psychological point of view in accordance with the performance of an electronic musical instrument in real time ("Research on music visualization by computer graphics"). , Haruguchi, NICOGRAPH Transactions 1994, pp112-11
9).
【0005】[0005]
【発明が解決しようとする課題】しかしながら、上述し
た従来のシステムのうち、第1のシステムは、実際の映
像や音楽に合わせてオペレータがデータグローブを操作
してCGを動かすシステムであるため、音楽との同期
は、オペレータの操作の熟練度に依存するという問題が
ある。また、このような理由からオブジェクトの動作に
も自ずと制限がある。また、第2のシステムは、CGと
現実世界との時間的なずれをCG映像のフレーム制御に
より整合させることを主眼においたものであり、音楽と
の同期については何ら考慮されていない。更に、第3の
システムは、人間の心理的な観点から音色を可視化する
ためのサウンドオブジェクト(例えばスネアドラムの音
は小さな球体が飛び散るイメージ)を生成し、これをM
IDIのイベント情報に同期させて描画するというもの
で、オブジェクトはイベント毎の単発的な表示となり、
連続した動きを音楽に同期させることはできない。However, among the above-mentioned conventional systems, the first system is a system in which an operator operates a data glove to move a CG in accordance with an actual video or music. Is dependent on the skill level of the operation of the operator. In addition, for these reasons, the operation of the object is naturally limited. The second system focuses on matching the time difference between the CG and the real world by frame control of the CG image, and does not consider synchronization with music at all. Further, the third system generates a sound object (for example, a snare drum sound is an image of a scattered small sphere) for visualizing the timbre from a human psychological point of view, and generates the sound object using M.
The object is drawn in synchronization with the IDI event information.
Continuous movement cannot be synchronized with music.
【0006】この発明は、このような点に鑑みなされた
もので、CGのオブジェクトを音楽に合わせて連続的に
動かすことができ、しかも編集作業も容易なアニメーシ
ョン作成システムを提供することを目的とする。SUMMARY OF THE INVENTION The present invention has been made in view of the above circumstances, and has as its object to provide an animation creating system that can continuously move CG objects in time with music and that can easily perform editing work. I do.
【0007】[0007]
【課題を解決するための手段】この発明に係る第1のア
ニメーション作成システム及び媒体に記憶されるアニメ
ーション作成用プログラムは、オブジェクトの形状を定
義したモデルデータに基づいて仮想空間上にオブジェク
トを構築し、一連のフレームデータからなるモーション
データに基づいて前記オブジェクトに一連の動きを付与
するに当たり、タイミング情報を含む音楽データから前
記タイミング情報を抽出し、このタイミング情報に基づ
いて前記音楽データのリズムに整合した時間枠を設定
し、前記オブジェクトの一連の動きが前記時間枠と整合
するように前記モーションデータを圧縮又は伸長させて
前記時間枠内に表示される各表示フレームに対応した前
記フレームデータを生成すると共に、前記音楽データに
よる楽音の再生に同期させて前記圧縮又は伸長されたモ
ーションデータと前記モデルデータとから前記オブジェ
クトを合成するようにしたことを特徴とする。A first animation creation system and an animation creation program stored in a medium according to the present invention construct an object in a virtual space based on model data defining the shape of the object. In giving a series of motions to the object based on motion data composed of a series of frame data, extracting the timing information from music data including timing information, and matching the rhythm of the music data based on the timing information. Setting the time frame, and compressing or expanding the motion data so that a series of movements of the object match the time frame to generate the frame data corresponding to each display frame displayed in the time frame. At the same time as the reproduction of musical tones by the music data. Is not characterized by being adapted to synthesize the object from said compressed or decompressed motion data and the model data.
【0008】また、この発明に係る第2のアニメーショ
ン作成システムは、仮想空間におけるオブジェクトの形
状を定義したモデルデータを記憶するモデルデータ記憶
手段と、前記オブジェクトの一連の動きをフレームデー
タの時系列によって定義したモーションデータを記憶す
るモーションデータ記憶手段と、所定の楽音を生成する
ために定義されたMIDI(Musical Instrument Digit
al Interface)データを記憶するMIDIデータ記憶手
段と、このMIDIデータ記憶手段に記憶されたMID
Iデータに基づいて楽音を生成する楽音生成手段と、前
記MIDIデータに含まれる拍時間の情報に基づいて前
記拍時間を単位とする時間枠を設定し、前記オブジェク
トの一連の動きが前記時間枠と整合するように前記モー
ションデータを圧縮又は伸長させて前記時間枠内に表示
される各表示フレームに対応した前記フレームデータを
生成すると共に、前記MIDIデータによる楽音の再生
に同期させて前記圧縮又は伸長されたモーションデータ
と前記モデルデータ記憶手段に記憶されたモデルデータ
とから前記オブジェクトを合成するアニメーション作成
手段と、このアニメーション作成手段で合成されたオブ
ジェクトを表示する表示手段とを備えたことを特徴とす
る。A second animation creating system according to the present invention comprises: a model data storage means for storing model data defining a shape of an object in a virtual space; and a series of movements of the object based on a time series of frame data. A motion data storage means for storing the defined motion data; and a MIDI (Musical Instrument Digit) defined for generating a predetermined musical sound.
al Interface) MIDI data storage means for storing data, and MID stored in the MIDI data storage means
A tone generating means for generating a tone based on the I data; and a time frame set in units of the beat time based on beat time information included in the MIDI data, wherein a series of movements of the object are determined by the time frame. The motion data is compressed or decompressed so as to match the frame data to generate the frame data corresponding to each display frame displayed in the time frame, and the compression or expansion is performed in synchronization with the reproduction of the musical sound by the MIDI data. An animation creating means for combining the object from the decompressed motion data and the model data stored in the model data storage means, and a display means for displaying the object combined by the animation creating means. And
【0009】この発明の第1のアニメーション作成シス
テムによれば、タイミング情報を含む音楽データから上
記タイミング情報を抽出し、このタイミング情報に整合
する時間枠(例えば1拍や1小節の時間)を設定すると
共に、オブジェクトの動きが上記時間枠と整合するよう
に、モーションデータを圧縮又は伸長させることによ
り、オブジェクトの一連の動きを上記時間枠に納めるよ
うにしている。これにより、オブジェクトを例えば音楽
に合わせて踊らせるというような連続的な動作制御が簡
単に実現可能になる。この発明によれば、オブジェクト
は、その形状を定義したモデルデータと、その動作を定
義したモーションデータとによって生成され、音楽に同
期させるためのデータ処理は、モーションデータに対し
てのみ行われるので、データ処理量が少なく、リアルタ
イムでの処理が容易になる。また、音楽データを変更し
た場合でも、モーションデータが音楽データに含まれる
タイミング情報に基づいて音楽データに整合するように
圧縮又は伸長されるので、モデルデータやモーションデ
ータを変更する必要はない。更に、モーションデータや
モデルデータを変更した場合にも、他のデータに影響は
与えない。According to the first animation creating system of the present invention, the timing information is extracted from the music data including the timing information, and a time frame (for example, a time of one beat or one bar) that matches the timing information is set. At the same time, by compressing or expanding the motion data so that the motion of the object matches the time frame, a series of motions of the object are accommodated in the time frame. This makes it possible to easily realize continuous motion control such as making the object dance to music, for example. According to the present invention, an object is generated by model data defining its shape and motion data defining its operation, and data processing for synchronizing with music is performed only on motion data. The amount of data processing is small, and real-time processing is facilitated. Even when the music data is changed, the motion data is compressed or decompressed so as to match the music data based on the timing information included in the music data, so that it is not necessary to change the model data or the motion data. Further, even when the motion data or the model data is changed, other data is not affected.
【0010】音楽データとしては、例えばMIDIデー
タを使用することができる。この発明の第2のアニメー
ションシステムでは、MIDIデータに含まれる拍時間
の情報を抽出することにより、拍時間を基準とした時間
枠を設定する。拍時間を基準とすることにより、オブジ
ェクトの動きを音楽に最もマッチングさせることができ
る。As the music data, for example, MIDI data can be used. In the second animation system of the present invention, a time frame based on the beat time is set by extracting beat time information included in the MIDI data. By using the beat time as a reference, the movement of the object can be most matched to the music.
【0011】[0011]
【発明の実施の形態】以下、図面を参照して、この発明
の好ましい実施の形態について説明する。図1は、この
発明の一実施例に係るアニメーション作成システムの構
成を示す図である。コンピュータ1は、アニメーション
の要素となる3DCGのオブジェクトと音楽データとし
てのMIDIデータ(MIDIファイル)とを作成・編
集するための処理を実行する機能と、作成されたオブジ
ェクトをMIDIデータに同期するように合成してアニ
メーションをリアルタイムで作成するための処理を実行
する機能とを有する。コンピュータ1は、上記の処理を
実行するソフトウェアを含むコンピュータ本体1aと、
オブジェクト及びMIDIデータの作成に必要な入力手
段としてのキーボード1b及びマウス1cと、生成され
た3DCGを表示するディスプレイ1dとを備えて構成
されている。オブジェクトの一連の動きを指定するため
の外部コントロール手段としてデータグローブ2が、イ
ンタフェース3を介してコンピュータ1に接続されてい
る。また、MIDIデータを作成するためのMIDI楽
器4がMIDIインタフェース5を介してコンピュータ
1に接続されている。コンピュータ1から読み出された
MIDIデータは、MIDIインタフェース5を介して
MIDI音源6に供給されて楽音信号となり、これがス
ピーカ7を介して楽音となって出力されるようになって
いる。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Preferred embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a diagram showing a configuration of an animation creating system according to one embodiment of the present invention. The computer 1 has a function of executing processing for creating / editing a 3DCG object as an animation element and MIDI data (MIDI file) as music data, and synchronizes the created object with the MIDI data. And a function of executing a process for synthesizing and creating an animation in real time. The computer 1 includes a computer main body 1a including software for executing the above processing;
It comprises a keyboard 1b and a mouse 1c as input means necessary for creating objects and MIDI data, and a display 1d for displaying the generated 3DCG. A data glove 2 is connected to the computer 1 via an interface 3 as external control means for designating a series of movements of an object. Also, a MIDI musical instrument 4 for creating MIDI data is connected to the computer 1 via a MIDI interface 5. The MIDI data read from the computer 1 is supplied to a MIDI sound source 6 via a MIDI interface 5 to become a musical tone signal, which is output as a musical tone via a speaker 7.
【0012】図2は、コンピュータ本体1aの機能ブロ
ック図である。コンピュータ本体1aには、モデルデー
タ、モーションデータ及びMIDIデータをそれぞれ記
憶するためのモデルデータ記憶部11、モーションデー
タ記憶部12及びMIDIデータ記憶部13が設けられ
ている。これらのデータは、モデルデータ作成・編集部
14、モーションデータ作成・編集部15及びMIDI
データ作成・編集部16によって、それぞれ相互に独立
に作成及び編集される。また、これらのデータは、アニ
メーション作成部17によって合成及び同期制御され、
3DCGの表示のための映像信号及び音楽データとし
て、それぞれディスプレイ装置1d及びMIDI音源6
に供給されるようになっている。FIG. 2 is a functional block diagram of the computer main body 1a. The computer main body 1a includes a model data storage unit 11, a motion data storage unit 12, and a MIDI data storage unit 13 for storing model data, motion data, and MIDI data, respectively. These data are stored in a model data creating / editing unit 14, a motion data creating / editing unit 15, and MIDI.
The data creating / editing unit 16 creates and edits each independently. These data are synthesized and synchronized by the animation creating unit 17,
The display device 1d and the MIDI sound source 6 are used as a video signal and music data for displaying 3DCG, respectively.
It is supplied to.
【0013】モデルデータは、例えば次のように構成さ
れる。即ち、図3に示すように、表示すべきオブジェク
ト(図示の例では人体モデル)は、ポリゴンで表示され
た顔、胴、腕のような複数のパーツが図中白丸で示す関
節によって結合されたリンク構造を有する。モデルデー
タは、図4に示すように、形状データとリンクデータと
から構成される。形状データは、同図(a)に示すよう
に、顔、胴などの各パーツの形状を定義したファイル
で、パーツを構成する複数のポリゴンのそれぞれについ
て、その頂点列、面リスト、表面のテクスチャなどを定
義したものである。また、リンクデータは、同図(b)
に示すように、各関節のリンク関係を定義したファイル
である。例えば、人体モデルの場合、骨盤を最も上位の
親の関節とし、それに結合される腰、右股及び左股を子
の関節、更に腰に背骨を介して結合される首を孫の関節
というようにリンク構造を定義している。また、各関節
間を結合する骨や骨に対応するパーツも同時に定義され
る。各関節については、三次元の角度が定義される。関
節角は、図3に示すように、上位のパーツ(骨)をロー
カル座標系とし、このローカル座標系を基準とする下位
のパーツの方向として定義される。このようなリンク構
造を定義すれば、親となる腰骨の仮想空間上の三次元位
置が与えられるだけで、各関節の位置が求められる。The model data is constituted, for example, as follows. That is, as shown in FIG. 3, an object to be displayed (a human body model in the illustrated example) has a plurality of parts such as a face, a torso, and arms displayed by polygons connected by joints indicated by white circles in the figure. Has a link structure. The model data is composed of shape data and link data as shown in FIG. The shape data is a file that defines the shape of each part such as a face and a torso, as shown in FIG. 3A. For each of a plurality of polygons constituting the part, a vertex sequence, a face list, and a surface texture Etc. are defined. The link data is shown in FIG.
Is a file defining the link relation of each joint as shown in FIG. For example, in the case of a human body model, the pelvis is defined as the joint of the highest parent, the waist connected to it, the right crotch and the left crotch are defined as child joints, and the neck connected to the waist via the spine is defined as the grandchild's joint. Defines the link structure. Also, bones connecting the joints and parts corresponding to the bones are defined at the same time. For each joint, a three-dimensional angle is defined. As shown in FIG. 3, the joint angle is defined as a direction of a lower part based on the local coordinate system with the upper part (bone) as a local coordinate system. By defining such a link structure, the position of each joint can be obtained simply by giving the three-dimensional position of the parent hip bone in the virtual space.
【0014】図5に示すように、各関節の関節角を時系
列で変化させると、オブジェクトに一連の動きを付与す
ることができる。モーションデータは、このような一連
の動きを定義したデータで、例えば図6に示すように、
各時刻について各関節の角度を定義したファイルであ
る。また、各時刻についての親の三次元座標値も同時に
定義される。ここでは、各時刻における関節角列等のデ
ータをそれぞれ「フレームデータ」と呼ぶことにする。As shown in FIG. 5, a series of movements can be given to the object by changing the joint angles of the joints in a time series. Motion data is data that defines such a series of motions, for example, as shown in FIG.
It is a file that defines the angles of each joint for each time. In addition, three-dimensional coordinate values of the parent at each time are also defined at the same time. Here, data such as the joint angle sequence at each time is referred to as “frame data”.
【0015】また、MIDIデータは、MIDIメッセ
ージにタイミング情報を付加したMIDIイベントの羅
列と、シーケンス番号、テキスト情報、テンポ情報等の
メタイベント等を含む。アニメーションの同期に必要な
時間情報は、このMIDIデータから抽出される。The MIDI data includes a list of MIDI events in which timing information is added to a MIDI message, meta events such as sequence numbers, text information, and tempo information. Time information necessary for animation synchronization is extracted from the MIDI data.
【0016】モデルデータを作成・編集するモデルデー
タ作成・編集部14としては、公知のモデリングソフト
などを使用することができ、モデルデータは、キーボー
ド1b及びマウス1b等を使用して作成していく。モー
ションデータを作成するモーションデータ作成・編集部
14としては、データグローブ2の各指位置に対応して
設けられた各コントロール素子をオブジェクトの各関節
に割り付け、その操作によって得られた情報をもとに時
系列的なキーフレームデータを生成していくためのプロ
グラムを用いる。MIDIデータを作成・編集するMI
DIデータ作成・編集部16としては、MIDIシーケ
ンス・アプリケーションを使用する。ここで特徴的な点
は、これらの各データの作成・編集作業は、相互に全く
独立して行えるという点である。As the model data creating / editing unit 14 for creating / editing model data, known modeling software or the like can be used, and the model data is created using the keyboard 1b and the mouse 1b. . The motion data creating / editing unit 14 for creating motion data assigns each control element provided corresponding to each finger position of the data glove 2 to each joint of the object, and based on information obtained by the operation. For this purpose, a program for generating time-series key frame data is used. MI to create / edit MIDI data
As the DI data creating / editing unit 16, a MIDI sequence application is used. Here, a characteristic point is that the creation and editing operations of these data can be performed completely independently of each other.
【0017】アニメーション作成部17は、図7に示す
ように、モデルデータから仮想空間上のオブジェクトを
構築するオブジェクト構築部31と、MIDIデータに
含まれる時間情報からモーションデータを圧縮・伸長さ
せてフレームデータを生成するフレーム生成部32と、
生成されたフレームデータに基づいてオブジェクトをフ
レーム毎に描画するオブジェクト描画部33と、MID
Iデータを読み込んで順次MIDIメッセージを出力す
る音出し指示部34と、MIDIデータに基づいてフレ
ーム生成、オブジェクト構築及びオブジェクト描画のタ
イミングを、音楽と同期するように与えるコントロール
部35とにより構成されている。As shown in FIG. 7, the animation creation unit 17 constructs an object in the virtual space from the model data, and compresses and expands the motion data from the time information contained in the MIDI data to generate a frame. A frame generation unit 32 for generating data;
An object drawing unit 33 for drawing an object for each frame based on the generated frame data;
A sound output instructing unit 34 that reads I data and sequentially outputs a MIDI message, and a control unit 35 that synchronizes the timing of frame generation, object construction, and object drawing based on the MIDI data with music. I have.
【0018】次に、アニメーション作成部17における
音楽と3DCGとの同期によるアニメーション生成処理
について説明する。図8は、この処理を説明するための
図である。MIDIデータは、拍子単位で打ち込みされ
たMIDIメッセージの羅列を基本として構成され、M
IDIイベントにはタイミング情報も付加されているの
で、MIDIメッセージをそのタイミング情報に基づい
て出力する音出し指示部34とコントロール部35が同
期しながら必要な処理を実行していくことで、音と画像
の同期が可能になる。ここでは、1拍の時間を示す拍時
間を基準として時間枠Taを設定し、この時間枠Taに
モーションデータを合わせ込んでいく。例えば図示の例
は4/4拍子であるから、拍時間が4分音符の長さに設
定される。この長さは、テンポ情報によって変わってく
るので、実際にはこれらの情報に基づいて拍時間が決定
される。第1小節では、時間枠Taが拍時間と同じ時間
に設定され、第2小節以降では時間枠Taが拍時間×
4、即ち1小節分の時間に設定されている。また、第1
小節ではモーションデータ1が選択され、第2小節から
モーションデータ2が選択される。Next, a description will be given of an animation generation process in the animation creation unit 17 by synchronizing music and 3DCG. FIG. 8 is a diagram for explaining this processing. The MIDI data is configured based on a sequence of MIDI messages input in time units.
Since timing information is also added to the IDI event, the sound output instructing unit 34 that outputs a MIDI message based on the timing information and the control unit 35 perform necessary processing in synchronization with each other, so that the sound is output. Images can be synchronized. Here, a time frame Ta is set based on a beat time indicating one beat time, and the motion data is adjusted to the time frame Ta. For example, in the illustrated example, the beat time is set to the length of a quarter note because the time is 4/4. Since this length changes depending on the tempo information, the beat time is actually determined based on the information. In the first bar, the time frame Ta is set to the same time as the beat time, and in the second bar and thereafter, the time frame Ta is set to the beat time ×
4, that is, one bar. Also, the first
In the bar, motion data 1 is selected, and in the second bar, motion data 2 is selected.
【0019】モーションデータ1,2の長さは、いずれ
も時間枠Taとは一致しないので、第1小節ではモーシ
ョンデータ1を圧縮し、第2小節以降ではモーションデ
ータ2を伸長することで時間枠Taに割り付ける。圧縮
・伸長処理は、時間枠Taに表示されるフレーム数をN
a、モーションデータのフレーム数をNmとした場合、
変換率r=Nm/Naを求め、この変換率rに基づいて
圧縮の場合にはrおきに、また、伸長の場合には適当な
内挿処理を加えて順次フレームデータを選択していけば
よい。Since the length of each of the motion data 1 and 2 does not coincide with the time frame Ta, the motion data 1 is compressed in the first bar, and the motion data 2 is expanded in the second bar and thereafter. Assign to Ta. In the compression / decompression processing, the number of frames displayed in the time frame Ta is set to N
a, when the number of frames of motion data is Nm,
A conversion rate r = Nm / Na is determined, and based on the conversion rate r, frame data is sequentially selected by compressing every r in the case of compression or by applying an appropriate interpolation process in the case of decompression. Good.
【0020】このように、曲の途中でモーションを変え
たり、時間枠Taを変更することも考えられるので、M
IDIデータは、図に示すように、次の時間枠Taの分
を先読みするものとし、先読みしたMIDIデータによ
ってモーションデータや時間枠Taの変更がある場合に
は、次の時間枠に入る前にフレーム数変換処理を実行し
て、フレーム数Na分のフレームデータを作成してお
く。As described above, it is conceivable to change the motion or change the time frame Ta in the middle of the music.
As shown in the figure, the IDI data is pre-read for the next time frame Ta. If there is a change in the motion data or the time frame Ta due to the pre-read MIDI data, the IDI data is read before entering the next time frame. Frame number conversion processing is executed to create frame data for the number of frames Na.
【0021】図9は、コントロール部35が付与するタ
イミングによって、所定の間隔で起動されるフレーム作
成処理を示すフローチャートである。まず、コントロー
ル部35は、時間枠Ta(最初は適当なデフォルト値)
分のMIDIデータを先読みし(S1)、アニメーショ
ン生成及びそのタイミング表示に必要な情報を抽出す
る。表示すべきオブジェクトを構築するためのモデルデ
ータやその動作を規定するモーションデータは、MID
Iデータに記述されていても良いし、予めコントロール
部35に設定されていても良い。コントロール部35
は、時間枠Taやモーションデータ等に変更がある場合
には、選択すべきモデルデータの番号及びモーションデ
ータの番号をオブジェクト構築部31及びフレーム生成
部32にそれぞれ与える(S3)。コントロール部35
は、読み込んだMIDIデータから時間枠Taを設定す
る(S4)。即ち、SMF(StanderdMIDI file)の場
合、MIDIイベントに含まれるタイミング情報と、メ
タイベントとして記述されたテンポ情報とに基づいて拍
時間が求められる。この拍時間を基準として時間枠Ta
を設定し、この時間枠Taにオブジェクトの一連の動き
を合わせ込む。また、どのモーションデータを使用する
かについても、予め任意に設定したり、MIDIファイ
ルのメタイベントとして埋め込んでおいたりすればよ
い。前者の場合には、同一の曲を異なるオブジェクトや
モーションで再度再生させるという操作が容易であり、
後者の場合には、曲の途中でオブジェクトの動きを変更
する操作が容易になるという利点がある。FIG. 9 is a flowchart showing a frame creation process started at predetermined intervals according to the timing given by the control unit 35. First, the control unit 35 sets a time frame Ta (an appropriate default value at first).
The MIDI data of the minute is pre-read (S1), and information necessary for generating an animation and displaying its timing is extracted. Model data for constructing an object to be displayed and motion data for defining its operation are represented by MID.
It may be described in the I data, or may be set in the control unit 35 in advance. Control unit 35
Gives the model data number to be selected and the motion data number to the object construction unit 31 and the frame generation unit 32, respectively, when there is a change in the time frame Ta, motion data, and the like (S3). Control unit 35
Sets the time frame Ta from the read MIDI data (S4). That is, in the case of an SMF (Standed MIDI file), the beat time is obtained based on the timing information included in the MIDI event and the tempo information described as the meta event. Time frame Ta based on this beat time
Is set, and a series of movements of the object are adjusted to the time frame Ta. Also, which motion data is to be used may be arbitrarily set in advance, or may be embedded as a meta-event of the MIDI file. In the former case, the operation of playing the same song again with different objects and motions is easy,
In the latter case, there is an advantage that the operation of changing the movement of the object in the middle of the music becomes easy.
【0022】時間枠Taが決定されたら、コントロール
部35は、時間枠Taの情報から表示すべきフレーム数
Naを算出する(S5)。次に、フレーム数Na,Nm
と共にフレーム作成コマンドがフレーム生成部32に与
えられる。フレーム生成部32は、フレーム数Na,N
mから変換率r(=Nm/Na)を求め、この変換率r
に基づいてモーションデータを圧縮又は伸長して、フレ
ームデータを再構築する(S7)。When the time frame Ta is determined, the control unit 35 calculates the number of frames Na to be displayed from the information of the time frame Ta (S5). Next, the number of frames Na, Nm
At the same time, a frame creation command is given to the frame generation unit 32. The frame generation unit 32 calculates the number of frames Na, N
m, a conversion rate r (= Nm / Na) is obtained.
, The motion data is compressed or decompressed to reconstruct the frame data (S7).
【0023】続いて、コントロール部35は、時間枠T
aの始まりのタイミングでオブジェクト描画部33を起
動する。このためコントロール部35は、音出し指示部
34の現在時刻を常に監視し、オブジェクト描画のタイ
ミングを得る。このタイミングは、実際には、ノートオ
ンのタイミングよりも、描画にかかる時間分だけ先行し
たタイミングであることが望ましい。また、図8に示す
ように、表示開始タイミング(各時間枠の始め)は、ノ
ートオンのタイミングよりもτだけ先行した方がリズム
に合っているように感じられる。このため、コントロー
ル部35は、予めノートオンに先行する時間量を決定し
ておく。オブジェクト描画部33は、生成されたモーシ
ョンデータの各フレームデータを順番に読み出す。一
方、オブジェクト構築部31では、これに先立ってモデ
ルデータに基づき仮想空間内にオブジェクトを構築して
いる。従って、オブジェクト描画部33では、順次読み
出されたフレームデータに基づいてオブジェクトの各パ
ーツの位置を移動させてメモリに描画する。この描画処
理は、ディスプレイ装置1dに3DCGによるオブジェ
クトが連続的に表示されるように、フレーム生成処理と
は独立に連続した処理となる。このため、フレーム生成
に使用するフレームバッファは、リングバッファ構成と
し、オブジェクト描画部33は、フレーム生成部32の
フレームバッファから一定のタイミングでフレームデー
タを読み込むようにする。Subsequently, the control unit 35 sets the time frame T
The object drawing unit 33 is activated at the timing of the start of “a”. For this reason, the control unit 35 constantly monitors the current time of the sound output instructing unit 34 and obtains the timing of drawing the object. It is desirable that this timing is actually a timing preceding the note-on timing by the time required for drawing. In addition, as shown in FIG. 8, the display start timing (the start of each time frame) seems to match the rhythm when it precedes the note-on timing by τ. For this reason, the control unit 35 determines the amount of time preceding note-on in advance. The object drawing unit 33 sequentially reads out each frame data of the generated motion data. On the other hand, prior to this, the object construction unit 31 constructs an object in the virtual space based on the model data. Therefore, the object drawing unit 33 moves the position of each part of the object based on the sequentially read frame data and draws it in the memory. This drawing process is a continuous process independent of the frame generation process so that the 3DCG object is continuously displayed on the display device 1d. For this reason, the frame buffer used for frame generation has a ring buffer configuration, and the object drawing unit 33 reads frame data from the frame buffer of the frame generation unit 32 at a fixed timing.
【0024】以上の処理を行うと、図8に示すように、
オブジェクトの一連の動作がMIDIデータによる音楽
の拍時間に基づく時間枠内に収まるように圧縮又は伸長
され、例えば人体モデルを曲に合わせて踊らせるという
ように、楽音と同期がとれた連続的な動きを伴うアニメ
ーションの作成が可能になる。なお、以上のアニメーシ
ョン作成処理は、例えばアニメーション作成処理プログ
ラムにより実現され、そのプログラムは記録媒体に記録
して提供される。By performing the above processing, as shown in FIG.
A series of motions of the object are compressed or decompressed so that they fall within a time frame based on the beat time of the music according to the MIDI data, and a continuous sound synchronized with the musical sound, for example, a human body model is danced to music. Animation with motion can be created. The above-described animation creation processing is realized by, for example, an animation creation processing program, and the program is provided by being recorded on a recording medium.
【0025】このシステムによれば、モデルデータ、モ
ーションデータ及びMIDIデータは、それぞれ全く別
々に作成・編集することができるので、これらを並行し
て作成することもでき、アニメーションの作成作業が極
めて容易になる。また、曲やモデルデータ及びモーショ
ンデータを変更した場合でも、他のデータの変更は不要
である。更には、モデルデータとモーションデータと
は、全く独立しているので、同じオブジェクトに異なる
動きを付与する場合には、モーションデータのみを変更
すればよい。According to this system, the model data, motion data, and MIDI data can be created and edited completely independently of each other, so that they can be created in parallel, making the creation of animation extremely easy. become. Further, even when the music, the model data, and the motion data are changed, other data need not be changed. Further, since the model data and the motion data are completely independent, when different motions are given to the same object, only the motion data needs to be changed.
【0026】ところで、モーションデータは、オブジェ
クトの一連の動きを関節角の時間的な変化によって定義
したファイルであるから、関節角に一定のパラメータを
掛けることにより、オブジェクトの動きを全体的に大き
な動きにしたり、小さな動きにしたりすることができ
る。また、時間的な圧縮又は伸長処理により、オブジェ
クトの動きを速くしたり、ゆっくりさせたりすることが
できる。これを利用して、少ないモーションデータ数
で、より多くの変形されたモーションデータを再構築す
ることができる。By the way, since motion data is a file in which a series of motions of an object is defined by a temporal change of a joint angle, multiplying a joint angle by a certain parameter makes the motion of the object as a whole a large motion. Or small movements. In addition, the motion of the object can be made faster or slower by temporal compression or expansion processing. By utilizing this, it is possible to reconstruct more deformed motion data with a smaller number of motion data.
【0027】例えば図10は、モーションデータを速度
(speed)=5、幅(width)=10というパラメータに
よって変換した例を示している。この場合、基本のモー
ションデータから速度が5倍、幅が10倍のモーション
データを生成するので、基本のモーションデータの時刻
0,1,2,…のデータフレーム(キーフレーム)の内
容(この例では間接角)をそれぞれ10倍にして、時間
軸で5倍となる時刻0,5,10,…のデータフレーム
として配置する。そして、これらデータフレームの間を
補間することにより、図示のように、変換されたモーシ
ョンデータが得られる。このような変換処理を行うこと
で、例えば図11に示すように、同図(a)に示す「歩
く」という動作を、そのモーションデータの各関節角の
変化を全体的に大きく且つ早くして、同図(b)に示す
ように「走る」という動作に変更することができる。For example, FIG. 10 shows an example in which motion data is converted by parameters of speed = 5 and width = 10. In this case, motion data having a speed 5 times and a width 10 times is generated from the basic motion data. Therefore, the contents of the data frames (key frames) at times 0, 1, 2,... ., The indirect angle) is increased by 10 times, and arranged as data frames at times 0, 5, 10,. Then, by interpolating between these data frames, converted motion data is obtained as shown in the figure. By performing such a conversion process, for example, as shown in FIG. 11, the operation of “walking” shown in FIG. The operation can be changed to "run" as shown in FIG.
【0028】このように変換されたモーションデータに
対して前述したような音楽データとの同期処理を実行す
れば、より少ない基本モーションを記憶しておくだけ
で、様々な変形モーションを作り出すことができるの
で、例えばMIDIデータに上述したパラメータを書き
込んでおくと、曲の途中から少しずつモーションを大き
くしていったり、逆に小さくしていくというような動作
変化を容易に付与することができる。If the motion data thus converted is subjected to the synchronization processing with the music data as described above, various deformation motions can be created by storing less basic motions. Therefore, for example, if the above-described parameters are written in the MIDI data, it is possible to easily give an operation change such as increasing the motion little by little from the middle of the music or conversely decreasing the motion.
【0029】更に、図6に示すように、モーションデー
タに音楽の拍子と同期させるためのポイント情報(図中
※印で表示)を持たせておき、このポイント情報が記述
されたフレームの表示タイミングをMIDIデータの例
えば先頭の拍子と一致するようにCGの動作開始タイミ
ングを調整することにより、更に音楽データとCGとの
同期調整が簡単になる。Further, as shown in FIG. 6, the motion data is provided with point information (indicated by an asterisk in the figure) for synchronizing with the time signature of the music, and the display timing of the frame in which this point information is described By adjusting the operation start timing of the CG so as to match the first beat of the MIDI data, the synchronization adjustment between the music data and the CG is further simplified.
【0030】[0030]
【発明の効果】以上述べたように、この発明によれば、
タイミング情報を含む音楽データから上記タイミング情
報を抽出し、このタイミング情報に整合する時間枠を設
定すると共に、オブジェクトの動きが上記時間枠と整合
するように、モーションデータを圧縮又は伸長させるこ
とにより、オブジェクトの一連の動きを上記時間枠に納
めるようにしているので、オブジェクトを例えば音楽に
合わせて踊らせるというような連続的な動作制御が簡単
に実現可能になるという効果を奏する。As described above, according to the present invention,
By extracting the timing information from the music data including the timing information, setting a time frame that matches the timing information, and compressing or expanding the motion data so that the motion of the object matches the time frame, Since the series of movements of the object are set within the above-mentioned time frame, there is an effect that continuous operation control such as making the object dance to music can be easily realized.
【図1】 この発明の一実施例に係るアニメーション作
成システムの構成を示す図である。FIG. 1 is a diagram showing a configuration of an animation creation system according to an embodiment of the present invention.
【図2】 同システムにおけるコンピュータ本体の構成
を示すブロック図である。FIG. 2 is a block diagram showing a configuration of a computer main body in the system.
【図3】 同システムで表示されるオブジェクトの一例
を示す図である。FIG. 3 is a diagram showing an example of an object displayed in the system.
【図4】 同オブジェクトの形状を定義するモデルデー
タの構成を示す図である。FIG. 4 is a diagram showing a configuration of model data that defines the shape of the object.
【図5】 同オブジェクトの動きを説明するための図で
ある。FIG. 5 is a diagram for explaining the movement of the object.
【図6】 同オブジェクトの動きを定義するモーション
データの内容を示す図である。FIG. 6 is a diagram showing the contents of motion data that defines the motion of the object.
【図7】 同システムにおけるアニメーション生成部の
ブロック図である。FIG. 7 is a block diagram of an animation generation unit in the system.
【図8】 同システムにおける音楽とオブジェクトとの
同期処理を説明するための図である。FIG. 8 is a diagram for explaining a synchronization process between music and an object in the same system.
【図9】 同処理におけるフレーム生成処理のフローチ
ャートである。FIG. 9 is a flowchart of a frame generation process in the same process.
【図10】 モーションデータの変形処理を説明するた
めの図である。FIG. 10 is a diagram for explaining motion data deformation processing.
【図11】 モーションデータの変形処理を説明するた
めの図である。FIG. 11 is a diagram for describing motion data deformation processing.
1…コンピュータ、2…データグローブ、3…インタフ
ェース、4…MIDI楽器、5…MIDIインタフェー
ス、6…MIDI音源、7…スピーカ、11…モデルデ
ータ記憶部、12…モーションデータ記憶部、13…M
IDIデータ記憶部、14…モデルデータ作成・編集
部、15…モーションデータ作成・編集部、16…MI
DIデータ作成・編集部、17…アニメーション作成
部。DESCRIPTION OF SYMBOLS 1 ... Computer, 2 ... Data glove, 3 ... Interface, 4 ... MIDI musical instrument, 5 ... MIDI interface, 6 ... MIDI sound source, 7 ... Speaker, 11 ... Model data storage part, 12 ... Motion data storage part, 13 ... M
IDI data storage unit, 14: model data creation / editing unit, 15: motion data creation / editing unit, 16: MI
DI data creation / editing section, 17: Animation creation section.
Claims (3)
ータに基づいて仮想空間上にオブジェクトを構築し、一
連のフレームデータからなるモーションデータに基づい
て前記オブジェクトに一連の動きを付与するようにした
アニメーション作成システムにおいて、 タイミング情報を含む音楽データから前記タイミング情
報を抽出し、このタイミング情報に基づいて前記音楽デ
ータのリズムに整合した時間枠を設定し、前記オブジェ
クトの一連の動きが前記時間枠と整合するように前記モ
ーションデータを圧縮又は伸長させて前記時間枠内に表
示される各表示フレームに対応した前記フレームデータ
を生成すると共に、前記音楽データによる楽音の再生に
同期させて前記圧縮又は伸長されたモーションデータと
前記モデルデータとから前記オブジェクトを合成するよ
うにしたことを特徴とするアニメーション作成システ
ム。An animation is created by constructing an object in a virtual space based on model data defining the shape of the object, and applying a series of motions to the object based on motion data composed of a series of frame data. In the system, the timing information is extracted from music data including timing information, a time frame matching the rhythm of the music data is set based on the timing information, and a series of movements of the object match the time frame. As described above, the motion data is compressed or decompressed to generate the frame data corresponding to each display frame displayed in the time frame, and the compressed or decompressed or decompressed data is synchronized with the reproduction of the musical sound by the music data. From the motion data and the model data, the object Animation production system is characterized in that so as to synthesize a-objects.
定義したモデルデータを記憶するモデルデータ記憶手段
と、 前記オブジェクトの一連の動きをフレームデータの時系
列によって定義したモーションデータを記憶するモーシ
ョンデータ記憶手段と、 所定の楽音を生成するために定義されたMIDI(Musi
cal Instrument Digital Interface)データを記憶する
MIDIデータ記憶手段と、 このMIDIデータ記憶手段に記憶されたMIDIデー
タに基づいて楽音を生成する楽音生成手段と、 前記MIDIデータに含まれる拍時間の情報に基づいて
前記拍時間を単位とする時間枠を設定し、前記オブジェ
クトの一連の動きが前記時間枠と整合するように前記モ
ーションデータを圧縮又は伸長させて前記時間枠内に表
示される各表示フレームに対応した前記フレームデータ
を生成すると共に、前記MIDIデータによる楽音の再
生に同期させて前記圧縮又は伸長されたモーションデー
タと前記モデルデータ記憶手段に記憶されたモデルデー
タとから前記オブジェクトを合成するアニメーション作
成手段と、 このアニメーション作成手段で合成されたオブジェクト
を表示する表示手段とを備えたことを特徴とするアニメ
ーション作成システム。2. Model data storage means for storing model data defining the shape of an object in a virtual space; and motion data storage means for storing motion data in which a series of movements of the object are defined by a time series of frame data. MIDI (Musi) defined to generate a predetermined tone
MIDI data storage means for storing cal instrument digital interface (DATA) data; music tone generation means for generating a musical tone based on the MIDI data stored in the MIDI data storage means; and a beat time information included in the MIDI data. Setting a time frame in units of the beat time, compressing or expanding the motion data so that a series of movements of the object is aligned with the time frame, and setting each display frame to be displayed in the time frame. Animation creation for generating the corresponding frame data and synthesizing the object from the compressed or decompressed motion data and the model data stored in the model data storage means in synchronization with the reproduction of the musical sound by the MIDI data. Means and an object synthesized by the animation creating means Animation production system characterized by comprising a display means for displaying the door.
ータに基づいて仮想空間上にオブジェクトを構築し、一
連のフレームデータからなるモーションデータに基づい
て前記オブジェクトに一連の動きを付与するに当たり、 タイミング情報を含む音楽データから前記タイミング情
報を抽出し、このタイミング情報に基づいて前記音楽デ
ータのリズムに整合した時間枠を設定し、前記オブジェ
クトの一連の動きが前記時間枠と整合するように前記モ
ーションデータを圧縮又は伸長させて前記時間枠内に表
示される各表示フレームに対応した前記フレームデータ
を生成すると共に、前記音楽データによる楽音の再生に
同期させて前記圧縮又は伸長されたモーションデータと
前記モデルデータとから前記オブジェクトを合成するア
ニメーション作成処理プログラムを記憶した媒体。3. An object is constructed in a virtual space based on model data defining the shape of the object, and when a series of motions is given to the object based on motion data composed of a series of frame data, timing information is used. Extracting the timing information from the music data including the time data, setting a time frame that matches the rhythm of the music data based on the timing information, and setting the motion data so that a series of movements of the object matches the time frame. The frame data corresponding to each display frame displayed in the time frame by being compressed or expanded is generated, and the compressed or expanded motion data and the model data are synchronized with reproduction of a musical sound by the music data. Create an animation that combines the object from Medium storing the management program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP9117271A JPH10307930A (en) | 1997-05-07 | 1997-05-07 | Animation production system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP9117271A JPH10307930A (en) | 1997-05-07 | 1997-05-07 | Animation production system |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH10307930A true JPH10307930A (en) | 1998-11-17 |
Family
ID=14707635
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP9117271A Pending JPH10307930A (en) | 1997-05-07 | 1997-05-07 | Animation production system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH10307930A (en) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003346185A (en) * | 2002-05-24 | 2003-12-05 | Olympus Optical Co Ltd | Information display system and personal digital assistant |
JP2006317792A (en) * | 2005-05-13 | 2006-11-24 | Yamaha Corp | Content distribution server, method, and program |
JP2008176679A (en) * | 2007-01-22 | 2008-07-31 | Brother Ind Ltd | Screen generator, screen generation program, data interpolation device, and data interpolation program |
WO2010053601A1 (en) * | 2008-11-10 | 2010-05-14 | Vistaprint Technologies Limited | Synchronizing animation to a repetitive beat source |
US20120307146A1 (en) * | 2011-06-03 | 2012-12-06 | Casio Computer Co., Ltd. | Moving image reproducer reproducing moving image in synchronization with musical piece |
EP2711929A1 (en) * | 2012-09-19 | 2014-03-26 | Nokia Corporation | An Image Enhancement apparatus and method |
JP2016047445A (en) * | 2015-12-11 | 2016-04-07 | 株式会社ユニバーサルエンターテインメント | Image generation program, recording medium and image generation system with image generation program recorded therein, and pachinko game machine, slot machine or game machine including gaming machine |
WO2016121921A1 (en) * | 2015-01-30 | 2016-08-04 | 株式会社電通 | Data structure for computer graphics, information processing device, information processing method, and information processing system |
-
1997
- 1997-05-07 JP JP9117271A patent/JPH10307930A/en active Pending
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003346185A (en) * | 2002-05-24 | 2003-12-05 | Olympus Optical Co Ltd | Information display system and personal digital assistant |
JP2006317792A (en) * | 2005-05-13 | 2006-11-24 | Yamaha Corp | Content distribution server, method, and program |
JP4513644B2 (en) * | 2005-05-13 | 2010-07-28 | ヤマハ株式会社 | Content distribution server |
JP2008176679A (en) * | 2007-01-22 | 2008-07-31 | Brother Ind Ltd | Screen generator, screen generation program, data interpolation device, and data interpolation program |
WO2010053601A1 (en) * | 2008-11-10 | 2010-05-14 | Vistaprint Technologies Limited | Synchronizing animation to a repetitive beat source |
US8761567B2 (en) * | 2011-06-03 | 2014-06-24 | Casio Computer Co., Ltd. | Moving image reproducer reproducing moving image in synchronization with musical piece |
US20120307146A1 (en) * | 2011-06-03 | 2012-12-06 | Casio Computer Co., Ltd. | Moving image reproducer reproducing moving image in synchronization with musical piece |
EP2711929A1 (en) * | 2012-09-19 | 2014-03-26 | Nokia Corporation | An Image Enhancement apparatus and method |
WO2016121921A1 (en) * | 2015-01-30 | 2016-08-04 | 株式会社電通 | Data structure for computer graphics, information processing device, information processing method, and information processing system |
CN107430781A (en) * | 2015-01-30 | 2017-12-01 | 株式会社电通 | Data structure, information processor, information processing method and the information processing system of computer graphical |
US20180012389A1 (en) * | 2015-01-30 | 2018-01-11 | Dentsu Inc. | Data structure for computer graphics, information processing device, information processing method and information processing system |
US10410392B2 (en) | 2015-01-30 | 2019-09-10 | Dentsu Inc. | Data structure for computer graphics, information processing device, information processing method and information processing system |
JP2016047445A (en) * | 2015-12-11 | 2016-04-07 | 株式会社ユニバーサルエンターテインメント | Image generation program, recording medium and image generation system with image generation program recorded therein, and pachinko game machine, slot machine or game machine including gaming machine |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6898759B1 (en) | System of generating motion picture responsive to music | |
KR100339764B1 (en) | A method and apparatus for drawing animation | |
JP3601350B2 (en) | Performance image information creation device and playback device | |
Kalra et al. | Smile: A multilayered facial animation system | |
US6310279B1 (en) | Device and method for generating a picture and/or tone on the basis of detection of a physical event from performance information | |
US20020024519A1 (en) | System and method for producing three-dimensional moving picture authoring tool supporting synthesis of motion, facial expression, lip synchronizing and lip synchronized voice of three-dimensional character | |
US20010042057A1 (en) | Emotion expressing device | |
TW459209B (en) | Animation creation apparatus and method | |
TW558715B (en) | Music and image generating device | |
JP4917446B2 (en) | Image generation apparatus, image generation program, data interpolation apparatus, and data interpolation program | |
JP4380042B2 (en) | Animation generation method and apparatus | |
JPH10307930A (en) | Animation production system | |
JP2011210285A (en) | Creation assisting method and apparatus, and recorded medium | |
JP3895014B2 (en) | Video playback device and karaoke device | |
US7995065B2 (en) | Animation reproducing apparatus and method | |
JPH10312469A (en) | Animation production system | |
JP3212255B2 (en) | Image synthesizing apparatus and image synthesizing method | |
JP2006196017A (en) | Animation creation apparatus and method, storage medium | |
JP2943201B2 (en) | Image creation apparatus and method | |
JP3755503B2 (en) | Animation production system | |
CN113643442B (en) | Virtual object dance generation method and computer storage medium | |
JPH09160575A (en) | Karaoke display device | |
Kugimoto et al. | CG animation for piano performance | |
JP4229495B2 (en) | Moving image generating apparatus and recording medium | |
JPH1166346A (en) | Animation preparing device and recording medium |