JP4233065B2 - GAME DEVICE AND INFORMATION STORAGE MEDIUM - Google Patents

GAME DEVICE AND INFORMATION STORAGE MEDIUM Download PDF

Info

Publication number
JP4233065B2
JP4233065B2 JP03719499A JP3719499A JP4233065B2 JP 4233065 B2 JP4233065 B2 JP 4233065B2 JP 03719499 A JP03719499 A JP 03719499A JP 3719499 A JP3719499 A JP 3719499A JP 4233065 B2 JP4233065 B2 JP 4233065B2
Authority
JP
Japan
Prior art keywords
motion data
reference motion
interpolation
group
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP03719499A
Other languages
Japanese (ja)
Other versions
JP2000235655A (en
JP2000235655A5 (en
Inventor
良信 佐尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Namco Ltd
Bandai Namco Entertainment Inc
Original Assignee
Namco Ltd
Namco Bandai Games Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Ltd, Namco Bandai Games Inc filed Critical Namco Ltd
Priority to JP03719499A priority Critical patent/JP4233065B2/en
Publication of JP2000235655A publication Critical patent/JP2000235655A/en
Publication of JP2000235655A5 publication Critical patent/JP2000235655A5/ja
Application granted granted Critical
Publication of JP4233065B2 publication Critical patent/JP4233065B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、ゲーム装置及び情報記憶媒体に関する。
【0002】
【背景技術及び発明が解決しようとする課題】
従来より、仮想的な3次元空間であるオブジェクト空間内に複数のオブジェクトを配置し、オブジェクト空間内の所与の視点から見える画像を生成するゲーム装置が知られており、いわゆる仮想現実を体験できるものとして人気が高い。競馬ゲームを楽しむことができるゲーム装置を例にとれば、プレーヤは、自身が操る馬をオブジェクト空間内で走行させ、他のプレーヤやコンピュータが操る馬と競争して3次元ゲームを楽しむ。
【0003】
さて、このようなゲーム装置では、プレーヤの仮想現実感の向上のために、よりリアルな画像を生成することが重要な技術的課題になっている。従って、人や馬などの表示物のモーションについてもリアルに再生できることが望ましい。
【0004】
このようなモーション再生に関する技術としては、例えば特開平9−218961、特開平10−74270、特開平10−208072、特開平10−302088などに開示された従来技術がある。この従来技術では図1(A)に示すように、骨(アーク)B1〜B10と関節J1〜J11を有するスケルトンモデル(姿勢特定情報)700を用意する。そして、図1(B)に示すように、人などのモデルオブジェクト710の全体形状は、このスケルトンモデルを用いて特定される。即ち、各骨B1〜B10の動きに、頭、腕、胴体、脚などの部位を表すパーツオブジェクトPB1〜PB10を追従させることで、モデルオブジェクト710の動画像を生成する。
【0005】
しかしながら、この従来技術では、骨B1〜B10の方向や位置を決定するために、回転マトリクスなどを用いた行列演算が必要になる。このため、処理の演算負荷が重くなるという問題がある。
【0006】
また、この従来技術では、関節部分(例えば図1(B)のD1に示す部分)において、画像表示が非常に見苦しくなるという問題がある。即ち、図2(A)では、パーツオブジェクト720、722の間に裂け目730が生じ、パーツオブジェクト720、722のいずれかの端面が露出されてしまう。また、図2(B)では、パーツオブジェクト720、722の間に重なり部分732が生じ、パーツオブジェクト720、722の側面が頻繁に交代して表示されてしまい、画像にちらつきが生じる。
【0007】
このような関節部分での画像表示の悪化の問題を解決するものとして、例えば特開平9−128566に開示される従来技術がある。この従来技術では、図2(C)に示すように、パーツオブジェクト720の端面の頂点とパーツオブジェクト720の端面の頂点とを連結する(ポリゴンを伸縮させる)ことで、関節部分での画像表示の悪化の問題を解決しようとしている。
【0008】
しかしながら、この従来技術では、頂点を連結するために新たな演算処理が必要になるという問題がある。また、この従来技術によっても、関節部分での画像表示の悪化の問題を完全には解決できない。更に、この従来技術でも、図1(A)に示すようなスケルトンモデルを用いているため、骨の方向や位置を決定するための行列演算が必要になるという問題については解決されないまま依然残る。
【0009】
本発明は、以上のような課題を解決するためになされたものであり、その目的とするところは、モデルオブジェクトのリアルで高品質の動画像を、少ない演算負荷で生成できるゲーム装置及び情報記憶媒体を提供することにある。
【0010】
【課題を解決するための手段】
上記課題を解決するために、本発明は、画像を生成するためのゲーム装置であって、スケルトンモデルを用いることなく頂点座標群によりその全体形状が特定されるモデルオブジェクトのモーションを再生するための少なくとも1つの基準モーションデータ群を記憶するモーションデータ記憶手段と、前記基準モーションデータ群に基づいて、モデルオブジェクトのモーションを再生するモーション再生手段と、モデルオブジェクトの画像を生成する画像生成手段とを含み、前記モーションデータ記憶手段が、モデルオブジェクトの各基準全体形状を特定する各基準頂点座標群を、前記基準モーションデータ群の中の各基準モーションデータとして記憶し、前記モーション再生手段が、前記基準モーションデータ群の中から補間開始点の基準モーションデータと補間目標点の基準モーションデータとを選択し、前記補間開始点基準モーションデータに含まれる基準頂点座標群と前記補間目標点基準モーションデータに含まれる基準頂点座標群とに基づき補間処理を行うことで補間頂点座標群を求め、前記画像生成手段が、前記補間頂点座標群により全体形状が特定されるモデルオブジェクトの画像を生成することを特徴とする。また本発明に係る情報記憶媒体は、上記手段を実現するための情報を含むことを特徴とする。
【0011】
本発明によれば、複数の部位が一体成型されたモデルオブジェクトが、スケルトンモデルを用いることなく頂点座標群によりその全体形状が特定される。そして、モデルオブジェクトの各基準全体形状を特定する各基準頂点座標群が、各基準モーションデータとしてモーションデータ記憶部に記憶される。モーション再生手段は、モーションデータ記憶部に記憶される基準モーションデータ群の中から、補間開始点の基準モーションデータと補間目標点の基準モーションデータを選択する。そして、これらの補間開始点、補間目標点の基準モーションデータに含まれる基準頂点座標群を補間して、補間頂点座標群を求める。このようにして、補間頂点座標群により全体形状が特定されるモデルオブジェクトの画像が順次生成されるようになる。
【0012】
このように本発明によれば、スケルトンモデルを用いることなくモデルオブジェクトの画像を生成できるため、スケルトンモデルの骨の方向や位置を求めるための行列演算が不要になる。従って、演算負荷を大幅に軽減できる。また、スケルトンモデルの関節部分での画像表示の悪化の問題も生じない。そして、状況に応じて補間間隔を調整することで、モデルオブジェクトのモーションを滑らかに且つ自然に変化させることができる。このように本発明によれば、モデルオブジェクトのリアルで高品質の動画像を、少ない演算負荷で生成できるようになる。
【0013】
また本発明に係るゲーム装置及び情報記憶媒体は、第1の基準モーションデータ群により特定される第1のモーションから第2の基準モーションデータ群により特定される第2のモーションへと繋ぐ繋ぎモーションを再生する際に、前記第1の基準モーションデータ群の中から前記補間開始点基準モーションデータが選択され、前記第2の基準モーションデータ群の中から前記補間目標点基準モーションデータが選択されることを特徴とする。このようにすれば、第1の基準モーションデータ群の中から補間開始点基準モーションデータを選択し、第2の基準モーションデータ群の中から補間目標点基準モーションデータを選択するという簡易な処理で、第1のモーションから第2のモーションへと繋ぐ繋ぎモーションを、滑らかに且つリアルに再生できるようになる。
【0014】
また本発明に係るゲーム装置及び情報記憶媒体は、前記第1の基準モーションデータ群のうち、モーション再生の再生時間変数が指示する時間軸上の位置に最も近い位置に設定された基準モーションデータが、前記補間開始点基準モーションデータとして選択されることを特徴とする。このようにすれば、第1のモーションから繋ぎモーションへのモーション変化を、滑らかで自然なものにすることができる。
【0015】
また本発明に係るゲーム装置及び情報記憶媒体は、前記第2の基準モーションデータ群の中の先頭の基準モーションデータが、前記補間目標点基準モーションデータとして選択されることを特徴とする。このようにすれば、第1、第2のモーションが互いに非類似のモーションである場合に、第1のモーションから第2のモーションの途中状態へとモーションが不自然に変化するという事態を効果的に防止できる。
【0016】
また本発明に係るゲーム装置及び情報記憶媒体は、前記第2の基準モーションデータ群のうち、前記補間開始点基準モーションデータに対応する基準モーションデータを第Kの基準モーションデータとした場合に、前記第Kの基準モーションデータに対して時間軸上で次の基準モーションデータである第K+1の基準モーションデータが、前記補間目標点基準モーションデータとして選択されることを特徴とする。このようにすれば、第1のモーションの再生期間の任意の時に第2のモーションへの繋ぎモーションの再生イベントが発生するような場合にも、自然で滑らかなモーション変化を実現できるようになる。
【0017】
【発明の実施の形態】
以下、本発明の好適な実施形態について図面を用いて説明する。なお以下では、本発明を競馬ゲームに適用した場合を例にとり説明するが、本発明はこれに限定されず、種々のゲームに適用できる。
【0018】
1.構成
図3に、本実施形態を業務用ゲーム装置に適用した場合の構成例を示し、図4に、本実施形態により生成されるゲーム画像の例を示す。
【0019】
プレーヤは、馬の形に似せて作られたライド(筺体)1110に乗る。そしてディスプレイ1100上に映し出された図4に示すようなゲーム画像を見ながら、ライド1110を揺らすことで、画面上の馬10を操る。そして、他のプレーヤ又はコンピュータが操る馬12、14と競争することで、競馬ゲームを楽しむ。
【0020】
この場合、ライド1110を前後に速く揺らすと画面上の馬10も速く走り、遅く揺らすと画面上の馬10も遅く走る。従って、例えばレースの前半ではライド1110を遅く揺らすことで馬のスタミナを温存し、レース後半の勝負所でライド1110を速く揺らして相手プレーヤの馬12、14を追い抜くというような駆け引きを楽しむことができる。このように本実施形態によれば、あたかも現実世界の本当の騎手になったような気分をプレーヤに仮想体験させることが可能となる。
【0021】
図5に、本実施形態のブロック図の一例を示す。なお同図において本実施形態のゲーム装置は、少なくとも処理部100と記憶部140を含めばよく(或いは、処理部100と記憶部140と情報記憶媒体150を含めばよく)、それ以外のブロック(例えば操作部130、画像生成部160、表示部162、音生成部170、音出力部172、通信部174、I/F部176、メモリーカード180等)については、任意の構成要素とすることができる。
【0022】
ここで処理部100は、装置全体の制御、装置内の各ブロックへの命令の指示、ゲーム演算などの各種の処理を行うものであり、その機能は、CPU(CISC型、RISC型)、DSP、或いはASIC(ゲートアレイ等)などのハードウェアや、所与のプログラム(ゲームプログラム)により実現できる。
【0023】
操作部130は、プレーヤが操作情報を入力するためのものであり、その機能は、図3のライド1110や操作ボタン(ジャンプボタン、スタートボタン)などのハードウェアにより実現できる。
【0024】
記憶部140は、処理部100、画像生成部160、音生成部170、通信部174、I/F部176などのワーク領域となるもので、その機能はRAMなどのハードウェアにより実現できる。
【0025】
情報記憶媒体(コンピュータにより情報の読み取りが可能な記憶媒体)150は、プログラムやデータなどの情報を格納するものであり、その機能は、光ディスク(CD、DVD)、光磁気ディスク(MO)、磁気ディスク、ハードディスク、磁気テープ、或いは半導体メモリ(ROM)などのハードウェアにより実現できる。処理部100は、この情報記憶媒体150に格納される情報に基づいて本発明(本実施形態)の種々の処理を行う。即ち情報記憶媒体150には、本発明(本実施形態)の手段(特に処理部100や記憶部140に含まれるブロック)を実現するための種々の情報が格納される。
【0026】
なお、情報記憶媒体150に格納される情報の一部又は全部は、装置への電源投入時等に記憶部140に転送されることになる。また情報記憶媒体150に記憶される情報は、本発明の処理を行うためのプログラムコード、画像情報、音情報、表示物の形状情報、テーブルデータ、リストデータ、プレーヤ情報や、本発明の処理を指示するための情報、その指示に従って処理を行うための情報等の少なくとも1つを含むものである。
【0027】
画像生成部160は、処理部100からの指示等にしたがって、各種の画像を生成し表示部162に出力するものであり、その機能は、画像生成用ASIC、CPU、或いはDSPなどのハードウェアや、所与のプログラム(画像生成プログラム)、画像情報により実現できる。
【0028】
音生成部170は、処理部100からの指示等にしたがって、各種の音を生成し音出力部172に出力するものであり、その機能は、音生成用ASIC、CPU、或いはDSPなどのハードウェアや、所与のプログラム(音生成プログラム)、音情報(波形データ等)により実現できる。
【0029】
通信部174は、外部装置(例えばホスト装置や他のゲーム装置)との間で通信を行うための各種の制御を行うものであり、その機能は、通信用ASIC、或いはCPUなどのハードウェアや、所与のプログラム(通信プログラム)により実現できる。
【0030】
なお本発明(本実施形態)の処理を実現するための情報は、ホスト装置が有する情報記憶媒体からネットワーク、通信部174を介してゲーム装置が有する情報記憶媒体に配信するようにしてもよい。このようなホスト装置の情報記憶媒体の使用やゲーム装置の情報記憶媒体の使用も本発明の範囲内に含まれる。
【0031】
また処理部100の機能の一部又は全部を、画像生成部160、音生成部170、又は通信部174の機能により実現するようにしてもよい。或いは、画像生成部160、音生成部170、又は通信部174の機能の一部又は全部を、処理部100の機能により実現するようにしてもよい。
【0032】
I/F部176は、処理部100からの指示等にしたがってメモリーカード(広義には、携帯型ミニゲーム装置などを含む携帯型情報記憶装置)180との間で情報交換を行うためのインターフェースとなるものであり、その機能は、メモリーカードを挿入するためのスロットや、データ書き込み・読み出し用コントローラICなどにより実現できる。なお、メモリーカード180との間の情報交換を赤外線などの無線を用いて実現する場合には、I/F部176の機能は、半導体レーザ、赤外線センサーなどのハードウェアにより実現できる。
【0033】
処理部100は、ゲーム演算部110を含む。
【0034】
ここでゲーム演算部110は、コイン(代価)の受け付け処理、ゲームモードの設定処理、ゲームの進行処理、選択画面の設定処理、移動体(馬、キャラクタ)の位置や方向を決める処理、視点位置や視線方向を決める処理、移動体のモーションを再生する処理、オブジェクト空間へオブジェクトを配置する処理、ヒットチェック処理、ゲーム成果(成績)を演算する処理、複数のプレーヤが共通のゲーム空間でプレイするための処理、或いはゲームオーバー処理などの種々のゲーム演算処理を、操作部130からの操作情報、メモリーカード180からの情報、ゲームプログラムなどに基づいて行う。
【0035】
なお、本発明を競馬ゲーム以外のゲームに適用した場合には、移動体としては、ロボット、戦車、飛行機、車等、種々のものを考えることができる。
【0036】
ゲーム演算部110は、移動体演算部112、視点制御部114、モーション再生部116を含む。
【0037】
ここで移動体演算部112は、移動体の移動情報(位置情報、方向情報等)を演算するものであり、例えば操作部130から入力される操作情報や所与のプログラムに基づき、移動体をオブジェクト空間内で移動させる処理などを行う。即ち、プレーヤ(自プレーヤ、他プレーヤ)からの操作情報や、コンピュータからの命令(所与の移動制御アルゴリズム)に基づいて、移動体をオブジェクト空間内で移動させる処理などを行う。
【0038】
より具体的には、移動体演算部112は、移動体の位置や方向を例えば1フレーム(1/60秒)毎に求める処理を行う。例えば(k−1)フレームでの移動体の位置をPMk-1、速度をVMk-1、加速度をAMk-1、1フレームの時間を△tとする。するとkフレームでの移動体の位置PMk、速度VMkは例えば下式(1)、(2)のように求められる。
【0039】
PMk=PMk-1+VMk-1×△t (1)
VMk=VMk-1+AMk-1×△t (2)
視点制御部114は、移動体演算部112で得られた移動体の位置や方向の情報などに基づいて、視点位置や視線方向等を求める処理を行う。より具体的には、例えば、プレーヤの操作する移動体の位置又は方向に追従するように視点位置又は視線方向を変化させる処理を行う。この場合、移動体の位置又は方向に対して、例えば慣性を持ちながら視点位置又は視線方向を追従させることが望ましい。画像生成部160は、この視点制御部114により制御される視点において見える画像を生成することになる。
【0040】
なお、視点制御部114は、移動体の移動とは無関係に視点を制御することもできる。
【0041】
モーション再生部116は、モーションデータ記憶部142に記憶される基準モーションデータ群に基づいてモデルオブジェクト(移動体である馬)のモーションを再生するための処理を行う。
【0042】
即ち本実施形態では、図1(A)、(B)の従来技術とは異なり、モデルオブジェクトの全体形状がスケルトンモデルを用いることなく頂点座標群により特定される。そして、このモデルオブジェクトのモーションを再生するための基準モーションデータ群(キーモーションデータ群)がモーションデータ記憶部142に記憶される。より具体的には、モデルオブジェクトの各基準全体形状(キー全体形状)を特定する各基準頂点座標群が、基準モーションデータ群の中の各基準モーションデータとしてモーションデータ記憶部142に記憶される。そして、モーション再生部116は、基準モーションデータ群の中から補間開始点の基準モーションデータと補間目標点の基準モーションデータとを選択する。次に補間開始点の基準モーションデータに含まれる基準頂点座標群と、補間目標点の基準モーションデータに含まれる基準頂点座標群とに基づき、補間処理を行うことで、補間頂点座標群を順次求める。そして、この補間頂点座標群により全体形状が特定されるモデルオブジェクトの画像が生成され出力されることになる。
【0043】
なお、モーション再生における再生時間変数の1フレーム毎の変化量は、例えば操作部130を用いて入力されたプレーヤからの操作情報に基づいて決めることが望ましい。例えば、プレーヤが図3のライド1110を遅く揺らした場合には再生時間変数の1フレーム毎の変化量を小さくし、速く揺らした場合には大きくする。
【0044】
モーション再生部116は繋ぎモーション再生部118を含む。
【0045】
繋ぎモーション再生部118は、第1の基準モーションデータ群により特定される第1のモーション(例えば馬の走りモーション)から、第2の基準モーションデータ群により特定される第2のモーション(例えば馬のジャンプモーション)へと繋ぐ繋ぎモーションを再生するための処理を行う。より具体的には、第1の基準モーションデータ群の中から上記補間開始点基準モーションデータを選択し、第2の基準モーションデータ群の中から上記補間目標点基準モーションデータを選択する。そして、これらの選択された補間開始点基準モーションデータと補間目標点基準モーションデータに基づいて、繋ぎモーションを再生するようにする。
【0046】
なお、本実施形態のゲーム装置は、1人のプレーヤがプレイするシングルプレーヤモードによるゲームプレイと、複数のプレーヤがプレイするマルチプレーヤモードによるゲームプレイの両方が可能になっている。
【0047】
また複数のプレーヤがプレイする場合に、これらの複数のプレーヤに提供するゲーム画像やゲーム音を、1つのゲーム装置を用いて生成してもよいし、ネットワーク(伝送ライン、通信回線)などで接続された複数のゲーム装置を用いて生成してもよい。
【0048】
2.本実施形態の特徴
さて本実施形態では、図6に示すような一連の基準モーションデータ群MR0〜MR7(馬の走行を表すモーションデータ)を用意する。なお図6では、説明を簡単にするために、基準モーションデータの個数(フレーム数)は8個となっているが、基準モーションデータの個数は任意である。
【0049】
本実施形態では、馬などのモデルオブジェクト(頭、首、胴体、脚などの部位が一体成型されたオブジェクト)の全体形状を、スケルトンモデルを用いることなく、頂点座標群により特定している。そして、モデルオブジェクトの各基準全体形状を特定する各基準頂点座標群が、図6の基準モーションデータ群MR0〜MR7として、図5のモーションデータ記憶部142に記憶される。即ち図1(A)、(B)の従来技術では、スケルトンモデル700の骨B1〜B10の方向や位置が基準モーションデータとして記憶されるのに対して、本実施形態では、モデルオブジェクトそのものの基準頂点座標群が基準モーションデータとして記憶される。
【0050】
そして、図6の基準モーションデータ群MR0〜MR7の中から、図7のE1に示すように補間開始点の基準モーションデータMSと補間目標点の基準モーションデータMTが選択される。そして図7のE2に示すよう、補間開始点基準モーションデータMSに含まれる基準頂点座標群(VS0〜VS3)と、補間目標点基準モーションデータMTに含まれる基準頂点座標群(VT0〜VT3)とに基づき補間処理が行われ、補間頂点座標群(VC0〜VC3)が求められる。そして、この求められた補間頂点座標群に基づいて、各フレームでのモデルオブジェクトの画像が生成される。なお図7では、説明を簡易化するために、モデルオブジェクトを2次元のオブジェクトとして描いているが、実際にはモデルオブジェクトは、複数のポリゴン(広義にはプリミティブ面)により構成される3次元のオブジェクトである。そして、補間対象となる頂点座標群は、例えばこれらのポリゴンの頂点座標群となる。
【0051】
以上のような本実施形態の手法によれば、図1(A)、(B)に示すようなスケルトンモデル700を用意する必要がなくなる。従って、スケルトンモデルの骨B1〜B10の方向や位置を計算するための回転マトリクス等を用いた行列演算が必要なくなる。これにより、処理の演算負荷を大幅に軽減できるようになる。
【0052】
また本実施形態では、スケルトンモデルを用いないため、図2(A)、(B)のような関節部分での画像表示が見苦しくなるという問題も生じない。
【0053】
即ち図1(A)、(B)のスケルトンモデル700を用いる手法では、スケルトンモデル700の各骨B1〜B10の動きに対して、各パーツオブジェクトPB1〜PB10を追従させる必要がある。このため、各関節部分での画像表示の悪化の問題が、どうしても生じてしまう。
【0054】
これに対して本実施形態では、スケルトンモデルを採用していないため、モデルオブジェクトを、頭、首、胴体、脚などのパーツオブジェクトに分割することなく一体成型できる。従って、関節部分での画像表示の悪化の問題が、本質的に生じない。
【0055】
このように、本実施形態によれば、モデルオブジェクトのリアルで高品質な動画像を、少ない演算負荷で生成できるようになる。
【0056】
なお、図7のE2に示す基準頂点座標群の補間処理は、演算負荷の軽減化という観点からは直線補間であることが特に望ましいが、M次曲線や、線形演算式で表されない曲線(sin曲線、cos曲線、ベジェ曲線等)により補間処理を行うようにしてもよい。
【0057】
さて、MSとMTに基づく補間処理は、具体的には以下に示すような手法により実現できる。
【0058】
即ち、本実施形態では、再生時間変数PTと呼ばれるものを導入する。この再生時間変数PTの1フレーム毎の変化量は、操作部130を用いて入力されたプレーヤからの操作情報に基づいて決められる。例えばプレーヤが図3のライド1110を前後に遅く揺らすとPTの1フレーム毎の変化量は小さくなり、速く揺らすと大きくなる。
【0059】
より具体的には図8のF1では、ライド1110を揺らす速度が標準的な速度であり、PTの1フレーム毎の変化量が1.0になっている。また図8のF2では、ライド1110を揺らす速度が遅く、PTの1フレーム毎の変化量が0.4になっている。また図8のF3では、ライド1110を揺らす速度が速く、PTの1フレーム毎の変化量が1.3になっている。
【0060】
そして本実施形態では、再生時間変数PTの整数部に基づき、補間処理の対象となる補間開始点基準モーションデータMSや補間目標点基準モーションデータMTが選択される。また、PTの小数部に基づき補間率αが決定される。
【0061】
より具体的には、PTの整数部をPIとした場合には、MSとしてMR(PI)が選択され、MTとしてMR(PI+1)が選択される。また、PTの小数部をPDとした場合には、補間率α=PDとなる。従って、補間処理により得られる補間モーションデータMCは、

Figure 0004233065
となる。
【0062】
例えば図8のF4ではPT=1.0であり、PI=1、PD=0.0となる。従って、MS=MR1、MT=MR2、α=0.0となり、MC=MR1となる。
【0063】
また図8のF5ではPT=0.4であり、PI=0、PD=0.4となる。従って、MS=MR0、MT=MR1、α=0.4となり、MC=0.6×MR0+0.4×MR1になる。
【0064】
また図8のF6ではPT=1.3であり、PI=1、PD=0.3となる。従って、MS=MR1、MT=MR2、α=0.3となり、MC=0.7×MR1+0.3×MR2になる。
【0065】
このように、再生時間変数PTを導入することで、MSとMTの補間を簡易な処理で実現できるようになる。
【0066】
さて、本実施形態では、第1の基準モーションデータ群により特定される第1のモーションから、第2の基準モーションデータ群により特定される第2のモーションへの繋ぎモーションの再生(例えば、馬の走行モーションからジャンプモーションへの繋ぎモーション、馬のジャンプモーションから転倒モーションへの繋ぎモーションの再生)を、以下のようにして実現している。
【0067】
例えば図9には、馬の走行モーションからジャンプモーションへの繋ぎモーションの再生の例が示される。図9では、馬の走行モーション用の基準モーションデータ群MR0〜MR7の中のMR4が、補間開始点基準モーションデータMSとして選択される。また、馬のジャンプモーション用の基準モーションデータ群MJ0〜MJ7の中の先頭のMJ0が、補間目標点基準モーションデータMTとして選択される。そして、これらの選択されたMSとMTを用いた補間処理により、走行モーションからジャンプモーションへの繋ぎモーションが再生される。より具体的には、MSに含まれる基準頂点座標群とMTに含まれる基準頂点座標群を補間して、所与のフレーム数分(図9では3フレーム分)の補間頂点座標群を順次求めることで、繋ぎモーションが再生される。
【0068】
また図10には、馬のジャンプモーションから転倒モーションへの繋ぎモーションの再生の例が示される。図10では、馬のジャンプモーション用の基準モーションデータ群MJ0〜MJ7の中のMJ3が、MSとして選択される。また、馬の転倒モーション用の基準モーションデータ群MF0〜MF7の中のMF4(MJ3に対応するMF3の次の基準モーションデータ)が、MTとして選択される。そして、これらの選択されたMSとMTを用いた補間処理により、ジャンプモーションから転倒モーションへの繋ぎモーションが再生される。
【0069】
このように本実施形態では、第1の基準モーションデータ群(図9のMR0〜MR7、或いは図10のMJ0〜MJ7)の中から選択されたMSと、第2の基準モーションデータ群(図9のMJ0〜MJ7、或いは図10のMF0〜MF7)の中から選択されたMTとを用いて、繋ぎモーションを再生している。このようにすることで、図9、図10に示すように滑らかで自然な繋ぎモーションの再生を、第1、第2の基準モーションデータ群からMSとMTを選択するだけという簡易な処理で実現できるようになる。
【0070】
さて本実施形態では、補間開始点基準モーションデータMSと補間目標点基準モーションデータMTを、具体的には以下に説明する手法により選択している。
【0071】
例えば図11(A)のように走行モーション再生時のG1に示すタイミング(再生時間変数PT=3.3)で、プレーヤがジャンプボタンを押し、馬のジャンプイベントが発生したとする。この場合には、PTが指示する時間軸上の位置に最も近い位置に設定された基準モーションデータであるMR3が、補間開始点基準モーションデータMSとして選択される。また、ジャンプモーション用の基準モーションデータ群MJ0〜MJ7の中の先頭の基準モーションデータMJ0が、補間目標点基準モーションデータMTとして選択される。そして、MS=MR3とMT=MJ0を用いた補間処理が行われ、走行からジャンプへの繋ぎモーションが再生される。
【0072】
また図11(B)のように走行モーション再生時のG2に示すタイミング(PT=3.7)で、ジャンプイベントが発生したとする。この場合には、PTが指示する位置に最も近いMR4がMSとして選択される。また、MJ0〜MJ7の中の先頭のMJ0が、MTとして選択される。そして、MS=MR4とMT=MJ0を用いた補間処理が行われ、走行からジャンプへの繋ぎモーションが再生される。
【0073】
また図12(A)のようにジャンプモーション再生時のG3に示すタイミング(PT=2.4)で、馬が障害物などにつまずいて馬の転倒イベントが発生したとする。この場合には、PTが指示する位置に最も近いMJ2がMSとして選択される。また、転倒モーション用の基準モーションデータ群MF0〜MF7のうち、MS=MJ2に対応するMF2に対して時間軸上で次の基準モーションデータであるMF3が、MTとして選択される。そして、MS=MJ2とMT=MF3を用いた補間処理が行われ、ジャンプから転倒への繋ぎモーションが再生される。
【0074】
また図12(B)のようにジャンプモーション再生時のG4に示すタイミング(PT=2.6)で、馬の転倒イベントが発生したとする。この場合には、PTが指示する位置に最も近いMJ3がMSとして選択される。また、MF0〜MF7のうち、MS=MJ3に対応するMF3の次のMF4が、MTとして選択される。そして、MS=MJ3とMT=MF4を用いた補間処理が行われ、ジャンプから転倒への繋ぎモーションが再生される。
【0075】
以上のように本実施形態では、まず第1に、再生時間変数PTの指示位置に最も近い基準モーションデータを、補間開始点基準モーションデータMSとして選択している。このようにすれば、走行モーション(或いはジャンプモーション)から繋ぎモーションへと、滑らかに且つ自然にモーションが変化して見えるようになり、画像のリアル度を増すことができる。
【0076】
しかも、MSの選択は、例えばPTの整数部PIと小数部PDを求めるだけで簡易に実現できるため、演算負荷も重くない。
【0077】
例えば図11(A)では、PT=3.3であり、PI=3であることから、MR(PI)=MR3とMR(PI+1)=MR4が選択候補になる。そして、PD=0.3<0.5であることから、MR3の方がPTの指示位置に近いことがわかり、MSとしてMR3が選択される。
【0078】
また図11(B)では、PT=3.7であり、PI=3であることから、MR(PI)=MR3とMR(PI+1)=MR4が選択候補になる。そして、PD=0.7≧0.5であることから、MR4の方がPTの指示位置に近いことがわかり、MSとしてMR4が選択される。
【0079】
このように本実施形態によれば、繋ぎモーションへのリアルで自然なモーション変化を、再生時間変数PTの整数部PI及び小数部PDを調べてMSを選択するという簡易な処理で実現できるようになる。
【0080】
また本実施形態では、図11(A)、(B)のような走行からジャンプへの繋ぎモーション再生時においては、ジャンプモーションのMJ0〜MJ7の先頭のMJ0を、補間目標点基準モーションデータMTとして選択している。このようにすれば、走行状態からジャンプの途中状態(例えば最も高くジャンプした状態)へとモーションが変化するというような不自然な現象が生じるのを効果的に防止できる。
【0081】
一方、本実施形態では、図12(A)、(B)のようなジャンプから転倒への繋ぎモーション再生時においては、転倒モーションの基準モーションデータ群のうち、MSに対応する基準モーションデータの次の基準モーションデータを、MTとして選択している。例えば図12(A)では、MS=MJ2に対応するMF2の次のMF3がMTとして選択され、図12(B)では、MS=MJ3に対応するMF3の次のMF4がMTとして選択される。
【0082】
馬の転倒イベントは、ジャンプ時に馬が障害物につまずいた時に発生する。そして、転倒イベントの発生時期は、プレーヤが入力した操作情報、馬の走行状況、障害物の配置、コース状況などに左右されて変化する。従って、ジャンプモーション再生期間のどの時点で転倒イベントが発生するかは、全く予測できない。従って、ジャンプモーション再生期間のどの時点で転倒イベントが発生しても、ジャンプモーションと転倒モーションとが滑らかに繋がれるように、繋ぎモーションを再生する必要がある。
【0083】
本実施形態では、図12(A)、(B)に示すように、MSに対応する基準モーションデータの次の基準モーションデータであるMF3やMF4をMTとして選択している。従って、本実施形態によれば、ジャンプモーション再生期間のどの時点で転倒イベントが発生しても、ジャンプモーションと転倒モーションとが滑らかに繋がるようになり、よりリアルでより自然な繋ぎモーションの再生を少ない演算負担で実現できる。
【0084】
なお、図12(A)、(B)のような継続型のモーション再生処理では、繋ぎ元の基準モーションデータ群MJ0〜MJ7の個数と、繋ぎ先の基準モーションデータ群MF0〜MF7の個数とを同一にしておくことが望ましい。
【0085】
3.本実施形態の処理
次に、本実施形態の詳細な処理例について図13、図14、図15のフローチャートを用いて説明する。
【0086】
図13は、処理の全体の流れを示すフローチャートである。
【0087】
まず、走行モーションの再生処理を行う(ステップS1)。そして、ジャンプボタンがプレーヤにより押されたか否かを判断し(ステップS2)、押されなかった場合には走行モーションの再生処理を繰り返す。一方、ジャンプボタンがプレーヤにより押された場合には、走行からジャンプへの繋ぎモーションの再生処理を開始する(ステップS3)。そして、繋ぎモーションの再生が終了すると、ジャンプモーションの再生処理を開始する(ステップS4)。
【0088】
次に、転倒イベントが発生したか(馬が障害物につまずいたか)否かを判断し(ステップS5)、発生した場合には、ジャンプから転倒への繋ぎモーションの再生処理を開始する(ステップS6)。そして、繋ぎモーションの再生が終了すると、転倒モーションの再生処理を開始する(ステップS7)。
【0089】
図14は、図13のステップS1の走行モーション再生処理(繰り返し型モーション再生処理)の詳細について説明するためのフローチャートである。
【0090】
まず、走行モーションのMR0〜MR7の中から、MR(PI)を選択し、選択されたMR(PI)を、補間開始点となるMSに設定する(ステップU1)。ここでPIは、再生時間変数PTの整数部である。例えば図8のF5ではPI=0であるため、MS=MR0になり、F6ではPI=1であるため、MS=MR1になる。
【0091】
次に、MR0〜MR7の中からMR(PI+1)を選択し、選択されたMR(PI+1)を、補間目標点となるMTに設定する(ステップU2)。例えば図8のF5ではPI=0であるため、MT=MR1になり、F6ではPI=1であるため、MT=MR2になる。
【0092】
次に、補間率αを、α=PDに設定する(ステップU3)。例えば、図8のF5では、PD=0.4であるため、α=0.4になり、F6ではPD=0.3でわるため、α=0.3になる。
【0093】
次に、図7で説明したように、MSの基準頂点座標群とMTの基準頂点座標群を補間率αで直線補間して、補間モーションとなるMC=(1−α)×MS+α×MTを求める(ステップU4)。
【0094】
次に、再生時間変数PTが、再生終了時間PTENDを越えたか否かを判断し(ステップU5)、越えた場合には、PTを0にリセットする(ステップU6)。このようにPTを0にリセットすることで、MR0〜MR7を用いたモーション再生が繰り返されるようになる。
【0095】
図15は、図13のステップS3の走行からジャンプへの繋ぎモーション再生処理(新規開始型モーション再生処理)の詳細について説明するためのフローチャートである。
【0096】
まず、再生時間変数PTの小数部であるPDが0.5より小さいか否かを判断する(ステップV1)。そして、小さい場合には、走行モーションのMR0〜MR7の中からMR(PI)を選択し、MS=MR(PI)に設定する(ステップV2)。例えば図11(A)のG1ではPI=3であるため、MS=MR3になる。
【0097】
一方、PDが0.5以上である場合には、MR0〜MR7の中からMR(PI+1)を選択し、MS=MR(PI+1)に設定する(ステップV3)。例えば図11(B)のG2ではPI=3であるため、MS=MR4になる。
【0098】
次に、ジャンプモーションのMJ0〜MJ7の中から先頭のMJ0を選択し、MT=MJ0に設定する(ステップV4)。例えば、図11(A)、(B)では、共に、MT=MJ0になる。
【0099】
次に、補間率αを所与の値、例えばα=0.25に設定する(ステップV5)。そして、MS、MTの基準頂点座標群を補間率αで直線補間して、MC=(1−α)×MS+α×MTを求める(ステップV6)。そして、繋ぎモーションの再生処理が終了したか否かを判断し(ステップV7)、終了していない場合にはステップV5に戻り、αを例えば0.5に設定し直して、補間処理を行う。
【0100】
図16は、図13のステップS6のジャンプから転倒への繋ぎモーション再生処理(継続型モーション再生処理)の詳細について説明するためのフローチャートである。
【0101】
まず、PTの小数部PDが0.5より小さいか否かを判断する(ステップW1)。そして、小さい場合には、ジャンプモーションのMJ0〜MJ7の中からMJ(PI)を選択し、MS=MJ(PI)に設定する(ステップW2)。例えば図12(A)のG3ではPI=2であるため、MS=MJ2になる。
【0102】
次に、転倒モーションのMF0〜MF7の中からMF(PI+1)を選択し、MT=MF(PI+1)に設定する(ステップW3)。例えば、図12(A)ではPI=2であるため、MT=MF3になる。
【0103】
一方、PDが0.5以上である場合には、MJ0〜MJ7の中からMJ(PI+1)を選択し、MS=MJ(PI+1)に設定する(ステップW4)。例えば図12(B)のG4ではPI=2であるため、MS=MJ3になる。
【0104】
次に、MF0〜MF7の中からMF(PI+2)を選択し、MT=MF(PI+2)に設定する(ステップW5)。例えば、図12(B)ではPI=2であるため、MT=MF4になる。
【0105】
次に、補間率αを所与の値、例えばα=0.25に設定する(ステップW6)。そして、MS、MTの基準頂点座標群を補間率αで直線補間して、MC=(1−α)×MS+α×MTを求める(ステップW7)。そして、繋ぎモーションの再生処理が終了したか否かを判断し(ステップW8)、終了していない場合にはステップW6に戻り、αを例えば0.5に設定し直して、補間処理を行う。
【0106】
4.ハードウェア構成
次に、本実施形態を実現できるハードウェアの構成の一例について図17を用いて説明する。同図に示す装置では、CPU1000、ROM1002、RAM1004、情報記憶媒体1006、音生成IC1008、画像生成IC1010、I/Oポート1012、1014が、システムバス1016により相互にデータ送受信可能に接続されている。そして前記画像生成IC1010にはディスプレイ1018が接続され、音生成IC1008にはスピーカ1020が接続され、I/Oポート1012にはコントロール装置1022が接続され、I/Oポート1014には通信装置1024が接続されている。
【0107】
情報記憶媒体1006は、プログラム、表示物を表現するための画像データ、音データ等が主に格納されるものである。例えば家庭用ゲーム装置ではゲームプログラム等を格納する情報記憶媒体としてCD−ROM、ゲームカセット、DVD等が用いられる。また業務用ゲーム装置ではROM等のメモリが用いられ、この場合には情報記憶媒体1006はROM1002になる。
【0108】
コントロール装置1022はゲームコントローラ、操作パネル等に相当するものであり、プレーヤがゲーム進行に応じて行う判断の結果を装置本体に入力するための装置である。
【0109】
情報記憶媒体1006に格納されるプログラム、ROM1002に格納されるシステムプログラム(装置本体の初期化情報等)、コントロール装置1022によって入力される信号等に従って、CPU1000は装置全体の制御や各種データ処理を行う。RAM1004はこのCPU1000の作業領域等として用いられる記憶手段であり、情報記憶媒体1006やROM1002の所与の内容、あるいはCPU1000の演算結果等が格納される。また本実施形態を実現するための論理的な構成を持つデータ構造は、このRAM又は情報記憶媒体上に構築されることになる。
【0110】
更に、この種の装置には音生成IC1008と画像生成IC1010とが設けられていてゲーム音やゲーム画像の好適な出力が行えるようになっている。音生成IC1008は情報記憶媒体1006やROM1002に記憶される情報に基づいて効果音やバックグラウンド音楽等のゲーム音を生成する集積回路であり、生成されたゲーム音はスピーカ1020によって出力される。また、画像生成IC1010は、RAM1004、ROM1002、情報記憶媒体1006等から送られる画像情報に基づいてディスプレイ1018に出力するための画素情報を生成する集積回路である。なおディスプレイ1018として、いわゆるヘッドマウントディスプレイ(HMD)と呼ばれるものを使用することもできる。
【0111】
また、通信装置1024はゲーム装置内部で利用される各種の情報を外部とやりとりするものであり、他のゲーム装置と接続されてゲームプログラムに応じた所与の情報を送受したり、通信回線を介してゲームプログラム等の情報を送受することなどに利用される。
【0112】
そして図1〜図16で説明した種々の処理は、プログラムやデータなどの情報を格納した情報記憶媒体1006、この情報記憶媒体1006からの情報等に基づいて動作するCPU1000、画像生成IC1010或いは音生成IC1008等によって実現される。なお画像生成IC1010、音生成IC1008等で行われる処理は、CPU1000あるいは汎用のDSP等によりソフトウェア的に行ってもよい。
【0113】
前述の図3は、本実施形態を業務用ゲーム装置に適用した場合の例である。この場合、装置に内蔵されるシステムボード(サーキットボード)1106には、CPU、画像生成IC、音生成IC等が実装される。そして、本実施形態の処理(本発明の手段)を実行(実現)するための情報は、システムボード1106上の情報記憶媒体である半導体メモリ1108に格納される。以下、この情報を格納情報と呼ぶ。
【0114】
図18(A)に、本実施形態を家庭用のゲーム装置に適用した場合の例を示す。プレーヤはディスプレイ1200に映し出されたゲーム画像を見ながら、ゲームコントローラ1202、1204を操作してゲームを楽しむ。この場合、上記格納情報は、本体装置に着脱自在な情報記憶媒体であるCD−ROM1206、メモリーカード1208、1209等に格納されている。
【0115】
図18(B)に、ホスト装置1300と、このホスト装置1300と通信回線(LANのような小規模ネットワークや、インターネットのような広域ネットワーク)1302を介して接続される端末1304-1〜1304-nとを含むシステムに本実施形態を適用した場合の例を示す。この場合、上記格納情報は、例えばホスト装置1300が制御可能な磁気ディスク装置、磁気テープ装置、半導体メモリ等の情報記憶媒体1306に格納されている。端末1304-1〜1304-nが、CPU、画像生成IC、音処理ICを有し、スタンドアロンでゲーム画像、ゲーム音を生成できるものである場合には、ホスト装置1300からは、ゲーム画像、ゲーム音を生成するためのゲームプログラム等が端末1304-1〜1304-nに配送される。一方、スタンドアロンで生成できない場合には、ホスト装置1300がゲーム画像、ゲーム音を生成し、これを端末1304-1〜1304-nに伝送し端末において出力することになる。
【0116】
なお、図18(B)の構成の場合に、本発明の処理を、ホスト装置と端末とで(サーバーを設ける場合にはホスト装置とサーバーと端末とで)分散して処理するようにしてもよい。また、本発明を実現するための上記格納情報を、ホスト装置の情報記憶媒体と端末の情報記憶媒体(或いはホスト装置の情報記憶媒体とサーバの情報記憶媒体と端末の情報記憶媒体)に分散して格納するようにしてもよい。
【0117】
また通信回線に接続する端末は、家庭用ゲーム装置であってもよいし業務用ゲーム装置であってもよい。そして、業務用ゲーム装置を通信回線に接続する場合には、業務用ゲーム装置との間で情報のやり取りが可能であると共に家庭用ゲーム装置との間でも情報のやり取りが可能な携帯型情報記憶装置(メモリーカード、携帯型ゲーム装置)を用いることが望ましい。
【0118】
なお本発明は、上記実施形態で説明したものに限らず、種々の変形実施が可能である。
【0119】
例えば、本発明のうち従属請求項に係る発明においては、従属先の請求項の構成要件の一部を省略する構成とすることもできる。
【0120】
また、補間開始点基準モーションデータや補間目標点基準モーションデータの選択手法は、本実施形態で説明した手法が特に望ましいが、これに限定されるものではない。
【0121】
またモデルオブジェクトで表現される表示物も、馬のみならず、人間、ロボット等、種々のものを考えることができる。
【0122】
また本発明は競馬ゲーム以外にも種々のゲーム(格闘ゲーム、競争ゲーム、ロボット対戦ゲーム、スポーツゲーム、ロールプレイングゲーム等)に適用できる。
【0123】
また本発明は、業務用ゲーム装置、家庭用ゲーム装置、多数のプレーヤが参加する大型アトラクション装置、シミュレータ、マルチメディア端末、画像生成装置、ゲーム画像を生成するシステム基板等の種々のゲーム装置に適用できる。
【図面の簡単な説明】
【図1】図1(A)、(B)は、スケルトンモデルを用いる従来例の問題点について説明するための図である。
【図2】図2(A)、(B)、(C)も、スケルトンモデルを用いる従来例の問題点について説明するための図である。
【図3】本実施形態を業務用ゲーム装置に適用した場合の構成例を示す図である。
【図4】本実施形態により生成されるゲーム画像の例を示す図である。
【図5】本実施形態のブロック図の例である。
【図6】基準モーションデータ群について説明するための図である。
【図7】基準頂点座標群の補間処理について説明するための図である。
【図8】再生時間変数について説明するための図である。
【図9】走行からジャンプへの繋ぎモーションの再生処理について説明するための図である。
【図10】ジャンプから転倒への繋ぎモーションの再生処理について説明するための図である。
【図11】図11(A)、(B)は、走行からジャンプへの繋ぎモーション再生時におけるMSとMTの選択手法について説明するための図である。
【図12】図12(A)、(B)は、ジャンプから転倒への繋ぎモーション再生時におけるMSとMTの選択手法について説明するための図である。
【図13】本実施形態の詳細な処理例を示すフローチャートの一例である。
【図14】本実施形態の詳細な処理例を示すフローチャートの一例である。
【図15】本実施形態の詳細な処理例を示すフローチャートの一例である。
【図16】本実施形態の詳細な処理例を示すフローチャートの一例である。
【図17】本実施形態を実現できるハードウェアの構成の一例を示す図である。
【図18】図18(A)、(B)は、本実施形態が適用される種々の形態の装置の例を示す図である。
【符号の説明】
10、12、14 馬
100 処理部
110 ゲーム演算部
112 移動体演算部
114 視点制御部
116 モーション再生部
118 繋ぎモーション再生部
130 操作部
140 記憶部
142 モーションデータ記憶部
150 情報記憶媒体
160 画像生成部
162 表示部
170 音生成部
172 音出力部
174 通信部
176 I/F部
180 メモリーカード[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a game device and an information storage medium.
[0002]
[Background Art and Problems to be Solved by the Invention]
2. Description of the Related Art Conventionally, a game apparatus that arranges a plurality of objects in an object space that is a virtual three-dimensional space and generates an image that can be seen from a given viewpoint in the object space is known, and a so-called virtual reality can be experienced. Popular as a thing. Taking a game device that can enjoy a horse racing game as an example, a player runs a horse operated by the player in the object space, and enjoys a three-dimensional game by competing with a horse operated by another player or a computer.
[0003]
Now, in such a game device, it is an important technical problem to generate a more realistic image in order to improve the virtual reality of the player. Therefore, it is desirable that the motion of a display object such as a person or a horse can be reproduced realistically.
[0004]
As techniques relating to such motion reproduction, there are conventional techniques disclosed in, for example, JP-A-9-218961, JP-A-10-74270, JP-A-10-208072, and JP-A-10-302088. In this prior art, as shown in FIG. 1A, a skeleton model (posture specifying information) 700 having bones (arcs) B1 to B10 and joints J1 to J11 is prepared. Then, as shown in FIG. 1B, the overall shape of the model object 710 such as a person is specified using this skeleton model. That is, a moving image of the model object 710 is generated by causing the parts objects PB1 to PB10 representing parts such as the head, arms, torso, and legs to follow the movements of the bones B1 to B10.
[0005]
However, in this prior art, in order to determine the directions and positions of the bones B1 to B10, a matrix operation using a rotation matrix or the like is required. For this reason, there is a problem that the processing load of processing becomes heavy.
[0006]
In addition, in this prior art, there is a problem that the image display becomes very unsightly at the joint portion (for example, the portion indicated by D1 in FIG. 1B). That is, in FIG. 2A, a tear 730 is generated between the part objects 720 and 722, and either end face of the part object 720 or 722 is exposed. In FIG. 2B, an overlapping portion 732 is generated between the part objects 720 and 722, and the side surfaces of the part objects 720 and 722 are frequently displayed alternately to cause flickering in the image.
[0007]
As a technique for solving such a problem of image display deterioration at a joint portion, there is a conventional technique disclosed in, for example, Japanese Patent Laid-Open No. 9-128566. In this conventional technique, as shown in FIG. 2C, the vertex of the end surface of the part object 720 and the vertex of the end surface of the part object 720 are connected (polygons are expanded / contracted), thereby displaying an image at the joint portion. Trying to solve the problem of deterioration.
[0008]
However, this conventional technique has a problem that a new calculation process is required to connect the vertices. In addition, this conventional technique cannot completely solve the problem of deterioration of image display at the joint portion. Further, even in this prior art, since the skeleton model as shown in FIG. 1A is used, the problem that the matrix operation for determining the direction and position of the bone is still unsolved remains.
[0009]
The present invention has been made to solve the above-described problems, and an object of the present invention is to provide a game apparatus and information storage capable of generating a real and high-quality moving image of a model object with a small calculation load. To provide a medium.
[0010]
[Means for Solving the Problems]
In order to solve the above-described problems, the present invention is a game device for generating an image for reproducing a motion of a model object whose overall shape is specified by a vertex coordinate group without using a skeleton model. Motion data storage means for storing at least one reference motion data group, motion playback means for reproducing the motion of the model object based on the reference motion data group, and image generation means for generating an image of the model object The motion data storage means stores each reference vertex coordinate group that specifies each reference overall shape of the model object as each reference motion data in the reference motion data group, and the motion playback means stores the reference motion data. Criteria for starting interpolation point from data group Selection data and reference motion data of the interpolation target point are selected, and interpolation processing is performed based on the reference vertex coordinate group included in the interpolation start point reference motion data and the reference vertex coordinate group included in the interpolation target point reference motion data In this way, the interpolated vertex coordinate group is obtained, and the image generating means generates an image of a model object whose overall shape is specified by the interpolated vertex coordinate group. The information storage medium according to the present invention includes information for realizing the above means.
[0011]
According to the present invention, the overall shape of a model object in which a plurality of parts are integrally formed is specified by a vertex coordinate group without using a skeleton model. Each reference vertex coordinate group that specifies each reference overall shape of the model object is stored in the motion data storage unit as each reference motion data. The motion reproducing means selects the reference motion data of the interpolation start point and the reference motion data of the interpolation target point from the reference motion data group stored in the motion data storage unit. Then, the interpolation vertex coordinate group is obtained by interpolating the reference vertex coordinate group included in the reference motion data of the interpolation start point and the interpolation target point. In this way, images of model objects whose overall shape is specified by the interpolated vertex coordinate group are sequentially generated.
[0012]
As described above, according to the present invention, since an image of a model object can be generated without using a skeleton model, a matrix operation for obtaining the bone direction and position of the skeleton model becomes unnecessary. Therefore, the calculation load can be greatly reduced. In addition, there is no problem of deterioration of image display at the joint portion of the skeleton model. Then, by adjusting the interpolation interval according to the situation, the motion of the model object can be changed smoothly and naturally. As described above, according to the present invention, a real and high-quality moving image of a model object can be generated with a small calculation load.
[0013]
In addition, the game device and the information storage medium according to the present invention provide a connection motion that connects the first motion specified by the first reference motion data group to the second motion specified by the second reference motion data group. When reproducing, the interpolation start point reference motion data is selected from the first reference motion data group, and the interpolation target point reference motion data is selected from the second reference motion data group. It is characterized by. In this way, the interpolation start point reference motion data is selected from the first reference motion data group, and the interpolation target point reference motion data is selected from the second reference motion data group. The connection motion connecting from the first motion to the second motion can be reproduced smoothly and realistically.
[0014]
In the game device and the information storage medium according to the present invention, the reference motion data set in the position closest to the position on the time axis indicated by the playback time variable of motion playback is included in the first reference motion data group. Are selected as the interpolation start point reference motion data. In this way, the motion change from the first motion to the joint motion can be made smooth and natural.
[0015]
In the game device and the information storage medium according to the present invention, the first reference motion data in the second reference motion data group is selected as the interpolation target point reference motion data. In this way, when the first and second motions are dissimilar to each other, it is effective to unnaturally change the motion from the first motion to the intermediate state of the second motion. Can be prevented.
[0016]
The game device and the information storage medium according to the present invention may include the second reference motion data group when the reference motion data corresponding to the interpolation start point reference motion data is the Kth reference motion data. The K + 1th reference motion data, which is the next reference motion data on the time axis with respect to the Kth reference motion data, is selected as the interpolation target point reference motion data. In this way, a natural and smooth motion change can be realized even when a playback event of a connected motion to the second motion occurs at any time during the playback period of the first motion.
[0017]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings. Hereinafter, a case where the present invention is applied to a horse racing game will be described as an example, but the present invention is not limited to this and can be applied to various games.
[0018]
1. Constitution
FIG. 3 shows a configuration example when the present embodiment is applied to an arcade game apparatus, and FIG. 4 shows an example of a game image generated by the present embodiment.
[0019]
The player rides on a ride 1110 made to resemble a horse. Then, while watching the game image shown in FIG. 4 displayed on the display 1100, the ride 1110 is shaken to manipulate the horse 10 on the screen. And a horse racing game is enjoyed by competing with horses 12 and 14 which other players or computers operate.
[0020]
In this case, when the ride 1110 is quickly swung back and forth, the horse 10 on the screen also runs fast, and when it is rocked slowly, the horse 10 on the screen also runs slowly. Therefore, for example, in the first half of the race, the horse stamina can be preserved by swinging the ride 1110 slowly, and in the latter half of the race, the ride 1110 can be quickly shaken to overtake the opponent players' horses 12, 14 it can. As described above, according to the present embodiment, it is possible to make a player virtually experience the feeling of being a real jockey in the real world.
[0021]
FIG. 5 shows an example of a block diagram of the present embodiment. In the figure, the game device of this embodiment may include at least the processing unit 100 and the storage unit 140 (or may include the processing unit 100, the storage unit 140, and the information storage medium 150), and other blocks ( For example, the operation unit 130, the image generation unit 160, the display unit 162, the sound generation unit 170, the sound output unit 172, the communication unit 174, the I / F unit 176, the memory card 180, and the like) may be optional components. it can.
[0022]
Here, the processing unit 100 performs various processes such as control of the entire apparatus, instruction instruction to each block in the apparatus, game calculation, and the like, and functions thereof are a CPU (CISC type, RISC type), DSP. Alternatively, it can be realized by hardware such as an ASIC (gate array or the like) or a given program (game program).
[0023]
The operation unit 130 is used by the player to input operation information, and the function can be realized by hardware such as the ride 1110 and operation buttons (jump button, start button) in FIG.
[0024]
The storage unit 140 serves as a work area such as the processing unit 100, the image generation unit 160, the sound generation unit 170, the communication unit 174, and the I / F unit 176, and its functions can be realized by hardware such as a RAM.
[0025]
An information storage medium (storage medium from which information can be read by a computer) 150 stores information such as programs and data, and functions thereof are an optical disk (CD, DVD), a magneto-optical disk (MO), and a magnetic field. It can be realized by hardware such as a disk, a hard disk, a magnetic tape, or a semiconductor memory (ROM). The processing unit 100 performs various processes of the present invention (this embodiment) based on information stored in the information storage medium 150. That is, the information storage medium 150 stores various information for realizing the means of the present invention (this embodiment) (particularly, the blocks included in the processing unit 100 and the storage unit 140).
[0026]
Part or all of the information stored in the information storage medium 150 is transferred to the storage unit 140 when the apparatus is powered on. Information stored in the information storage medium 150 includes program code, image information, sound information, shape information of display objects, table data, list data, player information, and processing of the present invention. It includes at least one of information for instructing, information for performing processing in accordance with the instruction, and the like.
[0027]
The image generation unit 160 generates various images in accordance with instructions from the processing unit 100 and outputs them to the display unit 162. The function of the image generation unit 160 is hardware such as an image generation ASIC, CPU, or DSP, It can be realized by a given program (image generation program) and image information.
[0028]
The sound generation unit 170 generates various sounds in accordance with instructions from the processing unit 100 and outputs them to the sound output unit 172. The function of the sound generation unit 170 is a hardware such as a sound generation ASIC, CPU, or DSP. Or a given program (sound generation program) and sound information (waveform data, etc.).
[0029]
The communication unit 174 performs various controls for communicating with an external device (for example, a host device or another game device). The function of the communication unit 174 includes hardware such as a communication ASIC or CPU, It can be realized by a given program (communication program).
[0030]
Information for realizing the processing of the present invention (this embodiment) may be distributed from the information storage medium of the host device to the information storage medium of the game device via the network and the communication unit 174. Such use of the information storage medium of the host device and use of the information storage medium of the game device are also included in the scope of the present invention.
[0031]
Further, part or all of the functions of the processing unit 100 may be realized by the functions of the image generation unit 160, the sound generation unit 170, or the communication unit 174. Alternatively, part or all of the functions of the image generation unit 160, the sound generation unit 170, or the communication unit 174 may be realized by the function of the processing unit 100.
[0032]
The I / F unit 176 is an interface for exchanging information with a memory card (in a broad sense, a portable information storage device including a portable mini game device) 180 according to an instruction from the processing unit 100 and the like. The function can be realized by a slot for inserting a memory card, a controller IC for data writing / reading, and the like. In the case where information exchange with the memory card 180 is realized using radio waves such as infrared rays, the function of the I / F unit 176 can be realized by hardware such as a semiconductor laser and an infrared sensor.
[0033]
The processing unit 100 includes a game calculation unit 110.
[0034]
Here, the game calculation unit 110 receives a coin (price) acceptance process, a game mode setting process, a game progress process, a selection screen setting process, a process for determining the position and direction of a moving body (horse, character), and a viewpoint position. , Processing to determine the direction of the line of sight, processing to reproduce the motion of the moving object, processing to place the object in the object space, hit check processing, processing to calculate the game results (results), multiple players play in a common game space Various game calculation processes such as a process for a game or a game over process are performed based on operation information from the operation unit 130, information from the memory card 180, a game program, and the like.
[0035]
When the present invention is applied to a game other than a horse racing game, various things such as a robot, a tank, an airplane, and a car can be considered as the moving body.
[0036]
The game calculation unit 110 includes a moving body calculation unit 112, a viewpoint control unit 114, and a motion playback unit 116.
[0037]
Here, the moving object calculation unit 112 calculates movement information (position information, direction information, etc.) of the moving object. For example, the moving object calculation unit 112 calculates the moving object based on operation information input from the operation unit 130 or a given program. Perform processing to move in the object space. That is, a process of moving the moving body in the object space is performed based on operation information from the player (self player, other player) and a command from the computer (a given movement control algorithm).
[0038]
More specifically, the moving body computing unit 112 performs a process for obtaining the position and direction of the moving body, for example, every frame (1/60 seconds). For example, assume that the position of the moving body in the (k-1) frame is PMk-1, the speed is VMk-1, the acceleration is AMk-1, and the time of one frame is Δt. Then, the position PMk and the speed VMk of the moving body in k frames are obtained, for example, by the following equations (1) and (2).
[0039]
PMk = PMk-1 + VMk-1 * .DELTA.t (1)
VMk = VMk-1 + AMk-1 * .DELTA.t (2)
The viewpoint control unit 114 performs processing for obtaining the viewpoint position, the line-of-sight direction, and the like based on the information on the position and direction of the moving object obtained by the moving object calculation unit 112. More specifically, for example, a process of changing the viewpoint position or the line-of-sight direction so as to follow the position or direction of the moving body operated by the player is performed. In this case, it is desirable to follow the viewpoint position or the line-of-sight direction with respect to the position or direction of the moving body, for example, while having inertia. The image generation unit 160 generates an image that can be seen at the viewpoint controlled by the viewpoint control unit 114.
[0040]
The viewpoint control unit 114 can also control the viewpoint regardless of the movement of the moving object.
[0041]
The motion reproducing unit 116 performs processing for reproducing the motion of the model object (horse that is a moving object) based on the reference motion data group stored in the motion data storage unit 142.
[0042]
That is, in the present embodiment, unlike the prior art shown in FIGS. 1A and 1B, the overall shape of the model object is specified by the vertex coordinate group without using the skeleton model. A reference motion data group (key motion data group) for reproducing the motion of the model object is stored in the motion data storage unit 142. More specifically, each reference vertex coordinate group specifying each reference overall shape (key overall shape) of the model object is stored in the motion data storage unit 142 as each reference motion data in the reference motion data group. Then, the motion reproducing unit 116 selects the reference motion data at the interpolation start point and the reference motion data at the interpolation target point from the reference motion data group. Next, the interpolation vertex coordinate group is sequentially obtained by performing interpolation processing based on the reference vertex coordinate group included in the reference motion data of the interpolation start point and the reference vertex coordinate group included in the reference motion data of the interpolation target point. . Then, an image of a model object whose overall shape is specified by this interpolated vertex coordinate group is generated and output.
[0043]
It should be noted that the amount of change for each frame of the playback time variable in motion playback is preferably determined based on, for example, operation information from the player input using the operation unit 130. For example, when the player swings the ride 1110 in FIG. 3 slowly, the amount of change in the playback time variable for each frame is reduced, and when the player swings quickly, the increase is made.
[0044]
The motion playback unit 116 includes a joint motion playback unit 118.
[0045]
The splicing motion reproduction unit 118 performs a second motion (for example, a horse motion) specified by the second reference motion data group from a first motion (for example, a horse running motion) specified by the first reference motion data group. Performs processing to play back the connection motion that connects to (jump motion). More specifically, the interpolation start point reference motion data is selected from the first reference motion data group, and the interpolation target point reference motion data is selected from the second reference motion data group. Then, based on the selected interpolation start point reference motion data and interpolation target point reference motion data, the joint motion is reproduced.
[0046]
Note that the game apparatus according to the present embodiment is capable of both game play in a single player mode played by one player and game play in a multiplayer mode played by a plurality of players.
[0047]
Further, when a plurality of players play, game images and game sounds to be provided to the plurality of players may be generated using one game device, or connected via a network (transmission line, communication line), etc. It may be generated using a plurality of game devices.
[0048]
2. Features of this embodiment
In the present embodiment, a series of reference motion data groups MR0 to MR7 (motion data representing horse running) as shown in FIG. 6 are prepared. In FIG. 6, the number of reference motion data (the number of frames) is eight for ease of explanation, but the number of reference motion data is arbitrary.
[0049]
In this embodiment, the overall shape of a model object such as a horse (an object in which parts such as a head, a neck, a torso, and a leg are integrally formed) is specified by a vertex coordinate group without using a skeleton model. Then, each reference vertex coordinate group specifying each reference overall shape of the model object is stored in the motion data storage unit 142 in FIG. 5 as the reference motion data group MR0 to MR7 in FIG. 1A and 1B, the directions and positions of the bones B1 to B10 of the skeleton model 700 are stored as reference motion data, whereas in this embodiment, the reference of the model object itself is stored. A vertex coordinate group is stored as reference motion data.
[0050]
Then, the reference motion data MS at the interpolation start point and the reference motion data MT at the interpolation target point are selected from the reference motion data groups MR0 to MR7 in FIG. 6, as indicated by E1 in FIG. Then, as indicated by E2 in FIG. 7, reference vertex coordinate groups (VS0 to VS3) included in the interpolation start point reference motion data MS, and reference vertex coordinate groups (VT0 to VT3) included in the interpolation target point reference motion data MT, Is interpolated to obtain an interpolated vertex coordinate group (VC0 to VC3). Then, based on the obtained interpolated vertex coordinate group, an image of the model object in each frame is generated. In FIG. 7, the model object is drawn as a two-dimensional object to simplify the explanation. However, in reality, the model object is a three-dimensional object composed of a plurality of polygons (primitive surfaces in a broad sense). It is an object. The vertex coordinate group to be interpolated is, for example, the vertex coordinate group of these polygons.
[0051]
According to the method of the present embodiment as described above, it is not necessary to prepare a skeleton model 700 as shown in FIGS. Therefore, it is not necessary to perform matrix calculation using a rotation matrix or the like for calculating the directions and positions of the bones B1 to B10 of the skeleton model. As a result, the processing load of processing can be greatly reduced.
[0052]
In the present embodiment, since the skeleton model is not used, there is no problem that the image display at the joint portions as shown in FIGS.
[0053]
That is, in the method using the skeleton model 700 of FIGS. 1A and 1B, it is necessary to cause each part object PB1 to PB10 to follow the movement of each bone B1 to B10 of the skeleton model 700. For this reason, the problem of the deterioration of the image display in each joint part inevitably arises.
[0054]
On the other hand, in this embodiment, since the skeleton model is not adopted, the model object can be integrally molded without being divided into part objects such as a head, a neck, a trunk, and a leg. Therefore, the problem of deterioration of image display at the joint portion does not essentially occur.
[0055]
Thus, according to the present embodiment, a real and high-quality moving image of a model object can be generated with a small calculation load.
[0056]
Note that the interpolation processing of the reference vertex coordinate group indicated by E2 in FIG. 7 is particularly preferably linear interpolation from the viewpoint of reducing the calculation load, but is not limited to an M-order curve or a curve (sin) represented by a linear calculation expression. A curve, a cos curve, a Bezier curve, etc.) may be used for the interpolation process.
[0057]
Now, the interpolation processing based on MS and MT can be specifically realized by the following method.
[0058]
That is, in this embodiment, what is called a reproduction time variable PT is introduced. The amount of change of the reproduction time variable PT for each frame is determined based on operation information from the player input using the operation unit 130. For example, if the player swings the ride 1110 of FIG. 3 back and forth slowly, the amount of change in PT per frame decreases, and if the player swings fast, it increases.
[0059]
More specifically, in F1 of FIG. 8, the speed at which the ride 1110 is shaken is a standard speed, and the amount of change in PT per frame is 1.0. Further, in F2 of FIG. 8, the speed at which the ride 1110 is shaken is slow, and the amount of change of PT for each frame is 0.4. In F3 of FIG. 8, the speed at which the ride 1110 is swung is high, and the amount of change of PT for each frame is 1.3.
[0060]
In this embodiment, the interpolation start point reference motion data MS and the interpolation target point reference motion data MT to be subjected to the interpolation process are selected based on the integer part of the reproduction time variable PT. Further, the interpolation rate α is determined based on the decimal part of PT.
[0061]
More specifically, when the integer part of PT is PI, MR (PI) is selected as MS and MR (PI + 1) is selected as MT. When the decimal part of PT is PD, the interpolation rate α = PD. Therefore, the interpolation motion data MC obtained by the interpolation process is
Figure 0004233065
It becomes.
[0062]
For example, in F4 of FIG. 8, PT = 1.0, PI = 1, and PD = 0.0. Therefore, MS = MR1, MT = MR2, α = 0.0, and MC = MR1.
[0063]
In F5 of FIG. 8, PT = 0.4, PI = 0, and PD = 0.4. Therefore, MS = MR0, MT = MR1, α = 0.4, and MC = 0.6 × MR0 + 0.4 × MR1.
[0064]
In F6 of FIG. 8, PT = 1.3, PI = 1, and PD = 0.3. Therefore, MS = MR1, MT = MR2, α = 0.3, and MC = 0.7 × MR1 + 0.3 × MR2.
[0065]
Thus, by introducing the reproduction time variable PT, interpolation between MS and MT can be realized by simple processing.
[0066]
Now, in the present embodiment, the connection motion is reproduced from the first motion specified by the first reference motion data group to the second motion specified by the second reference motion data group (for example, horse The connection motion from the running motion to the jump motion and the connection motion from the jump motion of the horse to the fall motion) are realized as follows.
[0067]
For example, FIG. 9 shows an example of replaying a joint motion from a running motion of a horse to a jump motion. In FIG. 9, MR4 in the reference motion data groups MR0 to MR7 for horse running motion is selected as the interpolation start point reference motion data MS. The head MJ0 in the reference motion data group MJ0 to MJ7 for the horse jump motion is selected as the interpolation target point reference motion data MT. Then, a connection motion from the running motion to the jump motion is reproduced by the interpolation processing using the selected MS and MT. More specifically, by interpolating the reference vertex coordinate group included in the MS and the reference vertex coordinate group included in the MT, the interpolated vertex coordinate group for a given number of frames (three frames in FIG. 9) is sequentially obtained. As a result, the connected motion is played back.
[0068]
Also, FIG. 10 shows an example of playback of a joint motion from a horse jump motion to a fall motion. In FIG. 10, MJ3 in the reference motion data group MJ0 to MJ7 for horse jump motion is selected as the MS. Also, MF4 (the next reference motion data of MF3 corresponding to MJ3) in the reference motion data group MF0 to MF7 for the horse toppling motion is selected as MT. Then, by the interpolation process using the selected MS and MT, the connection motion from the jump motion to the fall motion is reproduced.
[0069]
As described above, in this embodiment, the MS selected from the first reference motion data group (MR0 to MR7 in FIG. 9 or MJ0 to MJ7 in FIG. 10) and the second reference motion data group (FIG. 9). MJ0 to MJ7 of FIG. 10 or MT selected from MF0 to MF7 of FIG. In this way, smooth and natural connection motion playback is realized by simple processing of selecting MS and MT from the first and second reference motion data groups as shown in FIGS. become able to.
[0070]
In the present embodiment, the interpolation start point reference motion data MS and the interpolation target point reference motion data MT are specifically selected by the method described below.
[0071]
For example, as shown in FIG. 11A, it is assumed that the player presses the jump button and a horse jump event occurs at the timing indicated by G1 during playback of the running motion (playback time variable PT = 3.3). In this case, MR3 which is the reference motion data set at the position closest to the position on the time axis indicated by PT is selected as the interpolation start point reference motion data MS. In addition, the first reference motion data MJ0 in the reference motion data group MJ0 to MJ7 for jump motion is selected as the interpolation target point reference motion data MT. Then, an interpolation process using MS = MR3 and MT = MJ0 is performed, and a connection motion from running to jump is reproduced.
[0072]
Further, as shown in FIG. 11B, it is assumed that a jump event occurs at the timing (PT = 3.7) indicated by G2 at the time of running motion reproduction. In this case, the MR4 closest to the position indicated by the PT is selected as the MS. Further, the top MJ0 among MJ0 to MJ7 is selected as MT. Then, interpolation processing using MS = MR4 and MT = MJ0 is performed, and a connection motion from running to jumping is reproduced.
[0073]
Further, as shown in FIG. 12A, it is assumed that a horse falls over an obstacle or the like at a timing (PT = 2.4) indicated by G3 at the time of jump motion playback and a horse falls. In this case, MJ2 closest to the position indicated by PT is selected as the MS. Also, among the reference motion data groups MF0 to MF7 for the fall motion, MF3 which is the next reference motion data on the time axis with respect to MF2 corresponding to MS = MJ2 is selected as MT. Then, interpolation processing using MS = MJ2 and MT = MF3 is performed, and a connection motion from jump to fall is reproduced.
[0074]
Further, as shown in FIG. 12B, it is assumed that a horse fall event occurs at the timing (PT = 2.6) indicated by G4 during jump motion playback. In this case, MJ3 closest to the position indicated by PT is selected as the MS. Also, among MF0 to MF7, MF4 next to MF3 corresponding to MS = MJ3 is selected as MT. Then, interpolation processing using MS = MJ3 and MT = MF4 is performed, and a connection motion from jump to fall is reproduced.
[0075]
As described above, in the present embodiment, first, the reference motion data closest to the indicated position of the reproduction time variable PT is selected as the interpolation start point reference motion data MS. In this way, the motion appears to change smoothly and naturally from the running motion (or jump motion) to the connecting motion, and the realism of the image can be increased.
[0076]
In addition, since the selection of the MS can be realized simply by obtaining the integer part PI and the decimal part PD of the PT, for example, the calculation load is not heavy.
[0077]
For example, in FIG. 11A, since PT = 3.3 and PI = 3, MR (PI) = MR3 and MR (PI + 1) = MR4 are selection candidates. Since PD = 0.3 <0.5, it can be seen that MR3 is closer to the indicated position of PT, and MR3 is selected as the MS.
[0078]
In FIG. 11B, since PT = 3.7 and PI = 3, MR (PI) = MR3 and MR (PI + 1) = MR4 are selection candidates. Since PD = 0.7 ≧ 0.5, it can be seen that MR4 is closer to the indicated position of PT, and MR4 is selected as the MS.
[0079]
As described above, according to the present embodiment, a real and natural motion change to the joint motion can be realized by a simple process of selecting the MS by examining the integer part PI and the decimal part PD of the playback time variable PT. Become.
[0080]
Further, in this embodiment, at the time of replaying a joint motion from running to jump as shown in FIGS. 11A and 11B, MJ0 at the head of jump motions MJ0 to MJ7 is used as interpolation target point reference motion data MT. Selected. In this way, it is possible to effectively prevent the occurrence of an unnatural phenomenon such as a change in motion from a running state to a mid-jumping state (for example, the highest jumped state).
[0081]
On the other hand, in this embodiment, at the time of replaying a jump-to-fall motion as shown in FIGS. 12A and 12B, the reference motion data corresponding to the MS is included in the reference motion data group of the fall motion. The reference motion data is selected as MT. For example, in FIG. 12A, MF3 next to MF2 corresponding to MS = MJ2 is selected as MT, and in FIG. 12B, MF4 next to MF3 corresponding to MS = MJ3 is selected as MT.
[0082]
A horse fall event occurs when a horse trips over an obstacle during a jump. The occurrence time of the fall event changes depending on the operation information input by the player, the running situation of the horse, the arrangement of obstacles, the course situation, and the like. Therefore, it is impossible to predict at what point in the jump motion playback period the fall event will occur. Therefore, it is necessary to reproduce the connection motion so that the jump motion and the fall motion can be smoothly connected regardless of the fall event occurring at any point in the jump motion reproduction period.
[0083]
In this embodiment, as shown in FIGS. 12A and 12B, MF3 and MF4, which are the next reference motion data of the reference motion data corresponding to the MS, are selected as MT. Therefore, according to the present embodiment, the jump motion and the fall motion are smoothly connected at any point in the jump motion playback period, so that a more realistic and more natural connection motion can be reproduced. This can be realized with a small computational burden.
[0084]
In the continuous motion playback processing as shown in FIGS. 12A and 12B, the number of reference motion data groups MJ0 to MJ7 to be connected and the number of reference motion data groups MF0 to MF7 to be connected are calculated. It is desirable to keep them the same.
[0085]
3. Processing of this embodiment
Next, a detailed processing example of this embodiment will be described with reference to the flowcharts of FIGS. 13, 14, and 15.
[0086]
FIG. 13 is a flowchart showing the overall flow of processing.
[0087]
First, a running motion reproduction process is performed (step S1). Then, it is determined whether or not the jump button has been pressed by the player (step S2). If not, the running motion reproduction process is repeated. On the other hand, when the jump button is pressed by the player, the process of reproducing the connection motion from running to jumping is started (step S3). When the playback of the connection motion is finished, the jump motion playback process is started (step S4).
[0088]
Next, it is determined whether or not a fall event has occurred (whether the horse has stumbled on an obstacle) (step S5), and if it has occurred, a jump-to-fall connection motion reproduction process is started (step S6). ). When the playback of the connection motion is completed, the fall motion playback processing is started (step S7).
[0089]
FIG. 14 is a flowchart for explaining details of the traveling motion reproduction process (repetitive motion reproduction process) in step S1 of FIG.
[0090]
First, MR (PI) is selected from MR0 to MR7 of the running motion, and the selected MR (PI) is set to the MS that is the interpolation start point (step U1). Here, PI is an integer part of the reproduction time variable PT. For example, in F5 of FIG. 8, since PI = 0, MS = MR0, and in F6, PI = 1, MS = MR1.
[0091]
Next, MR (PI + 1) is selected from MR0 to MR7, and the selected MR (PI + 1) is set to MT as an interpolation target point (step U2). For example, in F5 of FIG. 8, PI = 0, so MT = MR1, and in F6, PI = 1, MT = MR2.
[0092]
Next, the interpolation rate α is set to α = PD (step U3). For example, in F5 of FIG. 8, since PD = 0.4, α = 0.4, and in F6, PD = 0.3, so α = 0.3.
[0093]
Next, as described with reference to FIG. 7, MC = (1−α) × MS + α × MT, which is an interpolation motion, is obtained by linearly interpolating the MS reference vertex coordinate group and the MT reference vertex coordinate group at the interpolation rate α. Obtained (step U4).
[0094]
Next, it is determined whether or not the reproduction time variable PT has exceeded the reproduction end time PTEND (step U5). If it has exceeded, PT is reset to 0 (step U6). By resetting PT to 0 in this way, motion playback using MR0 to MR7 is repeated.
[0095]
FIG. 15 is a flowchart for explaining details of the connection motion playback process (new start type motion playback process) from the travel to the jump in step S3 of FIG.
[0096]
First, it is determined whether PD, which is a decimal part of the reproduction time variable PT, is smaller than 0.5 (step V1). If it is smaller, MR (PI) is selected from MR0 to MR7 of the running motion, and MS = MR (PI) is set (step V2). For example, in G1 of FIG. 11A, since PI = 3, MS = MR3.
[0097]
On the other hand, when PD is 0.5 or more, MR (PI + 1) is selected from MR0 to MR7, and MS = MR (PI + 1) is set (step V3). For example, in G2 of FIG. 11B, since PI = 3, MS = MR4.
[0098]
Next, the top MJ0 is selected from the jump motions MJ0 to MJ7, and MT = MJ0 is set (step V4). For example, in FIGS. 11A and 11B, both MT = MJ0.
[0099]
Next, the interpolation rate α is set to a given value, for example, α = 0.25 (step V5). Then, MC = (1−α) × MS + α × MT is obtained by linearly interpolating the reference vertex coordinate groups of MS and MT at the interpolation rate α (step V6). Then, it is determined whether or not the connection motion reproduction process has ended (step V7). If not, the process returns to step V5, and α is reset to 0.5, for example, to perform the interpolation process.
[0100]
FIG. 16 is a flowchart for explaining the details of the connection motion playback process (continuous motion playback process) from jump to fall in step S6 of FIG.
[0101]
First, it is determined whether or not the decimal part PD of PT is smaller than 0.5 (step W1). If it is smaller, MJ (PI) is selected from jump motions MJ0 to MJ7, and MS = MJ (PI) is set (step W2). For example, in G3 of FIG. 12A, since PI = 2, MS = MJ2.
[0102]
Next, MF (PI + 1) is selected from the falling motions MF0 to MF7, and MT = MF (PI + 1) is set (step W3). For example, in FIG. 12A, since PI = 2, MT = MF3.
[0103]
On the other hand, when PD is 0.5 or more, MJ (PI + 1) is selected from MJ0 to MJ7, and MS = MJ (PI + 1) is set (step W4). For example, in G4 in FIG. 12B, since PI = 2, MS = MJ3.
[0104]
Next, MF (PI + 2) is selected from MF0 to MF7, and MT = MF (PI + 2) is set (step W5). For example, since PI = 2 in FIG. 12B, MT = MF4.
[0105]
Next, the interpolation rate α is set to a given value, for example, α = 0.25 (step W6). Then, the reference vertex coordinate group of MS and MT is linearly interpolated at the interpolation rate α to obtain MC = (1−α) × MS + α × MT (step W7). Then, it is determined whether or not the connection motion reproduction process has been completed (step W8). If not, the process returns to step W6, and α is reset to 0.5, for example, to perform the interpolation process.
[0106]
4). Hardware configuration
Next, an example of a hardware configuration capable of realizing the present embodiment will be described with reference to FIG. In the apparatus shown in the figure, a CPU 1000, a ROM 1002, a RAM 1004, an information storage medium 1006, a sound generation IC 1008, an image generation IC 1010, and I / O ports 1012, 1014 are connected to each other via a system bus 1016 so that data can be transmitted and received. A display 1018 is connected to the image generation IC 1010, a speaker 1020 is connected to the sound generation IC 1008, a control device 1022 is connected to the I / O port 1012, and a communication device 1024 is connected to the I / O port 1014. Has been.
[0107]
The information storage medium 1006 mainly stores programs, image data for expressing display objects, sound data, and the like. For example, a consumer game device uses a CD-ROM, game cassette, DVD, or the like as an information storage medium for storing a game program or the like. The arcade game machine uses a memory such as a ROM. In this case, the information storage medium 1006 is a ROM 1002.
[0108]
The control device 1022 corresponds to a game controller, an operation panel, and the like, and is a device for inputting a result of a determination made by the player in accordance with the progress of the game to the device main body.
[0109]
In accordance with a program stored in the information storage medium 1006, a system program stored in the ROM 1002 (such as device initialization information), a signal input by the control device 1022, the CPU 1000 controls the entire device and performs various data processing. . The RAM 1004 is a storage means used as a work area of the CPU 1000 and stores the given contents of the information storage medium 1006 and the ROM 1002 or the calculation result of the CPU 1000. A data structure having a logical configuration for realizing the present embodiment is constructed on the RAM or the information storage medium.
[0110]
Further, this type of apparatus is provided with a sound generation IC 1008 and an image generation IC 1010 so that game sounds and game images can be suitably output. The sound generation IC 1008 is an integrated circuit that generates game sounds such as sound effects and background music based on information stored in the information storage medium 1006 and the ROM 1002, and the generated game sounds are output by the speaker 1020. The image generation IC 1010 is an integrated circuit that generates pixel information to be output to the display 1018 based on image information sent from the RAM 1004, the ROM 1002, the information storage medium 1006, and the like. As the display 1018, a so-called head mounted display (HMD) can be used.
[0111]
The communication device 1024 exchanges various types of information used inside the game device with the outside. The communication device 1024 is connected to other game devices to send and receive given information according to the game program, and to connect a communication line. It is used for sending and receiving information such as game programs.
[0112]
1 to 16, the information storage medium 1006 storing information such as programs and data, the CPU 1000 operating based on the information from the information storage medium 1006, the image generation IC 1010, or the sound generation This is realized by the IC 1008 or the like. The processing performed by the image generation IC 1010, the sound generation IC 1008, and the like may be performed by software using the CPU 1000 or a general-purpose DSP.
[0113]
FIG. 3 described above is an example in which the present embodiment is applied to an arcade game device. In this case, a CPU, an image generation IC, a sound generation IC, and the like are mounted on a system board (circuit board) 1106 built in the apparatus. Information for executing (implementing) the processing (means of the present invention) of this embodiment is stored in a semiconductor memory 1108 that is an information storage medium on the system board 1106. Hereinafter, this information is referred to as storage information.
[0114]
FIG. 18A shows an example in which the present embodiment is applied to a home game device. The player enjoys the game by operating the game controllers 1202 and 1204 while viewing the game image displayed on the display 1200. In this case, the stored information is stored in a CD-ROM 1206, memory cards 1208, 1209, etc., which are information storage media detachable from the main unit.
[0115]
FIG. 18B shows a host device 1300 and terminals 1304-1 to 1304- connected to the host device 1300 via a communication line (small network such as a LAN or wide area network such as the Internet) 1302. An example in which the present embodiment is applied to a system including n will be shown. In this case, the stored information is stored in an information storage medium 1306 such as a magnetic disk device, a magnetic tape device, or a semiconductor memory that can be controlled by the host device 1300, for example. When the terminals 1304-1 to 1304-n have a CPU, an image generation IC, and a sound processing IC and can generate game images and game sounds stand-alone, the host device 1300 receives game images and games. A game program or the like for generating sound is delivered to the terminals 1304-1 to 1304-n. On the other hand, if it cannot be generated stand-alone, the host device 1300 generates a game image and a game sound, which is transmitted to the terminals 1304-1 to 1304-n and output at the terminal.
[0116]
In the case of the configuration shown in FIG. 18B, the processing of the present invention may be distributed and processed between the host device and the terminal (when a server is provided, the host device, the server, and the terminal). Good. The storage information for realizing the present invention is distributed to the information storage medium of the host device and the information storage medium of the terminal (or the information storage medium of the host device, the information storage medium of the server, and the information storage medium of the terminal). May be stored.
[0117]
The terminal connected to the communication line may be a home game device or an arcade game device. When the arcade game device is connected to a communication line, portable information storage that can exchange information with the arcade game device and also exchange information with the home game device. It is desirable to use a device (memory card, portable game device).
[0118]
The present invention is not limited to that described in the above embodiment, and various modifications can be made.
[0119]
For example, in the invention according to the dependent claims of the present invention, a part of the constituent features of the dependent claims can be omitted.
[0120]
The method described in this embodiment is particularly preferable as a method for selecting the interpolation start point reference motion data and the interpolation target point reference motion data, but is not limited thereto.
[0121]
Further, the display object represented by the model object can be considered not only horses but also various things such as humans and robots.
[0122]
The present invention can be applied to various games (such as fighting games, competitive games, robot battle games, sports games, role-playing games, etc.) in addition to horse racing games.
[0123]
Further, the present invention is applied to various game devices such as a business game device, a home game device, a large attraction device in which a large number of players participate, a simulator, a multimedia terminal, an image generation device, and a system board for generating a game image. it can.
[Brief description of the drawings]
FIGS. 1A and 1B are diagrams for explaining problems of a conventional example using a skeleton model.
FIGS. 2A, 2B, and 2C are also diagrams for explaining problems of a conventional example using a skeleton model. FIG.
FIG. 3 is a diagram illustrating a configuration example when the present embodiment is applied to an arcade game device.
FIG. 4 is a diagram illustrating an example of a game image generated according to the present embodiment.
FIG. 5 is an example of a block diagram of the present embodiment.
FIG. 6 is a diagram for describing a reference motion data group.
FIG. 7 is a diagram for explaining interpolation processing of a reference vertex coordinate group.
FIG. 8 is a diagram for explaining a reproduction time variable.
FIG. 9 is a diagram for explaining a connection motion reproduction process from running to jumping.
FIG. 10 is a diagram for explaining a process for reproducing a joint motion from a jump to a fall.
FIGS. 11A and 11B are diagrams for explaining a selection method of MS and MT at the time of replaying a connection motion from running to jumping.
FIGS. 12A and 12B are views for explaining a selection method of MS and MT at the time of replaying a connection motion from jump to fall.
FIG. 13 is an example of a flowchart showing a detailed processing example of the present embodiment.
FIG. 14 is an example of a flowchart showing a detailed processing example of the present embodiment.
FIG. 15 is an example of a flowchart showing a detailed processing example of the present embodiment.
FIG. 16 is an example of a flowchart showing a detailed processing example of the present embodiment.
FIG. 17 is a diagram illustrating an example of a hardware configuration capable of realizing the present embodiment.
18A and 18B are diagrams showing examples of various types of apparatuses to which the present embodiment is applied.
[Explanation of symbols]
10, 12, 14 horses
100 processor
110 Game calculation part
112 Mobile object calculation unit
114 Viewpoint control unit
116 Motion playback unit
118 Connected motion playback unit
130 Operation unit
140 Storage unit
142 Motion data storage
150 Information storage medium
160 Image generator
162 Display section
170 Sound generator
172 sound output unit
174 Communication Department
176 I / F section
180 memory card

Claims (8)

画像を生成するためのゲーム装置であって、
スケルトンモデルを用いることなく頂点座標群によりその全体形状が特定されるモデルオブジェクトのモーションを再生するための複数の基準モーションデータ群を記憶するモーションデータ記憶手段と、
前記基準モーションデータ群に基づいて、モデルオブジェクトのモーションを再生するモーション再生手段と、
モデルオブジェクトの画像を生成する画像生成手段とを含み、
前記モーションデータ記憶手段が、
モデルオブジェクトの各基準全体形状を特定する各基準頂点座標群を、前記基準モーションデータ群の中の各基準モーションデータとして記憶し、
前記モーション再生手段が、
第1の基準モーションデータ群により特定される第1のモーションの再生中にプレーヤによって所定の操作入力が行われたか否かを判断し、前記操作入力が行われたと判断した場合に、前記操作入力のタイミングに基づき前記第1の基準モーションデータ群の中から補間開始点の基準モーションデータを選択し、第2の基準モーションデータ群の中から補間目標点の基準モーションデータを選択し、前記補間開始点基準モーションデータに含まれる基準頂点座標群と前記補間目標点基準モーションデータに含まれる基準頂点座標群とに基づき補間処理を行うことで補間頂点座標群を求め、
前記画像生成手段が、
前記補間頂点座標群により全体形状が特定されるモデルオブジェクトの画像を生成することを特徴とするゲーム装置。
A game device for generating an image,
Motion data storage means for storing a plurality of reference motion data groups for reproducing the motion of a model object whose overall shape is specified by vertex coordinates without using a skeleton model;
Motion reproducing means for reproducing the motion of the model object based on the reference motion data group;
Image generating means for generating an image of the model object,
The motion data storage means is
Each reference vertex coordinate group that specifies each reference overall shape of the model object is stored as each reference motion data in the reference motion data group,
The motion playback means is
It is determined whether or not a predetermined operation input is performed by the player during the reproduction of the first motion specified by the first reference motion data group, and when it is determined that the operation input is performed, the operation input of selecting the reference motion data of the interpolation start point from among the first reference motion data groups based on the timing, selects the reference motion data of the interpolation target point from the second reference motion data group, the interpolation An interpolation vertex coordinate group is obtained by performing an interpolation process based on the reference vertex coordinate group included in the start point reference motion data and the reference vertex coordinate group included in the interpolation target point reference motion data,
The image generating means
An image of a model object whose overall shape is specified by the interpolation vertex coordinate group is generated.
請求項において、
前記モーション再生手段が、
前記第1の基準モーションデータ群のうち、モーション再生の再生時間変数が指示する時間軸上の位置に最も近い位置に設定された基準モーションデータ、前記補間開始点基準モーションデータとして選択することを特徴とするゲーム装置。
In claim 1 ,
The motion playback means is
Among the first reference motion data group that the playback time variable motion playback reference motion data set in the position closest to the position on the time axis to direct, is selected as the interpolation start point reference motion data A game device.
請求項又はにおいて、
前記モーション再生手段が、
前記第2の基準モーションデータ群の中の先頭の基準モーションデータ、前記補間目標点基準モーションデータとして選択することを特徴とするゲーム装置。
In claim 1 or 2 ,
The motion playback means is
Game apparatus characterized by the head of the reference motion data in said second reference motion data group is selected as the interpolation target point reference motion data.
請求項1又は2において、
前記モーション再生手段が、
前記第2の基準モーションデータ群のうち、前記補間開始点基準モーションデータに対応する基準モーションデータを第Kの基準モーションデータとした場合に、前記第Kの基準モーションデータに対して時間軸上で次の基準モーションデータである第K+1の基準モーションデータ、前記補間目標点基準モーションデータとして選択することを特徴とするゲーム装置。
In claim 1 or 2 ,
The motion playback means is
When the reference motion data corresponding to the interpolation start point reference motion data in the second reference motion data group is set as the Kth reference motion data, the Kth reference motion data on the time axis the (K + 1) th reference motion data is a next reference motion data, the game apparatus characterized by selecting as the interpolation target point reference motion data.
コンピュータに画像生成を行わせるためのプログラムを記憶した情報記憶媒体であって、
前記プログラムは、
スケルトンモデルを用いることなく頂点座標群によりその全体形状が特定されるモデルオブジェクトのモーションを再生するための複数の基準モーションデータ群を記憶するモーションデータ記憶手段と、
前記基準モーションデータ群に基づいて、モデルオブジェクトのモーションを再生するモーション再生手段と、
モデルオブジェクトの画像を生成する画像生成手段と、
としてコンピュータを機能させ、
前記モーションデータ記憶手段が、
モデルオブジェクトの各基準全体形状を特定する各基準頂点座標群を、前記基準モーションデータ群の中の各基準モーションデータとして記憶し、
前記モーション再生手段が、
第1の基準モーションデータ群により特定される第1のモーションの再生中にプレーヤによって所定の操作入力が行われたか否かを判断し、前記操作入力が行われたと判断した場合に、前記操作入力のタイミングに基づき前記第1の基準モーションデータ群の中から補間開始点の基準モーションデータを選択し、第2の基準モーションデータ群の中から補間目標点の基準モーションデータを選択し、前記補間開始点基準モーションデータに含まれる基準頂点座標群と前記補間目標点基準モーションデータに含まれる基準頂点座標群とに基づき補間処理を行うことで補間頂点座標群を求め、
前記画像生成手段が、
前記補間頂点座標群により全体形状が特定されるモデルオブジェクトの画像を生成することを特徴とする情報記憶媒体。
An information storage medium storing a program for causing a computer to generate an image,
The program is
Motion data storage means for storing a plurality of reference motion data groups for reproducing the motion of a model object whose overall shape is specified by vertex coordinates without using a skeleton model;
Motion reproducing means for reproducing the motion of the model object based on the reference motion data group;
Image generation means for generating an image of the model object;
Function as a computer
The motion data storage means is
Each reference vertex coordinate group that specifies each reference overall shape of the model object is stored as each reference motion data in the reference motion data group,
The motion playback means is
It is determined whether or not a predetermined operation input is performed by the player during the reproduction of the first motion specified by the first reference motion data group, and when it is determined that the operation input is performed, the operation input of selecting the reference motion data of the interpolation start point from among the first reference motion data groups based on the timing, selects the reference motion data of the interpolation target point from the second reference motion data group, the interpolation An interpolation vertex coordinate group is obtained by performing an interpolation process based on the reference vertex coordinate group included in the start point reference motion data and the reference vertex coordinate group included in the interpolation target point reference motion data,
The image generating means
An information storage medium for generating an image of a model object whose overall shape is specified by the interpolation vertex coordinate group.
請求項において、
前記モーション再生手段が、
前記第1の基準モーションデータ群のうち、モーション再生の再生時間変数が指示する時間軸上の位置に最も近い位置に設定された基準モーションデータ、前記補間開始点基準モーションデータとして選択することを特徴とする情報記憶媒体。
In claim 5 ,
The motion playback means is
Among the first reference motion data group that the playback time variable motion playback reference motion data set in the position closest to the position on the time axis to direct, is selected as the interpolation start point reference motion data A characteristic information storage medium.
請求項又はにおいて、
前記モーション再生手段が、
前記第2の基準モーションデータ群の中の先頭の基準モーションデータ、前記補間目標点基準モーションデータとして選択することを特徴とする情報記憶媒体。
In claim 5 or 6 ,
The motion playback means is
Information storage medium characterized by the head of the reference motion data in said second reference motion data group is selected as the interpolation target point reference motion data.
請求項5又は6において、
前記モーション再生手段が、
前記第2の基準モーションデータ群のうち、前記補間開始点基準モーションデータに対応する基準モーションデータを第Kの基準モーションデータとした場合に、前記第Kの基準モーションデータに対して時間軸上で次の基準モーションデータである第K+1の基準モーションデータ、前記補間目標点基準モーションデータとして選択することを特徴とする情報記憶媒体。
In claim 5 or 6 ,
The motion playback means is
When the reference motion data corresponding to the interpolation start point reference motion data in the second reference motion data group is set as the Kth reference motion data, the Kth reference motion data on the time axis following criteria motion the (K + 1) th reference motion data is data, information storage medium and selects as the interpolation target point reference motion data.
JP03719499A 1999-02-16 1999-02-16 GAME DEVICE AND INFORMATION STORAGE MEDIUM Expired - Fee Related JP4233065B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP03719499A JP4233065B2 (en) 1999-02-16 1999-02-16 GAME DEVICE AND INFORMATION STORAGE MEDIUM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP03719499A JP4233065B2 (en) 1999-02-16 1999-02-16 GAME DEVICE AND INFORMATION STORAGE MEDIUM

Publications (3)

Publication Number Publication Date
JP2000235655A JP2000235655A (en) 2000-08-29
JP2000235655A5 JP2000235655A5 (en) 2006-04-27
JP4233065B2 true JP4233065B2 (en) 2009-03-04

Family

ID=12490777

Family Applications (1)

Application Number Title Priority Date Filing Date
JP03719499A Expired - Fee Related JP4233065B2 (en) 1999-02-16 1999-02-16 GAME DEVICE AND INFORMATION STORAGE MEDIUM

Country Status (1)

Country Link
JP (1) JP4233065B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7358973B2 (en) 2003-06-30 2008-04-15 Microsoft Corporation Mixture model for motion lines in a virtual reality environment
US8456475B2 (en) 2003-06-30 2013-06-04 Microsoft Corporation Motion line switching in a virtual environment
EP1727605B1 (en) * 2004-03-12 2007-09-26 Koninklijke Philips Electronics N.V. Electronic device and method of enabling to animate an object
CN108635853B (en) 2018-03-23 2019-06-21 腾讯科技(深圳)有限公司 The control method and device of object, storage medium, electronic device

Also Published As

Publication number Publication date
JP2000235655A (en) 2000-08-29

Similar Documents

Publication Publication Date Title
JP4704622B2 (en) Image generation system, program, and information storage medium
US6203425B1 (en) Image generating device, method thereof, game device and storage medium
JP3990252B2 (en) GAME SYSTEM, PROGRAM, AND INFORMATION STORAGE MEDIUM
JP4187182B2 (en) Image generation system, program, and information storage medium
JP4775989B2 (en) Image generation system, program, and information storage medium
JP3707995B2 (en) GAME SYSTEM AND INFORMATION STORAGE MEDIUM
JPH11175748A (en) Image generating device and information storage medium
JP3990258B2 (en) Image generation system, program, and information storage medium
JP2007105499A (en) Game system, program and information storage medium
JP4233065B2 (en) GAME DEVICE AND INFORMATION STORAGE MEDIUM
JP4447000B2 (en) Image generation system, program, and information storage medium
JP3844396B2 (en) GAME DEVICE AND INFORMATION STORAGE MEDIUM
JP4367804B2 (en) Image generation system and information storage medium
US6972766B2 (en) Recording medium storing dynamic picture image generation program, dynamic picture image generation program, dynamic picture image generation method, and device for the same
JP4223139B2 (en) Image generating apparatus and information storage medium
JP4212015B2 (en) Image generating apparatus and information storage medium
JP4656622B2 (en) Image generation system, program, and information storage medium
JP2001273525A (en) Entertainment device, storage medium, and object display method
JP4544555B2 (en) GAME SYSTEM AND INFORMATION STORAGE MEDIUM
JP4497690B2 (en) GAME SYSTEM AND INFORMATION STORAGE MEDIUM
JP4036509B2 (en) Image generating apparatus and information storage medium
JP4641602B2 (en) GAME SYSTEM AND INFORMATION STORAGE MEDIUM
JP4391633B2 (en) Image generation system and information storage medium
JP4624527B2 (en) GAME SYSTEM AND INFORMATION STORAGE MEDIUM
JP6444950B2 (en) Game program and game system

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060203

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060203

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080908

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080917

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081110

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20081203

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20081208

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111219

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4233065

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111219

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111219

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121219

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121219

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131219

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees