JP4001435B2 - Game device, image data creation tool, and information storage medium - Google Patents

Game device, image data creation tool, and information storage medium Download PDF

Info

Publication number
JP4001435B2
JP4001435B2 JP11111999A JP11111999A JP4001435B2 JP 4001435 B2 JP4001435 B2 JP 4001435B2 JP 11111999 A JP11111999 A JP 11111999A JP 11111999 A JP11111999 A JP 11111999A JP 4001435 B2 JP4001435 B2 JP 4001435B2
Authority
JP
Japan
Prior art keywords
data
change area
shading
calculation
shading calculation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP11111999A
Other languages
Japanese (ja)
Other versions
JP2000300842A (en
JP2000300842A5 (en
Inventor
聡 大内
義臣 久▲禮▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Namco Ltd
Bandai Namco Entertainment Inc
Original Assignee
Namco Ltd
Namco Bandai Games Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Ltd, Namco Bandai Games Inc filed Critical Namco Ltd
Priority to JP11111999A priority Critical patent/JP4001435B2/en
Publication of JP2000300842A publication Critical patent/JP2000300842A/en
Publication of JP2000300842A5 publication Critical patent/JP2000300842A5/ja
Application granted granted Critical
Publication of JP4001435B2 publication Critical patent/JP4001435B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6646Methods for processing data by generating or executing the game program for rendering three dimensional images for the computation and display of the shadow of an object or character

Description

【0001】
【発明の属する技術分野】
本発明は、ゲーム装置、画像データ作成ツール及び情報記憶媒体に関する。
【0002】
【背景技術及び発明が解決しようとする課題】
従来より、仮想的な3次元空間であるオブジェクト空間内に複数のオブジェクトを配置し、オブジェクト空間内の所与の視点から見える画像を生成するゲーム装置が知られており、いわゆる仮想現実を体験できるものとして人気が高い。バイクゲームを楽しむことができるゲーム装置を例にとれば、プレーヤは、自身が運転するバイク(移動体)をオブジェクト空間内で走行させ、他のプレーヤ又はコンピュータが運転するバイク(移動体)と競争することでゲームを楽しむ。
【0003】
さて、このようなゲーム装置では、プレーヤの仮想現実感の向上のために、よりリアルな画像を生成することが重要な技術的課題になっている。従って、バイクなどの移動体の照射面の表示(シェーディング)についても、よりリアルであることが望まれる。
【0004】
このような照射面の表示方法に関する技術として、特開平7−155464に開示される従来技術がある。この従来技術では、まず、特定の事象(例えばトンネルの窓から太陽光が差し込む)が起きたか否かを3次元立体データに基づいて判断する。そして、特定の事象が起きた場合には、特定の事象での光源の位置情報と3次元立体データに基づいて、光源パラメータ(光源ベクトル)を求める。そして、求められた光源パラメータと上記3次元立体データとに基づいて、移動体の照射面の照度を求める。
【0005】
しかしながら、この従来技術では、特定の事象が起きたか否かを3次元立体データに基づいて判断しなければならない。また、光源パラメータも、光源の位置情報と3次元立体データとに基づいて求めなければならない。このため、ゲーム装置の処理負担が重くなり、この種のゲーム装置に要求される処理のリアルタイム性の満足することができなくなるという問題がある。
【0006】
本発明は、以上のような課題を解決するためになされたものであり、その目的とするところは、少ない処理負担で移動体のリアルな陰影づけを実現できるゲーム装置、画像データ作成ツール、及び情報記憶媒体を提供することにある。
【0007】
【課題を解決するための手段】
上記課題を解決するために、本発明は、画像を生成するためのゲーム装置であって、オブジェクト空間内で移動体を移動させるための演算を行う手段と、任意の形状に設定可能な2次元のシェーディング演算変更領域をオブジェクト空間内のマップに設定しておき、前記移動体が位置するシェーディング演算変更領域に応じて、前記移動体に施すシェーディング演算を変更するための手段と、オブジェクト空間内の所与の視点での画像を生成するための手段とを含むことを特徴とする。また本発明に係る情報記憶媒体は、上記手段を実現(実行)するための情報を含むことを特徴とする。
【0008】
本発明によれば、任意の形状に設定可能な2次元のシェーディング演算変更領域がマップに設定される。そして、移動体が位置するシェーディング演算変更領域に応じて(シェーディング演算変更領域に移動体が位置するか否かに応じて)、移動体に施すシェーディング演算が変更される。即ち、例えば、移動体がシェーディング演算変更領域に位置すると、移動体の陰影づけが暗くなるというようなシェーディング演算が行われるようになる。
【0009】
本発明によれば、2次元のシェーディング演算変更領域を利用するため、3次元立体データを利用する従来技術に比べて、処理負担を大幅に軽減できる。
【0010】
そして本発明によれば、シェーディング演算変更領域の形状を任意に設定できるため、例えばマップに配置される3次元オブジェクトの形状や、光源ベクトルの方向等を反映した、リアルな陰影づけを実現できるようになる。
【0011】
なお、本発明では、シェーディング演算変更領域を1又は複数のプリミティブ面で構成してもよい。また、シェーディング演算変更領域に移動体が位置するか否かは、例えば移動体の代表点がシェーディング演算領域に位置するか否かなどに基づいて判断できる。
【0012】
また本発明に係るゲーム装置及び情報記憶媒体は、オブジェクト空間内のコース上に設定されたコースブロックの中から前記移動体が位置するコースブロックが検索され、検索されたコースブロックに関連づけて登録されたシェーディング演算変更領域が検索されることを特徴とする。このようにすることで、移動体が位置するシェーディング演算変更領域を特定する処理を、高速化、効率化できるようになる。なお、シェーディング演算変更領域を構成するプリミティブ面を、コースブロックに登録する場合も本発明の範囲内に含まれる。
【0013】
また本発明に係るゲーム装置及び情報記憶媒体は、前記シェーディング演算変更領域に設定されるシェーディング演算パラメータに基づいて、前記移動体のシェーディング演算に使用されるシェーディング演算パラメータが求められ、求められたシェーディング演算パラメータに基づいて前記移動体に対するシェーディング演算が行われることを特徴とする。このようにすることで、移動体に施すシェーディング演算の多様性を増すことができ、移動体の陰影づけを更にリアルなものにすることができるようになる。
【0014】
また本発明に係るゲーム装置及び情報記憶媒体は、前記移動体のシェーディング演算に使用されるシェーディング演算パラメータが、前記シェーディング演算変更領域に設定されるシェーディング演算パラメータと前記シェーディング演算変更領域内での前記移動体のローカル座標とに基づいて求められることを特徴とする。このようにすることで、移動体に施される陰影づけを、シェーディング演算変更領域の各場所において様々に変化させることができるようになり、画像のリアル度を更に増すことができる。
【0015】
また本発明に係るゲーム装置及び情報記憶媒体は、前記シェーディング演算変更領域に設定されるシェーディング演算パラメータが、輝度、光源ベクトル、光源の位置、光源の種類、光源の強さ及び環境光のパラメータの少なくとも1つを含むことを特徴とする。このように、様々なシェーディング演算パラメータをシェーディング演算変更領域に設定することで、よりリアルで多様なシェーディング演算を実現できるようになる。
【0016】
また本発明に係るゲーム装置及び情報記憶媒体は、前記シェーディング演算変更領域が、オブジェクト空間内の3次元オブジェクトの陰となるべき領域に設定されていることを特徴とする。このようにすることで、移動体が3次元オブジェクトの影となる領域に進入した場合に、3次元オブジェクトの存在に起因して移動体の陰影づけが変化したように見えるようになり、プレーヤの感じる仮想現実感を向上できる。
【0017】
また本発明に係るゲーム装置及び情報記憶媒体は、前記シェーディング演算変更領域のデータが、マップデータに含まれるX、Z座標データに基づいて求められるX、Z座標データと、シェーディング演算パラメータとを含むことを特徴とする。このようにすれば、マップデータを利用してシェーディング演算変更領域のデータを効率的に作成できるようになり、開発期間の短縮化を図れるようになる。なお、シェーディング演算変更領域のデータに含ませるシェーディング演算パラメータは、マップデータに含まれるシェーディング演算パラメータを流用したり、マップデータに含まれるシェーディング演算パラメータに変換処理を施すことで、得ることが望ましい。このようにすれば、シェーディング演算変更領域のデータを更に効率的に作成できるようになる。
【0018】
また本発明に係るゲーム装置及び情報記憶媒体は、前記シェーディング演算変更領域のデータのY座標データの部分に、前記シェーディング演算パラメータが代入されていることを特徴とする。このようにすれば、シェーディング演算パラメータの値の大小を視覚的に確認できるようになり、シェーディング演算変更領域のデータの作成作業を効率化できる。
【0019】
また本発明は、画像データを作成するための画像データ作成ツールであって、マップデータを作成するための手段と、シェーディング演算変更領域のデータを作成するための手段と、作成されたマップデータに含まれるX、Y、Z座標データに基づいて、マップの確認画面を表示するための手段と、作成されたシェーディング演算変更領域のデータに含まれるX、Y、Z座標データに基づいて、シェーディング演算変更領域の確認画面を表示するための手段とを含み、前記シェーディング演算変更領域のデータのY座標データの部分に、シェーディング演算パラメータが代入されると共に、シェーディング演算変更領域のデータのX、Z座標データと前記シェーディング演算パラメータとに基づいて、シェーディング演算変更領域の確認画面が3次元的に表示されることを特徴とする。また本発明に係る情報記憶媒体は、上記手段を実現(実行)するための情報を含むことを特徴とする。
【0020】
本発明によれば、シェーディング演算変更領域のデータのY座標データの部分に、シェーディング演算パラメータが代入される。従って、シェーディング演算パラメータの値の大小を、画像データ作成ツールの表示機能を用いて視覚的に確認できるようになり、シェーディング演算変更領域のデータの作成作業を大幅に効率化できる。
【0021】
【発明の実施の形態】
以下、本発明の好適な実施形態について図面を用いて説明する。なお以下では、本発明をバイクゲームに適用した場合を例にとり説明するが、本発明はこれに限定されず、種々のゲームに適用できる。
【0022】
1.構成
図1に、本実施形態を業務用ゲーム装置に適用した場合の例を示す。
【0023】
プレーヤ1092は、画面1050上に映し出されたゲーム画像を見ながら、ハンドル1070や、ハンドル1070に設けられたアクセルやブレーキを操作したり、本物のバイクを模して作った筺体(模擬バイク)1090をローリングさせる。そして、プレーヤ1092が、アクセルやブレーキを操作することで、画面1050に映し出される自バイク(移動体)1100が加速したり減速したりする。また、プレーヤ1092がハンドル1070を操舵したり筺体1090をローリングさせることで、キャラクタ(仮想プレーヤ)1102が乗る自バイク1100が左右にコーナリングしたり、ローリングするようになる。
【0024】
図2に、本実施形態のブロック図の一例を示す。なお同図において本実施形態のゲーム装置は、少なくとも処理部100と記憶部140を含めばよく(或いは処理部100と記憶部140と情報記憶媒体150を含めばよく)、それ以外のブロックについては、任意の構成要素とすることができる。
【0025】
ここで処理部100は、装置全体の制御、装置内の各ブロックへの命令の指示、ゲーム演算などの各種の処理を行うものであり、その機能は、CPU(CISC型、RISC型)、DSP、或いはASIC(ゲートアレイ等)などのハードウェアや、所与のプログラム(ゲームプログラム)により実現できる。
【0026】
操作部130は、プレーヤが操作情報を入力するためのものであり、その機能は、図1の筺体1090、ハンドル1070、図示しないアクセル、ブレーキ、操作ボタンなどのハードウェアにより実現できる。
【0027】
記憶部140は、処理部100、画像生成部160、音生成部170、通信部174、I/F部176などのワーク領域となるもので、その機能はRAMなどのハードウェアにより実現できる。
【0028】
情報記憶媒体(コンピュータにより情報の読み取りが可能な記憶媒体)150は、プログラムやデータなどの情報を格納するものであり、その機能は、光ディスク(CD、DVD)、光磁気ディスク(MO)、磁気ディスク、ハードディスク、磁気テープ、或いは半導体メモリ(ROM)などのハードウェアにより実現できる。処理部100は、この情報記憶媒体150に格納される情報に基づいて本発明(本実施形態)の種々の処理を行う。即ち情報記憶媒体150には、本発明(本実施形態)の手段(特に処理部100や記憶部140に含まれるブロック)を実現するための種々の情報が格納される。
【0029】
なお、情報記憶媒体150に格納される情報の一部又は全部は、装置への電源投入時等に記憶部140に転送されることになる。また情報記憶媒体150に記憶される情報は、本発明の処理を行うためのプログラムコード、画像情報、音情報、表示物の形状情報、テーブルデータ、リストデータ、プレーヤ情報や、本発明の処理を指示するための情報、その指示に従って処理を行うための情報等の少なくとも1つを含むものである。
【0030】
画像生成部160は、処理部100からの指示等にしたがって、各種の画像を生成し表示部162に出力するものであり、その機能は、画像生成用ASIC、CPU、或いはDSPなどのハードウェアや、所与のプログラム(画像生成プログラム)、画像情報により実現できる。
【0031】
音生成部170は、処理部100からの指示等にしたがって、各種の音を生成し音出力部172に出力するものであり、その機能は、音生成用ASIC、CPU、或いはDSPなどのハードウェアや、所与のプログラム(音生成プログラム)、音情報(波形データ等)により実現できる。
【0032】
通信部174は、外部装置(例えばホスト装置や他のゲーム装置)との間で通信を行うための各種の制御を行うものであり、その機能は、通信用ASIC、或いはCPUなどのハードウェアや、所与のプログラム(通信プログラム)により実現できる。
【0033】
なお本発明(本実施形態)の処理を実現するための情報は、ホスト装置が有する情報記憶媒体からネットワーク、通信部174を介してゲーム装置が有する情報記憶媒体に配信するようにしてもよい。このようなホスト装置の情報記憶媒体の使用やゲーム装置の情報記憶媒体の使用も本発明の範囲内に含まれる。
【0034】
また処理部100の機能の一部又は全部を、画像生成部160、音生成部170、又は通信部174の機能により実現するようにしてもよい。或いは、画像生成部160、音生成部170、又は通信部174の機能の一部又は全部を、処理部100の機能により実現するようにしてもよい。
【0035】
I/F部176は、処理部100からの指示等にしたがってメモリーカード(広義には、携帯型ミニゲーム装置などを含む携帯型情報記憶装置)180との間で情報交換を行うためのインターフェースとなるものであり、その機能は、メモリーカードを挿入するためのスロットや、データ書き込み・読み出し用コントローラICなどにより実現できる。なお、メモリーカード180との間の情報交換を赤外線などの無線を用いて実現する場合には、I/F部176の機能は、半導体レーザ、赤外線センサーなどのハードウェアにより実現できる。
【0036】
処理部100は、ゲーム演算部110を含む。
【0037】
ここでゲーム演算部110は、コイン(代価)の受け付け処理、ゲームモードの設定処理、ゲームの進行処理、選択画面の設定処理、移動体(バイク、キャラクタ等)の位置や方向を決める処理、視点位置や視線方向を決める処理、移動体のモーションを再生する処理、オブジェクト空間へオブジェクトを配置する処理、ヒットチェック処理、ゲーム成果(成績)を演算する処理、複数のプレーヤが共通のゲーム空間でプレイするための処理、或いはゲームオーバー処理などの種々のゲーム演算処理を、操作部130からの操作情報、メモリーカード180からの情報、ゲームプログラムなどに基づいて行う。なお、本発明をバイクゲーム以外のゲームに適用した場合には、移動体としては、バイク、キャラクタ以外にも、車、飛行機、船、水上スキー、サーフボード、戦車、ロボット、宇宙船、弾等、種々のものを考えることができる。
【0038】
ゲーム演算部110は、移動体演算部112、視点制御部114、シェーディング演算変更部116を含む。
【0039】
ここで移動体演算部112は、バイクなどの移動体の移動情報(位置情報、方向情報等)を演算するものであり、例えば操作部130から入力される操作情報や所与のプログラムに基づき、移動体をオブジェクト空間内で移動させる処理などを行う。即ち、プレーヤ(自プレーヤ、他プレーヤ)からの操作情報や、コンピュータからの命令(所与の移動制御アルゴリズム)に基づいて、移動体をオブジェクト空間内で移動させる処理などを行う。
【0040】
より具体的には、移動体演算部112は、移動体の位置や方向を例えば1フレーム(1/60秒)毎に求める処理を行う。例えば(k−1)フレームでの移動体の位置をPMk-1、速度をVMk-1、加速度をAMk-1、1フレームの時間を△tとする。するとkフレームでの移動体の位置PMk、速度VMkは例えば下式(1)、(2)のように求められる。
【0041】
PMk=PMk-1+VMk-1×△t (1)
VMk=VMk-1+AMk-1×△t (2)
視点制御部114は、移動体演算部112で得られた移動体の位置や方向の情報などに基づいて、視点位置や視線方向等を求める処理を行う。より具体的には、例えば、プレーヤの操作する移動体の位置又は方向に追従するように視点位置又は視線方向を変化させる処理を行う。この場合、移動体の位置又は方向に対して、例えば慣性を持ちながら視点位置又は視線方向を追従させることが望ましい。画像生成部160は、この視点制御部114により制御される視点において見える画像を生成することになる。
【0042】
なお、視点制御部114は、移動体の移動とは無関係に視点を制御することもできる。
【0043】
シェーディング演算変更部116は、移動体が位置するシェーディング演算変更領域(以下、適宜、単に演算変更領域と呼ぶ)に応じて、移動体に施すシェーディング演算を変更するための処理を行う。例えば移動体の2次元位置が演算変更領域内にない場合には、通常のシェーディング演算が移動体に施される。即ち、移動体の陰影づけが通常の陰影づけになる。一方、移動体の2次元位置が演算変更領域内にある場合には、移動体が位置する演算変更領域に応じたシェーディング演算が移動体に施される。即ち、移動体の陰影づけが通常よりも暗くなる。
【0044】
ここで、上記演算変更領域(影領域)は、オブジェクト空間内のマップ上に設定される2次元の領域であり、任意の形状に設定可能になっている。また、演算変更領域に関するデータ(演算変更領域の形状を特定するためのデータや、シェーディング演算パラメータ等)は、記憶部140内の演算変更領域データ記憶部144に記憶されている。なお、マップに関するデータ(マップの形状を特定するためのデータや、マップの画像データ等)は、マップデータ記憶部142に記憶されている。
【0045】
シェーディング演算変更部116は、コースブロック検索部118、移動体位置判断部120、パラメータ算出部122を含む。
【0046】
ここで、コースブロック検索部118は、オブジェクト空間内のコース上に設定された複数のコースブロックの中から、移動体が位置するコースブロックを検索するための処理を行う。なお、このコースブロックは、移動体の順位決定等のために用意されるものである。
【0047】
移動体位置判断部120は、演算変更領域に移動体が位置するか否かを判断する。より具体的には、まず移動体が位置するコースブロックが検索され、次に、検索されたコースブロックに関連づけて登録されている演算変更領域(狭義には演算変更領域を構成する影ポリゴン)が検索される。
【0048】
パラメータ算出部122は、移動体のシェーディング演算に使用されるシェーディング演算パラメータ(例えば輝度、光源ベクトル、光源の位置、光源の種類、光源の強さ、或いは環境光等のパラメータ)を求めるための処理を行う。より具体的には、演算変更領域データ記憶部144には、演算変更領域に対して設定されたシェーディング演算パラメータが、演算変更領域データとして記憶されている。そして、この記憶されているシェーディング演算パラメータと、例えば演算変更領域内での移動体のローカル座標とに基づいて、移動体のシェーディング演算に使用されるシェーディング演算パラメータが求められる。そして、求められたシェーディング演算パラメータに基づいて移動体に対するシェーディング演算が行われることになる。
【0049】
なお、本実施形態のゲーム装置は、1人のプレーヤがプレイするシングルプレーヤモードによるゲームプレイと、複数のプレーヤがプレイするマルチプレーヤモードによるゲームプレイの両方が可能になっている。
【0050】
また複数のプレーヤがプレイする場合に、これらの複数のプレーヤに提供するゲーム画像やゲーム音を、1つのゲーム装置を用いて生成してもよいし、ネットワーク(伝送ライン、通信回線)などで接続された複数のゲーム装置を用いて生成してもよい。
【0051】
2.本実施形態の特徴
図3に、本実施形態により生成されるゲーム画像の例を示す。
【0052】
本実施形態により実現されるバイクゲームでは、プレーヤは、図3に示すようなゲーム画像を見ながら、移動体(自バイク)20を運転してオブジェクト空間内で走行させる。そして他プレーヤやコンピュータが運転する移動体(他バイク)と競争してゲームを楽しむ。
【0053】
図3では、移動体20の前方にゲート(3次元オブジェクトの1つ)28が設けられており、このゲート28の影が画面上に表示されている。このようなゲート28の影の領域である演算変更領域30に移動体20が進入した場合に、本実施形態では、移動体20のシェーディング演算を変更するようにしている。即ち演算変更領域(影領域)30に移動体20が進入する前は明るかった移動体20の陰影づけが、演算変更領域30に移動体20が進入すると暗くなり、出るとまた明るくなる。このようにすることで、移動体20のよりリアルな陰影づけを実現できるようになり、プレーヤの仮想現実感を格段に向上できる。
【0054】
より具体的には、本実施形態では、図4(A)、(B)に示すように2次元の演算変更領域30がマップ上に設定される。この演算変更領域30は、演算変更領域30に対応する3次元オブジェクト(図3のゲート28)の形状等に応じて任意の形状に設定できるようになっている。そして、図4(A)に示すように移動体20が演算変更領域30に進入していない場合には、シェーディング演算の変更処理は行われず、図4(B)に示すように移動体20が演算変更領域30に進入すると、移動体に施されるシェーディング演算が変更される。
【0055】
図5に、3次元オブジェクトが木32である場合の演算変更領域(影領域)30の例を示す。図5では、演算変更領域30が、3次元オブジェクトである木32の影となるべき領域に設定されている。そして、図5では、光源ベクトルLCの方向がE1に示される方向になっていると想定されており、この想定に沿うように演算変更領域30の形状が設定されている。
【0056】
また図6に、3次元オブジェクトがトンネル34である場合の演算変更領域30の例を示す。図6では、演算変更領域30が、3次元オブジェクトであるトンネル34の影となるべき領域に設定されている。そして、図6では、光源ベクトルLCの方向がE2に示される方向になっていると想定されており、この想定に沿うように演算変更領域30の形状が設定されている。
【0057】
このように本実施形態によれば、2次元の演算変更領域30がマップ上に予め設定されている。そして、シェーディング演算が変更されるというような特定の事象が起きたか否かを、移動体20の2次元位置が2次元の演算変更領域30内にあるか否かに基づいて判断される。従って、特定の事象が起きたか否かを3次元立体データに基づいて判断する特開平7−155464の従来技術に比べて、処理負担を格段に軽減できる。
【0058】
しかも、本実施形態の演算変更領域(シェーディング演算変更領域)30は、図5、図6に示すように任意の形状に設定可能になっているため、少ない処理負担でリアルな陰影づけを実現できる。
【0059】
即ち図5では、木32の形状や光源ベクトルLCの方向が適正に反映されるように、演算変更領域30の形状が設定されている。これにより、木32の3次元立体データに基づくことなく、木32の存在により移動体20の陰影づけが変化するという現象をリアルに表現できるようになる。
【0060】
また図6では、トンネル34の形状や光源ベクトルLCの方向が適正に反映さされるように、演算変更領域30の形状が設定されている。例えば図6のE3に示すトンネル34の入り口付近では、影となるべき演算変更領域30がトンネル34の外側にはみ出している。一方、E4に示すトンネル34の出口付近では、影となるべき演算変更領域30がトンネル34の内側に引っ込んでいる。従って、トンネル30の3次元立体データに基づくことなく、トンネル30の形状や光源ベクトルLCの方向が反映された移動体20へのリアルな陰影づけを実現できるようになる。
【0061】
以上のように本実施形態では、従来技術に比べて少ない処理負担でリアルな陰影づけの実現に成功している。
【0062】
なお、本実施形態では、演算変更領域30を、1又は複数の影ポリゴン(広義にはポリゴン、更に広義にはプリミティブ面)により構成している。例えば図4(A)では、演算変更領域30は、影ポリゴンPL0〜PL8により構成されている。このように演算変更領域30を複数の影ポリゴンにより構成することで、演算変更領域30の形状の設定を容易化できる。即ち、図5、図6に示すような種々の形状の演算変更領域30を簡易に作成できるようになる。
【0063】
また、演算変更領域30の形状又は位置を、ゲーム状況に応じて或いは時間経過に伴い変化させるようにしてもよい。例えば図5、図6において、光源ベクトルLCの方向が時間経過に伴い変化するような場合には、その光源ベクトルLCの方向の変化が反映されるように、演算変更領域30の形状又は位置を変化させる。このようにすることで、移動体20に対する陰影づけを更にリアルなものにすることができるようになる。
【0064】
さて、本実施形態では、演算変更領域に移動体が位置するか否かの判断処理を高速化、効率化するために、以下のような手法を採用している。
【0065】
即ち、本実施形態では図7(A)に示すように、オブジェクト空間内のコース40を複数のコースブロックC0〜C1024に分割している。コース40は、道のり距離で例えば1m間隔毎にコースブロックに分割される。そして図7(B)において、移動体20がコースブロックCj内に位置するか否かを、ライン42、44の配置情報により判定する。そして、移動体20が位置するコースブロックを特定することで、移動体20の順位を決めたり時間延長の可否を決めている。例えば第1の移動体がコースブロックC18に位置し、それを追いかける第2の移動体がコースブロックC17に位置した場合には、第1、第2の移動体の順位を、各々、1位、2位と判断する。また所与の時間内に、あるコースブロックを通過したか否かを判定し、通過した場合にはそのプレーヤのプレイ時間を延長する。
【0066】
そして、本実施形態では、このコースブロックに関連づけて、演算変更領域を登録している。即ち本実施形態では、まず、コース上に設定されたコースブロックの中から移動体が位置するコースブロックが検索される。次に、検索されたコースブロックに関連づけて登録されている演算変更領域(演算変更領域を構成する影ポリゴン)が呼び出され、その演算変更領域に移動体(移動体の代表点)が位置するか否かが判断される。
【0067】
このようにすることで、移動体が位置する演算変更領域の検索処理を高速化、効率化できるようになる。移動体が位置するコースブロックをまず初めに検索することで、検索対象となる演算変更領域の数を絞り込めるからである。しかも、移動体が位置するコースブロックの検索処理は、順位の決定や時間延長の可否の決定のために、どちらにしても行われる処理である。従って、移動体が位置する演算変更領域の検索処理にコースブロックを利用しても、実質的に処理負担は増えることはない。このように、本実施形態では、コースブロックを有効利用して、演算変更領域の検索処理の高速化、効率化を実現している。
【0068】
さて、本実施形態では、移動体20の陰影づけを更にリアルなものにするために、以下のような手法も採用している。
【0069】
即ち、本実施形態では、演算変更領域に対してシェーディング演算パラメータが設定される。例えば図8(A)では、演算変更領域30(狭義には影ポリゴン)の頂点VE0、VE1、VE2、VE3に対して、各々、シェーディング演算パラメータの1つである輝度パラメータI0、I1、I2、I3が設定されている。即ち、図2の演算変更領域データ記憶部144に記憶される演算変更領域データとして、各頂点の輝度パラメータが記憶される。
【0070】
そして、本実施形態では、これらの輝度パラメータI0〜I3に基づいて、移動体20のシェーディング演算に使用される輝度パラメータIMが求められ、求められた輝度パラメータIMに基づいて移動体20に対するシェーディング演算が行われる。より具体的には、輝度パラメータI0〜I3と、演算変更領域30内での移動体20(狭義には移動体の代表点)のローカル座標(RLX、RLZ)とに基づいて、輝度パラメータIMが求められ、この輝度パラメータIMに基づいて移動体20のシェーディング演算が行われる。このようにすれば、演算変更領域30の輝度パラメータI0〜I3が例えば図8(B)のように設定されていた場合には、この設定に沿うように、移動体20に対して陰影づけを施すことができるようになる。これにより、移動体20に施される陰影づけを、演算変更領域30の各場所において様々に変化させることができるようになる。例えば、図8(B)において移動体20が頂点VE0、VE1に近い場所に位置する場合には、移動体20の陰影づけは暗くなり、VE2、VE3に近い場所に位置する場合には、移動体20の陰影づけは明るくなる。このようにすることで、移動体20に対する陰影づけを更にリアルなものにすることができる。
【0071】
なお、演算変更領域に設定されるシェーディング演算パラメータとしては、輝度パラメータ以外にも、光源ベクトル、光源の位置、光源の種類、光源の強さ或いは環境光のパラメータ等、種々のパラメータを考えることができる。例えばシェーディング演算パラメータとして光源ベクトルの方向や、光源の位置、種類、強さ或いは環境光のパラメータを採用すれば、演算変更領域毎に光源ベクトルの方向や、光源の位置、種類、強さ或いは環境光を変化させることができ、よりリアルで多様なシェーディング演算を実現できるようになる。
【0072】
さて、図9(A)、(B)に、図2のマップデータ記憶部142、演算変更領域データ記憶部144に記憶されるマップデータ、演算変更領域データの例を示す。
【0073】
本実施形態のマップは複数のマップポリゴンにより構成されている。そして図9(A)に示すようにマップデータは、これらのマップポリゴンPL0、PL1、PL2・・・の頂点VE0、VE1、VE2、VE3のX、Y、Z座標データ(X00、Y00、Z00、X01、Y01、Z01・・・・)を含む。
【0074】
なおマップデータは、このような座標データ以外にも、各マップポリゴンに設定される輝度パラメータ、テクスチャ座標パラメータ(UV座標)等を含む。
【0075】
一方、本実施形態の演算変更領域は複数の影ポリゴンにより構成されている。ここで、本実施形態では、これらの影ポリゴンPL0、PL1、PL2・・・として、マップを構成するマップポリゴンPL0、PL1、PL2・・・をそのまま流用している。このようにすることで、演算変更領域データを容易に作成できるようになる。
【0076】
そして図9(B)に示すように演算変更領域データは、演算変更領域を構成する影ポリゴンPL0、PL1、PL2・・・の頂点VE0、VE1、VE2、VE3のX、Z座標データを含む。これらのX、Z座標データは、マップデータに含まれるX、Z座標データをそのまま流用したものである。そして、Y座標データの部分については、マップデータのY座標データを流用せずに、輝度パラメータI00、I01、I02・・・・を代入するようにする。
【0077】
ここで、Y座標データの部分に代入する輝度パラメータI00、I01、I02・・・・としては、マップデータに含まれる輝度パラメータをそのまま流用してもよいし、マップデータに含まれる輝度パラメータに変換処理を施したものを用いてもよい。
【0078】
このように、本実施形態では図9(B)に示すように、演算変更領域データが、X、Z座標データ(X00、Z00、X01、Z01、X02、Z02・・・)と、シェーディング演算パラメータの1つである輝度パラメータ(I00、I01、I02・・・)を含む。そして、演算変更領域データが含むX、Z座標データにより、演算変更領域の2次元形状(影ポリゴンPL0、PL1、PL2・・・の2次元形状)が特定される。この場合、演算変更領域データのX、Z座標データは、マップデータのX、Z座標データを流用しているため(広義には、マップデータのX、Z座標データに基づいて求められているため)、その作成は非常に容易になる。
【0079】
更に本実施形態では図9(B)に示すように、演算変更領域データのY座標データの部分に、輝度パラメータI00、I01、I02・・・が代入されている。これにより、演算変更領域データにどのように輝度パラメータが設定されているかを、画像データ作成ツールを用いて視覚的に表すことが可能になり、画像データの作成作業を効率化でき、ゲーム装置の開発期間の短縮化を図れる。
【0080】
例えば図10に、本実施形態のゲーム装置に使用する画像データを作成する画像データ作成ツールのブロック図の例を示す。
【0081】
図10において、開発者は、キーボード200、マウス202などの操作手段を用いて、画像データの作成に必要な種々のデータを入力したり、画像データ作成ツールへの種々の指示を行う。
【0082】
情報記憶媒体216には、ツールプログラム226や、このツールプログラム226の実行のために必要な種々のデータが格納されている。
【0083】
処理部210は、マップデータ作成部212、マップ表示部213、演算変更領域データ作成部214、演算変更領域表示部215を含む。
【0084】
ここでマップデータ作成部212は、図9(A)に示すようなマップデータを、キーボード200、マウス202からの入力データなどに基づいて作成するための処理を行う。
【0085】
マップ表示部213は、作成されたマップデータに含まれるX、Y、Z座標データに基づいて、マップの確認画面を表示部218に表示するための処理を行う。
【0086】
演算変更領域データ作成部214は、演算変更領域のデータを、キーボード200、マウス202からの入力データなどに基づいて作成するための処理を行う。
【0087】
演算変更領域表示部215は、作成された演算変更領域のデータに含まれるX、Y、Z座標データに基づいて、演算変更領域の確認画面を表示するための処理を行う。
【0088】
そして、本実施形態では、演算変更領域のY座標データの部分に、輝度パラメータ(シェーディング演算パラメータ)が代入される。そして、演算変更領域のデータのX、Z座標データと、Y座標データの部分に代入された輝度パラメータとに基づいて、演算変更領域の確認画面が3次元的に表示されることになる。
【0089】
例えば図11(A)、(B)に、図10の画像データ作成ツールにより作成された画像データ(マップデータ)に基づいて生成される画像(テクスチャがマッピングされた画像)の例を示す。ここで、図11(A)では、道路50上にゲート52の影は表示されていないが、図11(B)では影が表示されている。そして、ゲート52の影の領域である演算変更領域30に移動体が進入すると、移動体の陰影づけが暗くなるように変化する。
【0090】
図12(A)に、図10の画像データ作成ツールによりワイヤーフレームで表示されるマップの確認画面を示す。図12(A)は、図11(B)の道路50(マップの1つ)の形状を確認するための画面である。
【0091】
一方、図12(B)に、画像データ作成ツールによりワイヤーフレーム表示される演算変更領域の確認画面の例を示す。この確認画面は、図11(B)の演算変更領域30の形状や、設定された輝度パラメータ(シェーディング演算パラメータ)の値を確認するための画面である。
【0092】
本実施形態では、演算変更領域を構成する影ポリゴンのX、Z座標データについては、マップを構成するマップポリゴンのX、Z座標データをそのまま流用している。従って、図12(A)、(B)に示すように、マップポリゴンと影ポリゴンのX、Z座標データは同一になり、マップと演算変更領域の2次元形状(X、Z平面での形状)は同一になる。
【0093】
そして、本実施形態では、演算変更領域のY座標(高さ)データの部分に輝度パラメータが代入される。そして、図12(B)に示すように、輝度パラメータの大小が、高さの高低で把握できるように、演算変更領域の確認画面が3次元的に表示される。従って、開発者は、図12(B)の確認画面を見ることで、輝度パラメータがどのように値になっているかを視覚的に把握できるようになる。即ち、図12(B)において、高さが低い場所ほど(Y座標データが小さい場所ほど)、移動体に対する陰影づけが暗くなる場所であるということを、開発者は視覚的に即座に把握できるようになる。これにより、演算変更領域のデータの作成作業を効率化でき、開発期間の短縮化を図れるようになる。
【0094】
なお、図12(B)のF1、F2に示す領域のように、輝度パラメータが変化しない領域(高さが変化しない領域)については、その領域に関するデータを図2の演算変更領域データ記憶部144に記憶しないようにすることが望ましい。このようにデータを圧縮して記憶することで、記憶部140の使用記憶容量を節約でき、ゲーム装置の低コスト化等を図れるようになる。
【0095】
3.本実施形態の処理
次に、本実施形態の詳細な処理例について図13のフローチャートを用いて説明する。
【0096】
まず、当該フレームでの移動体の位置、方向を演算する(ステップS1)。
【0097】
次に、演算された移動体の位置等に基づいて、移動体(移動体の代表点)が位置するコースブロックを検索する(ステップS2)。
【0098】
例えば図14では、道路60の上に道路62が交差して設けられている(道路60、62の立体交差)。そして、移動体20(代表点RP)は、コースブロックC52内に位置するため、コースブロックC52が検索される。
【0099】
次に、検索されたコースブロックに影ポリゴンが登録されているか否かを判断し(ステップS3)、登録されている場合にはステップS4に移行する。一方、登録されていない場合にはステップS8に移行し、通常の輝度演算パラメータ(シェーディング演算パラメータ)が移動体に対して設定される。
【0100】
例えば、図14では、移動体20が位置するコースブロックC52には、G1に示す影ポリゴン(斜線の影ポリゴン)が登録されている。従って、この場合には、ステップS4に移行する。一方、例えば移動体20がコースブロックC50に位置する場合には、このコースブロックC50には影ポリゴンが登録されていない。従って、この場合には、ステップS8に移行する。
【0101】
次に、移動体の代表点が影ポリゴン内に位置するか否かを判断し(ステップS4)、位置する場合にはステップS5に移行する。一方、位置しない場合にはステップS8に移行し、通常の輝度パラメータ(シェーディング演算パラメータ)が移動体に対して設定される。
【0102】
移動体20が影ポリゴン内に位置するか否かは次のように判断する。例えば図15(A)において、影ポリゴン70の頂点VE0、VE1、VE2、VE3と移動体20の代表点RPを結ぶベクトルを、各々、C0R、C1R、C2R、C3Rとする。また、頂点VE0、VE1を結ぶベクトル、VE1、VE2を結ぶベクトル、VE2、VE3を結ぶベクトル、VE3、VE0を結ぶベクトルを、各々、C01、C12、C23、C30とする。すると、本実施形態では、これらのベクトル間の外積を下式のように計算する。
【0103】
OP0=C0R×C01 (3)
OP1=C1R×C12 (4)
OP2=C2R×C23 (5)
OP3=C3R×C30 (6)
そして、OP0、OP1、OP2、OP3のY成分が全て正である場合には、移動体20の代表点RPが影ポリゴン70内に位置すると判断する。一方、OP0、OP1、OP2、OP3のY成分の中に1つでも負のものがある場合には、代表点RPは影ポリゴン70の外に位置すると判断する。
【0104】
このように、本実施形態では、移動体20の代表点RPの2次元位置が2次元の影ポリゴン(演算変更領域)内にあるか否かに基づいて、シェーディング演算を変更するか否かが判断される。従って、3次元立体データを利用する特開平7−155464の従来技術に比べて、処理負担を格段に軽減できる。
【0105】
移動体の代表点が影ポリゴン内に位置すると判断された場合には、影ポリゴンの座標系での代表点のローカル座標を求める(ステップS5)。例えば図15(B)では、影ポリゴン70の頂点VE0、VE1、VE2、VE3が、各々、(0、0)、(0、1)、(1、1)、(1、0)に座標変換されるような、影ポリゴン70のローカル座標系(LX、LY)が想定される。そして、このローカル座標系(LX、LY)での代表点のローカル座標(RLX、RLZ)が求められることになる。
【0106】
次に、図8(A)、(B)で説明したように、影ポリゴンの頂点に設定された輝度パラメータ(広義にはシェーディング演算パラメータ)と、移動体20の代表点のローカル座標(RLX、RLZ)とに基づいて、移動体20の代表点での輝度パラメータを求める(ステップS6)。そして、求められた輝度パラメータを移動体20に対して設定する(ステップS7)。
【0107】
そして、最後に、シェーディング演算等の画像生成処理が実行される(ステップS9)。この場合、このシェーディング演算は、ステップS7又はS8で設定された輝度パラメータに基づいて行われることになる。
【0108】
4.ハードウェア構成
次に、本実施形態を実現できるハードウェアの構成の一例について図16を用いて説明する。同図に示す装置では、CPU1000、ROM1002、RAM1004、情報記憶媒体1006、音生成IC1008、画像生成IC1010、I/Oポート1012、1014が、システムバス1016により相互にデータ送受信可能に接続されている。そして前記画像生成IC1010にはディスプレイ1018が接続され、音生成IC1008にはスピーカ1020が接続され、I/Oポート1012にはコントロール装置1022が接続され、I/Oポート1014には通信装置1024が接続されている。
【0109】
情報記憶媒体1006は、プログラム、表示物を表現するための画像データ、音データ等が主に格納されるものである。例えば家庭用ゲーム装置ではゲームプログラム等を格納する情報記憶媒体としてCD−ROM、ゲームカセット、DVD等が用いられる。また業務用ゲーム装置ではROM等のメモリが用いられ、この場合には情報記憶媒体1006はROM1002になる。
【0110】
コントロール装置1022はゲームコントローラ、操作パネル等に相当するものであり、プレーヤがゲーム進行に応じて行う判断の結果を装置本体に入力するための装置である。
【0111】
情報記憶媒体1006に格納されるプログラム、ROM1002に格納されるシステムプログラム(装置本体の初期化情報等)、コントロール装置1022によって入力される信号等に従って、CPU1000は装置全体の制御や各種データ処理を行う。RAM1004はこのCPU1000の作業領域等として用いられる記憶手段であり、情報記憶媒体1006やROM1002の所与の内容、あるいはCPU1000の演算結果等が格納される。また本実施形態を実現するための論理的な構成を持つデータ構造は、このRAM又は情報記憶媒体上に構築されることになる。
【0112】
更に、この種の装置には音生成IC1008と画像生成IC1010とが設けられていてゲーム音やゲーム画像の好適な出力が行えるようになっている。音生成IC1008は情報記憶媒体1006やROM1002に記憶される情報に基づいて効果音やバックグラウンド音楽等のゲーム音を生成する集積回路であり、生成されたゲーム音はスピーカ1020によって出力される。また、画像生成IC1010は、RAM1004、ROM1002、情報記憶媒体1006等から送られる画像情報に基づいてディスプレイ1018に出力するための画素情報を生成する集積回路である。なおディスプレイ1018として、いわゆるヘッドマウントディスプレイ(HMD)と呼ばれるものを使用することもできる。
【0113】
また、通信装置1024はゲーム装置内部で利用される各種の情報を外部とやりとりするものであり、他のゲーム装置と接続されてゲームプログラムに応じた所与の情報を送受したり、通信回線を介してゲームプログラム等の情報を送受することなどに利用される。
【0114】
そして図1〜図15(B)で説明した種々の処理は、プログラムやデータなどの情報を格納した情報記憶媒体1006、この情報記憶媒体1006からの情報等に基づいて動作するCPU1000、画像生成IC1010或いは音生成IC1008等によって実現される。なお画像生成IC1010、音生成IC1008等で行われる処理は、CPU1000あるいは汎用のDSP等によりソフトウェア的に行ってもよい。
【0115】
前述の図1のように本実施形態を業務用ゲーム装置に適用した場合には、装置に内蔵されるシステムボード(サーキットボード)1106には、CPU、画像生成IC、音生成IC等が実装される。そして、本実施形態(本発明)を実現(実行)するための種々の情報(オブジェクト空間内で移動体を移動させるための演算を行うための情報、任意の形状に設定可能な2次元のシェーディング演算変更領域をオブジェクト空間内のマップに設定しておき、移動体が位置するシェーディング演算変更領域に応じて、移動体に施すシェーディング演算を変更するための情報、オブジェクト空間内の所与の視点での画像を生成するための情報等)は、システムボード1106上の情報記憶媒体である半導体メモリ1108に格納される。以下、これらの情報を格納情報と呼ぶ。
【0116】
図17(A)に、本実施形態を家庭用のゲーム装置に適用した場合の例を示す。プレーヤはディスプレイ1200に映し出されたゲーム画像を見ながら、ゲームコントローラ1202、1204を操作してゲームを楽しむ。この場合、上記格納情報は、本体装置に着脱自在な情報記憶媒体であるCD−ROM1206、メモリーカード1208、1209等に格納されている。
【0117】
図17(B)に、ホスト装置1300と、このホスト装置1300と通信回線(LANのような小規模ネットワークや、インターネットのような広域ネットワーク)1302を介して接続される端末1304-1〜1304-nとを含むシステムに本実施形態を適用した場合の例を示す。この場合、上記格納情報は、例えばホスト装置1300が制御可能な磁気ディスク装置、磁気テープ装置、半導体メモリ等の情報記憶媒体1306に格納されている。端末1304-1〜1304-nが、CPU、画像生成IC、音処理ICを有し、スタンドアロンでゲーム画像、ゲーム音を生成できるものである場合には、ホスト装置1300からは、ゲーム画像、ゲーム音を生成するためのゲームプログラム等が端末1304-1〜1304-nに配送される。一方、スタンドアロンで生成できない場合には、ホスト装置1300がゲーム画像、ゲーム音を生成し、これを端末1304-1〜1304-nに伝送し端末において出力することになる。
【0118】
なお、図17(B)の構成の場合に、本発明の処理を、ホスト装置と端末とで(サーバーを設ける場合にはホスト装置とサーバーと端末とで)分散して処理するようにしてもよい。また、本発明を実現するための上記格納情報を、ホスト装置の情報記憶媒体と端末の情報記憶媒体(或いはホスト装置の情報記憶媒体とサーバの情報記憶媒体と端末の情報記憶媒体)に分散して格納するようにしてもよい。
【0119】
また通信回線に接続する端末は、家庭用ゲーム装置であってもよいし業務用ゲーム装置であってもよい。そして、業務用ゲーム装置を通信回線に接続する場合には、業務用ゲーム装置との間で情報のやり取りが可能であると共に家庭用ゲーム装置との間でも情報のやり取りが可能な携帯型情報記憶装置(メモリーカード、携帯型ゲーム装置)を用いることが望ましい。
【0120】
なお本発明は、上記実施形態で説明したものに限らず、種々の変形実施が可能である。
【0121】
例えば、本発明のうち従属請求項に係る発明においては、従属先の請求項の構成要件の一部を省略する構成とすることもできる。また、本発明の1の独立請求項に係る発明の要部を、他の独立請求項に従属させることもできる。
【0122】
また本実施形態では、シェーディング演算変更領域を1又は複数のプリミティブ面(影ポリゴン)により構成する場合について説明した。本発明のシェーディング演算変更領域は、その形状の設定の容易化のためには、このようにプリミティブ面により構成することが特に望ましいが、このようなプリミティブ面により構成しない変形実施も可能である。
【0123】
また本実施形態では、移動体が位置するシェーディング演算変更領域(プリミティブ面)の検索の前に、コースブロックの検索を行っている。しかしながら、このようなコースブロックの検索結果を利用することなく、移動体が位置するシェーディング演算変更領域を直接に検索する場合も本発明の範囲に含まれる。
【0124】
また、シェーディング演算変更領域に設定されるシェーディング演算パラメータも、本実施形態で説明したものに限定されるものではない。
【0125】
また、本実施形態では、3次元オブジェクトの影となる領域にシェーディング演算変更領域を設定したが、実際に表示される3次元オブジェクトとは無関係にシェーディング演算変更領域を設定するようにしてもよい。
【0126】
また、マップデータの構造やシェーディング演算変更領域のデータの構造も、図9(A)、(B)で説明したものに限定されない。
【0127】
また、図10〜図12(B)で説明した画像データ作成ツールは、図1〜図9(B)で説明したゲーム装置で使用される画像データの作成に特に有効だが、これに限定されるものではない。
【0128】
また本発明はバイクゲーム以外にも種々のゲーム(車ゲーム、飛行機ゲーム、宇宙船ゲーム、格闘ゲーム、ロボット対戦ゲーム、スポーツゲーム、競争ゲーム、シューティングゲーム、ロールプレイングゲーム、音楽演奏ゲーム、ダンスゲーム、クイズゲーム等)に適用できる。
【0129】
また本発明は、業務用ゲーム装置、家庭用ゲーム装置、多数のプレーヤが参加する大型アトラクション装置、シミュレータ、マルチメディア端末、画像生成装置、ゲーム画像を生成するシステム基板等の種々のゲーム装置に適用できる。
【図面の簡単な説明】
【図1】本実施形態を業務用ゲーム装置に適用した場合の例を示す図である。
【図2】本実施形態のゲーム装置のブロック図の例である。
【図3】本実施形態により生成されるゲーム画像の例である。
【図4】図4(A)、(B)は、演算変更領域(シェーディング演算変更領域)について説明するための図である。
【図5】3次元オブジェクトが木である場合の演算変更領域の例について説明するための図である。
【図6】3次元オブジェクトがトンネルである場合の演算変更領域の例について説明するための図である。
【図7】図7(A)、(B)は、コースブロックを利用する手法について説明するための図である。
【図8】図8(A)、(B)は、演算変更領域にシェーディング演算パラメータを設定する手法について説明するための図である。
【図9】図9(A)、(B)は、マップデータ、演算変更領域データの例について説明するための図である。
【図10】画像データ作成ツールのブロック図の例である。
【図11】図11(A)、(B)は、画像データ作成ツールで作成された画像データに基づいて生成される画像の例である。
【図12】図12(A)、(B)は、画像データ作成ツールによりワイヤーフレームで表示されるマップの確認画面、演算変更領域の確認画面の例を示す図である。
【図13】本実施形態の詳細な処理例を示すフローチャートの一例である。
【図14】コースブロックの検索及びコースブロックに登録された影ポリゴンの検索について説明するための図である。
【図15】図15(A)、(B)は、移動体の代表点が影ポリゴン内に位置するか否かを判断する処理、影ポリゴンに設定された輝度パラメータから移動体の代表点での輝度パラメータを求める処理について説明するための図である。
【図16】本実施形態を実現できるハードウェアの構成の一例を示す図である。
【図17】図17(A)、(B)は、本実施形態が適用される種々の形態の装置の例を示す図である。
【符号の説明】
20 移動体
30 演算変更領域(シェーディング演算変更領域、影領域)
32 木
34 トンネル
40 コース
100 処理部
110 ゲーム演算部
112 移動体演算部
114 視点制御部
116 シェーディング演算変更部
118 コースブロック検索部
120 移動体位置判断部
122 パラメータ算出部
130 操作部
140 記憶部
142 マップデータ記憶部
144 演算変更領域データ記憶部
150 情報記憶媒体
160 画像生成部
162 表示部
170 音生成部
172 音出力部
174 通信部
176 I/F部
180 メモリーカード
200 キーボード
202 マウス
210 処理部
212 マップデータ作成部
213 マップ表示部
214 演算変更領域データ作成部
215 演算変更領域表示部
216 情報記憶媒体
218 表示部
226 ツールプログラム
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a game device, an image data creation tool, and an information storage medium.
[0002]
[Background Art and Problems to be Solved by the Invention]
2. Description of the Related Art Conventionally, a game apparatus that arranges a plurality of objects in an object space that is a virtual three-dimensional space and generates an image that can be seen from a given viewpoint in the object space is known, and a so-called virtual reality can be experienced. Popular as a thing. Taking a game device capable of enjoying a motorcycle game as an example, a player runs a motorcycle (moving body) that he / she drives in the object space and competes with a motorcycle (moving body) driven by another player or a computer. To enjoy the game.
[0003]
Now, in such a game device, it is an important technical problem to generate a more realistic image in order to improve the virtual reality of the player. Therefore, it is desirable that the display (shading) of the irradiation surface of a moving body such as a motorcycle is more realistic.
[0004]
As a technique relating to such an irradiation surface display method, there is a conventional technique disclosed in JP-A-7-155464. In this prior art, first, it is determined based on the three-dimensional solid data whether or not a specific event (for example, sunlight enters from a tunnel window) has occurred. When a specific event occurs, a light source parameter (light source vector) is obtained based on the position information of the light source at the specific event and the three-dimensional solid data. Based on the obtained light source parameter and the three-dimensional solid data, the illuminance of the irradiation surface of the moving body is obtained.
[0005]
However, in this prior art, it must be determined based on the three-dimensional solid data whether or not a specific event has occurred. The light source parameter must also be obtained based on the position information of the light source and the three-dimensional solid data. For this reason, there is a problem that the processing load on the game device becomes heavy and the real-time processing required for this type of game device cannot be satisfied.
[0006]
The present invention has been made in order to solve the above-described problems. The object of the present invention is to provide a game device, an image data creation tool, and a game device that can realize realistic shading of a moving object with a small processing load. An object is to provide an information storage medium.
[0007]
[Means for Solving the Problems]
In order to solve the above-mentioned problems, the present invention is a game apparatus for generating an image, a means for performing an operation for moving a moving body in an object space, and a two-dimensional settable in an arbitrary shape The shading calculation change area of the object is set in a map in the object space, and the shading calculation change area to be applied to the moving body is changed according to the shading calculation changing area where the moving body is located. Means for generating an image at a given viewpoint. An information storage medium according to the present invention includes information for realizing (executing) the above means.
[0008]
According to the present invention, a two-dimensional shading calculation change region that can be set to an arbitrary shape is set in the map. Then, according to the shading calculation change area where the moving body is located (depending on whether the moving body is located in the shading calculation change area), the shading calculation performed on the moving body is changed. That is, for example, when the moving body is located in the shading calculation change region, the shading calculation is performed such that shading of the moving body becomes dark.
[0009]
According to the present invention, since the two-dimensional shading calculation change area is used, the processing load can be greatly reduced as compared with the conventional technique using three-dimensional solid data.
[0010]
According to the present invention, since the shape of the shading calculation change region can be arbitrarily set, for example, it is possible to realize realistic shading that reflects the shape of the three-dimensional object arranged on the map, the direction of the light source vector, and the like. become.
[0011]
In the present invention, the shading calculation change area may be composed of one or more primitive surfaces. Further, whether or not the moving body is located in the shading calculation change area can be determined based on, for example, whether or not the representative point of the moving body is located in the shading calculation area.
[0012]
In the game device and the information storage medium according to the present invention, the course block where the moving body is located is searched from the course blocks set on the course in the object space, and is registered in association with the searched course block. The shading calculation change area is searched. By doing in this way, the process which specifies the shading calculation change area | region where a moving body is located can be accelerated and made efficient. It should be noted that the case where the primitive surfaces constituting the shading calculation change region are registered in the course block is also included in the scope of the present invention.
[0013]
In addition, the game device and the information storage medium according to the present invention obtain shading calculation parameters used for the shading calculation of the moving body based on the shading calculation parameters set in the shading calculation change area, and the obtained shading A shading calculation is performed on the moving body based on calculation parameters. By doing so, it is possible to increase the variety of shading calculations performed on the moving object, and to make the moving object's shading more realistic.
[0014]
Further, in the game device and the information storage medium according to the present invention, the shading calculation parameters used for the shading calculation of the mobile object are the shading calculation parameters set in the shading calculation change area and the shading calculation change area in the shading calculation change area. It is calculated | required based on the local coordinate of a moving body, It is characterized by the above-mentioned. By doing so, the shading applied to the moving body can be changed in various places in the shading calculation change region, and the realism of the image can be further increased.
[0015]
In the game device and the information storage medium according to the present invention, the shading calculation parameters set in the shading calculation change area include luminance, light source vector, light source position, light source type, light source intensity, and ambient light parameters. It is characterized by including at least one. As described above, by setting various shading calculation parameters in the shading calculation change region, more realistic and diverse shading calculations can be realized.
[0016]
In the game device and the information storage medium according to the present invention, the shading calculation change area is set to an area that should be shaded by the three-dimensional object in the object space. In this way, when the moving object enters the shadowed area of the three-dimensional object, it appears that the shading of the moving object has changed due to the presence of the three-dimensional object. You can improve the virtual reality you feel.
[0017]
In the game device and the information storage medium according to the present invention, the data in the shading calculation change area includes X and Z coordinate data obtained based on X and Z coordinate data included in the map data, and a shading calculation parameter. It is characterized by that. In this way, the map data can be used to efficiently create the shading calculation change area data, and the development period can be shortened. Note that it is desirable to obtain the shading calculation parameters included in the data of the shading calculation change area by diverting the shading calculation parameters included in the map data or by performing conversion processing on the shading calculation parameters included in the map data. In this way, the data of the shading calculation change area can be created more efficiently.
[0018]
The game apparatus and information storage medium according to the present invention are characterized in that the shading calculation parameter is substituted into a Y coordinate data portion of the data in the shading calculation change area. In this way, it becomes possible to visually confirm the magnitude of the value of the shading calculation parameter, and the creation work of data in the shading calculation change area can be made efficient.
[0019]
Further, the present invention is an image data creation tool for creating image data, comprising means for creating map data, means for creating data of a shading calculation change area, and the created map data A means for displaying a map confirmation screen based on the included X, Y, Z coordinate data, and a shading calculation based on the X, Y, Z coordinate data included in the created shading calculation change area data Means for displaying a confirmation screen of the change area, and the X and Z coordinates of the data of the shading calculation change area are substituted with the shading calculation parameters substituted into the Y coordinate data portion of the data of the shading calculation change area Based on the data and the shading calculation parameters, a confirmation screen for the shading calculation change area Characterized in that it is three-dimensionally displayed. An information storage medium according to the present invention includes information for realizing (executing) the above means.
[0020]
According to the present invention, the shading calculation parameter is substituted into the Y coordinate data portion of the data in the shading calculation change area. Therefore, the magnitude of the value of the shading calculation parameter can be visually confirmed using the display function of the image data creation tool, and the data creation work of the shading calculation change area can be greatly improved.
[0021]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings. In the following, the case where the present invention is applied to a motorcycle game will be described as an example. However, the present invention is not limited to this and can be applied to various games.
[0022]
1. Constitution
FIG. 1 shows an example in which the present embodiment is applied to an arcade game machine.
[0023]
While watching the game image displayed on the screen 1050, the player 1092 operates a handle 1070, an accelerator or a brake provided on the handle 1070, or a chassis (simulated motorcycle) 1090 made by imitating a real motorcycle. Roll. Then, when the player 1092 operates the accelerator and the brake, the own motorcycle (moving body) 1100 displayed on the screen 1050 is accelerated or decelerated. Further, when the player 1092 steers the handle 1070 or rolls the housing 1090, the player's motorcycle 1100 on which the character (virtual player) 1102 rides corners or rolls left and right.
[0024]
FIG. 2 shows an example of a block diagram of the present embodiment. In the figure, the game device of the present embodiment only needs to include at least the processing unit 100 and the storage unit 140 (or only include the processing unit 100, the storage unit 140, and the information storage medium 150). Can be any component.
[0025]
Here, the processing unit 100 performs various processes such as control of the entire apparatus, instruction instruction to each block in the apparatus, game calculation, and the like, and functions thereof are a CPU (CISC type, RISC type), DSP. Alternatively, it can be realized by hardware such as an ASIC (gate array or the like) or a given program (game program).
[0026]
The operation unit 130 is used by the player to input operation information, and the function can be realized by hardware such as the housing 1090, the handle 1070, an accelerator (not shown), a brake, and an operation button in FIG.
[0027]
The storage unit 140 serves as a work area such as the processing unit 100, the image generation unit 160, the sound generation unit 170, the communication unit 174, and the I / F unit 176, and its functions can be realized by hardware such as a RAM.
[0028]
An information storage medium (storage medium from which information can be read by a computer) 150 stores information such as programs and data, and functions thereof are an optical disk (CD, DVD), a magneto-optical disk (MO), and a magnetic field. It can be realized by hardware such as a disk, a hard disk, a magnetic tape, or a semiconductor memory (ROM). The processing unit 100 performs various processes of the present invention (this embodiment) based on information stored in the information storage medium 150. That is, the information storage medium 150 stores various information for realizing the means of the present invention (this embodiment) (particularly, the blocks included in the processing unit 100 and the storage unit 140).
[0029]
Part or all of the information stored in the information storage medium 150 is transferred to the storage unit 140 when the apparatus is powered on. Information stored in the information storage medium 150 includes program code, image information, sound information, shape information of display objects, table data, list data, player information, and processing of the present invention. It includes at least one of information for instructing, information for performing processing in accordance with the instruction, and the like.
[0030]
The image generation unit 160 generates various images in accordance with instructions from the processing unit 100 and outputs them to the display unit 162. The function of the image generation unit 160 is hardware such as an image generation ASIC, CPU, or DSP, It can be realized by a given program (image generation program) and image information.
[0031]
The sound generation unit 170 generates various sounds in accordance with instructions from the processing unit 100 and outputs them to the sound output unit 172. The function of the sound generation unit 170 is a hardware such as a sound generation ASIC, CPU, or DSP. Alternatively, it can be realized by a given program (sound generation program) and sound information (waveform data, etc.).
[0032]
The communication unit 174 performs various controls for communicating with an external device (for example, a host device or another game device). The function of the communication unit 174 includes hardware such as a communication ASIC or CPU, It can be realized by a given program (communication program).
[0033]
Information for realizing the processing of the present invention (this embodiment) may be distributed from the information storage medium of the host device to the information storage medium of the game device via the network and the communication unit 174. Such use of the information storage medium of the host device and use of the information storage medium of the game device are also included in the scope of the present invention.
[0034]
Further, part or all of the functions of the processing unit 100 may be realized by the functions of the image generation unit 160, the sound generation unit 170, or the communication unit 174. Alternatively, part or all of the functions of the image generation unit 160, the sound generation unit 170, or the communication unit 174 may be realized by the function of the processing unit 100.
[0035]
The I / F unit 176 is an interface for exchanging information with a memory card (in a broad sense, a portable information storage device including a portable mini game device) 180 according to an instruction from the processing unit 100 and the like. The function can be realized by a slot for inserting a memory card, a controller IC for data writing / reading, and the like. In the case where information exchange with the memory card 180 is realized using radio waves such as infrared rays, the function of the I / F unit 176 can be realized by hardware such as a semiconductor laser and an infrared sensor.
[0036]
The processing unit 100 includes a game calculation unit 110.
[0037]
Here, the game calculation unit 110 receives a coin (price) acceptance process, a game mode setting process, a game progress process, a selection screen setting process, a process for determining the position and direction of a moving object (motorcycle, character, etc.), and a viewpoint. Processing to determine the position and line of sight, processing to reproduce the motion of a moving object, processing to place an object in the object space, hit check processing, processing to calculate game results (results), multiple players playing in a common game space Various game calculation processes such as a process for performing a game or a game over process are performed based on operation information from the operation unit 130, information from the memory card 180, a game program, and the like. When the present invention is applied to a game other than a motorcycle game, as a moving body, in addition to a motorcycle and a character, a car, an airplane, a ship, a water ski, a surfboard, a tank, a robot, a spaceship, a bullet, etc. Various things can be considered.
[0038]
The game calculation unit 110 includes a moving body calculation unit 112, a viewpoint control unit 114, and a shading calculation change unit 116.
[0039]
Here, the moving object calculation unit 112 calculates movement information (position information, direction information, etc.) of a moving object such as a motorcycle. For example, based on operation information input from the operation unit 130 or a given program, Processing to move the moving object in the object space is performed. That is, a process of moving the moving body in the object space is performed based on operation information from the player (self player, other player) and a command from the computer (a given movement control algorithm).
[0040]
More specifically, the moving body computing unit 112 performs a process for obtaining the position and direction of the moving body, for example, every frame (1/60 seconds). For example, assume that the position of the moving body in the (k-1) frame is PMk-1, the speed is VMk-1, the acceleration is AMk-1, and the time of one frame is Δt. Then, the position PMk and the speed VMk of the moving body in k frames are obtained, for example, by the following equations (1) and (2).
[0041]
PMk = PMk-1 + VMk-1 * .DELTA.t (1)
VMk = VMk-1 + AMk-1 * .DELTA.t (2)
The viewpoint control unit 114 performs processing for obtaining the viewpoint position, the line-of-sight direction, and the like based on the information on the position and direction of the moving object obtained by the moving object calculation unit 112. More specifically, for example, a process of changing the viewpoint position or the line-of-sight direction so as to follow the position or direction of the moving body operated by the player is performed. In this case, it is desirable to follow the viewpoint position or the line-of-sight direction with respect to the position or direction of the moving body, for example, while having inertia. The image generation unit 160 generates an image that can be seen at the viewpoint controlled by the viewpoint control unit 114.
[0042]
The viewpoint control unit 114 can also control the viewpoint regardless of the movement of the moving object.
[0043]
The shading calculation changing unit 116 performs a process for changing a shading calculation performed on the moving body in accordance with a shading calculation changing area where the moving body is located (hereinafter, simply referred to as a calculation changing area as appropriate). For example, when the two-dimensional position of the moving body is not within the calculation change region, a normal shading calculation is performed on the moving body. That is, the shading of the moving object becomes a normal shading. On the other hand, when the two-dimensional position of the moving body is within the calculation change area, the moving body is subjected to a shading calculation corresponding to the calculation change area where the moving body is located. That is, the shade of the moving body becomes darker than usual.
[0044]
Here, the calculation change region (shadow region) is a two-dimensional region set on a map in the object space, and can be set to an arbitrary shape. Further, data related to the calculation change area (data for specifying the shape of the calculation change area, shading calculation parameters, and the like) is stored in the calculation change area data storage unit 144 in the storage unit 140. Data relating to the map (data for specifying the shape of the map, map image data, etc.) is stored in the map data storage unit 142.
[0045]
The shading calculation change unit 116 includes a course block search unit 118, a moving body position determination unit 120, and a parameter calculation unit 122.
[0046]
Here, the course block search unit 118 performs a process for searching a course block in which the moving body is located from a plurality of course blocks set on the course in the object space. This course block is prepared for determining the order of moving objects.
[0047]
The moving body position determination unit 120 determines whether or not the moving body is located in the calculation change region. More specifically, the course block in which the moving body is located is searched first, and then the operation change area registered in association with the searched course block (in a narrow sense, the shadow polygon that constitutes the operation change area). Searched.
[0048]
The parameter calculation unit 122 is a process for obtaining shading calculation parameters (for example, parameters such as luminance, light source vector, light source position, light source type, light source intensity, or ambient light) used for the shading calculation of the moving object. I do. More specifically, the calculation change area data storage unit 144 stores shading calculation parameters set for the calculation change area as calculation change area data. Then, based on the stored shading calculation parameters and, for example, the local coordinates of the moving object in the calculation change area, a shading calculation parameter used for the shading calculation of the moving object is obtained. Then, the shading calculation is performed on the moving body based on the obtained shading calculation parameters.
[0049]
Note that the game apparatus according to the present embodiment is capable of both game play in a single player mode played by one player and game play in a multiplayer mode played by a plurality of players.
[0050]
Further, when a plurality of players play, game images and game sounds to be provided to the plurality of players may be generated using one game device, or connected via a network (transmission line, communication line), etc. It may be generated using a plurality of game devices.
[0051]
2. Features of this embodiment
In FIG. 3, the example of the game image produced | generated by this embodiment is shown.
[0052]
In the motorcycle game realized by the present embodiment, the player drives the mobile body (own motorcycle) 20 to run in the object space while viewing the game image as shown in FIG. Then, the game is enjoyed by competing with other players and moving bodies (other motorcycles) driven by the computer.
[0053]
In FIG. 3, a gate (one of three-dimensional objects) 28 is provided in front of the moving body 20, and the shadow of the gate 28 is displayed on the screen. In this embodiment, when the moving body 20 enters the calculation change area 30 which is the shadow area of the gate 28, the shading calculation of the moving body 20 is changed. That is, the shadow of the moving body 20 that was bright before the moving body 20 entered the calculation change area (shadow area) 30 becomes dark when the moving body 20 enters the calculation change area 30, and becomes brighter when it exits. By doing so, it becomes possible to realize more realistic shading of the moving body 20, and the virtual reality of the player can be significantly improved.
[0054]
More specifically, in this embodiment, as shown in FIGS. 4A and 4B, a two-dimensional calculation change region 30 is set on the map. The calculation change area 30 can be set to an arbitrary shape according to the shape of the three-dimensional object (gate 28 in FIG. 3) corresponding to the calculation change area 30. Then, when the moving body 20 has not entered the calculation change area 30 as shown in FIG. 4A, the shading calculation changing process is not performed, and the moving body 20 is moved as shown in FIG. When entering the calculation change area 30, the shading calculation applied to the moving object is changed.
[0055]
FIG. 5 shows an example of the operation change area (shadow area) 30 when the three-dimensional object is a tree 32. In FIG. 5, the operation change area 30 is set as an area to be a shadow of the tree 32 that is a three-dimensional object. In FIG. 5, it is assumed that the direction of the light source vector LC is the direction indicated by E1, and the shape of the calculation change region 30 is set so as to follow this assumption.
[0056]
FIG. 6 shows an example of the operation change area 30 when the three-dimensional object is the tunnel 34. In FIG. 6, the operation change area 30 is set as an area to be a shadow of the tunnel 34 that is a three-dimensional object. In FIG. 6, it is assumed that the direction of the light source vector LC is the direction indicated by E <b> 2, and the shape of the calculation change region 30 is set to meet this assumption.
[0057]
As described above, according to the present embodiment, the two-dimensional calculation change region 30 is set in advance on the map. Then, it is determined whether or not a specific event such as a change in the shading calculation has occurred, based on whether or not the two-dimensional position of the moving body 20 is within the two-dimensional calculation change area 30. Therefore, the processing load can be remarkably reduced as compared with the prior art disclosed in Japanese Patent Laid-Open No. 7-155464 that determines whether or not a specific event has occurred based on three-dimensional solid data.
[0058]
In addition, since the calculation change area (shading calculation change area) 30 of the present embodiment can be set to an arbitrary shape as shown in FIGS. 5 and 6, real shading can be realized with a small processing load. .
[0059]
That is, in FIG. 5, the shape of the calculation change region 30 is set so that the shape of the tree 32 and the direction of the light source vector LC are appropriately reflected. As a result, the phenomenon that the shading of the moving body 20 changes due to the presence of the tree 32 can be realistically expressed without being based on the three-dimensional solid data of the tree 32.
[0060]
In FIG. 6, the shape of the calculation change region 30 is set so that the shape of the tunnel 34 and the direction of the light source vector LC are appropriately reflected. For example, in the vicinity of the entrance of the tunnel 34 shown at E3 in FIG. 6, the calculation change area 30 to be shaded protrudes outside the tunnel 34. On the other hand, in the vicinity of the exit of the tunnel 34 indicated by E4, the calculation change area 30 to be shaded is retracted inside the tunnel 34. Therefore, realistic shading on the moving body 20 reflecting the shape of the tunnel 30 and the direction of the light source vector LC can be realized without being based on the three-dimensional solid data of the tunnel 30.
[0061]
As described above, in the present embodiment, real shading has been successfully achieved with a smaller processing load than in the prior art.
[0062]
In the present embodiment, the operation change area 30 is configured by one or a plurality of shadow polygons (polygons in a broad sense, primitive surfaces in a broader sense). For example, in FIG. 4A, the calculation change region 30 is configured by shadow polygons PL0 to PL8. By configuring the calculation change area 30 with a plurality of shadow polygons in this way, setting of the shape of the calculation change area 30 can be facilitated. That is, it becomes possible to easily create the operation change areas 30 having various shapes as shown in FIGS.
[0063]
Further, the shape or position of the calculation change area 30 may be changed according to the game situation or with the passage of time. For example, in FIGS. 5 and 6, when the direction of the light source vector LC changes with time, the shape or position of the calculation change region 30 is changed so that the change in the direction of the light source vector LC is reflected. Change. By doing in this way, the shadowing with respect to the mobile body 20 can be made still more realistic.
[0064]
In the present embodiment, the following method is employed in order to increase the speed and efficiency of the process for determining whether or not the moving object is located in the calculation change region.
[0065]
That is, in this embodiment, as shown in FIG. 7A, the course 40 in the object space is divided into a plurality of course blocks C0 to C1024. The course 40 is divided into course blocks at a distance of 1 m, for example, every 1 m. In FIG. 7B, whether or not the moving body 20 is located in the course block Cj is determined based on the arrangement information of the lines 42 and 44. Then, by specifying the course block in which the moving body 20 is located, the order of the moving body 20 is determined and the possibility of extension of time is determined. For example, when the first moving body is located in the course block C18 and the second moving body chasing it is located in the course block C17, the ranking of the first and second moving bodies is set to the first place, Judged second. Further, it is determined whether or not a certain course block has been passed within a given time, and if it has passed, the play time of the player is extended.
[0066]
In this embodiment, the calculation change area is registered in association with the course block. That is, in the present embodiment, first, a course block where a moving body is located is searched from course blocks set on the course. Next, the calculation change area (shadow polygon constituting the calculation change area) registered in association with the searched course block is called, and is the moving body (representative point of the moving body) located in the calculation change area? It is determined whether or not.
[0067]
By doing so, it is possible to increase the speed and efficiency of the search process for the operation change area where the mobile object is located. This is because the number of calculation change areas to be searched can be narrowed down by searching the course block where the moving body is located first. In addition, the search process for the course block in which the mobile object is located is a process that is performed either way for determining the rank or determining whether or not to extend the time. Therefore, even if the course block is used for the search processing of the calculation change area where the mobile body is located, the processing load is not substantially increased. As described above, in the present embodiment, the course block is effectively used to increase the speed and efficiency of the search process for the operation change area.
[0068]
In the present embodiment, the following method is also employed in order to make the moving body 20 shaded more realistic.
[0069]
That is, in this embodiment, the shading calculation parameter is set for the calculation change area. For example, in FIG. 8A, luminance parameters I0, I1, I2, which are one of shading calculation parameters, are respectively applied to the vertices VE0, VE1, VE2, VE3 of the calculation change area 30 (shadow polygon in a narrow sense). I3 is set. That is, the luminance parameter of each vertex is stored as calculation change area data stored in the calculation change area data storage unit 144 of FIG.
[0070]
In this embodiment, the luminance parameter IM used for the shading calculation of the moving body 20 is obtained based on the luminance parameters I0 to I3, and the shading calculation for the moving body 20 is performed based on the obtained luminance parameter IM. Is done. More specifically, the luminance parameter IM is based on the luminance parameters I0 to I3 and the local coordinates (RLX, RLZ) of the moving body 20 (representative point of the moving body in the narrow sense) in the calculation change region 30. The shading calculation of the moving body 20 is performed based on the luminance parameter IM. In this way, when the luminance parameters I0 to I3 of the calculation change region 30 are set as shown in FIG. 8B, for example, the moving body 20 is shaded so as to follow this setting. Can be applied. As a result, the shading applied to the moving body 20 can be changed in various places in the calculation change region 30. For example, in FIG. 8B, when the moving body 20 is located near the vertices VE0 and VE1, the shading of the moving body 20 becomes dark, and when the moving body 20 is located near VE2 and VE3, the moving body 20 moves. The shading of the body 20 becomes brighter. By doing in this way, the shading with respect to the moving body 20 can be made more realistic.
[0071]
In addition to the luminance parameter, various parameters such as a light source vector, a light source position, a light source type, a light source intensity, or an ambient light parameter can be considered as shading calculation parameters set in the calculation change area. it can. For example, if a light source vector direction, light source position, type, intensity, or ambient light parameter is used as a shading calculation parameter, the light source vector direction, light source position, type, intensity, or environment is changed for each calculation change region. Light can be changed, and more realistic and diverse shading operations can be realized.
[0072]
9A and 9B show examples of map data and calculation change region data stored in the map data storage unit 142 and calculation change region data storage unit 144 of FIG.
[0073]
The map of this embodiment is composed of a plurality of map polygons. As shown in FIG. 9A, the map data includes X, Y, Z coordinate data (X00, Y00, Z00,...) Of vertices VE0, VE1, VE2, VE3 of these map polygons PL0, PL1, PL2,. X01, Y01, Z01...
[0074]
The map data includes brightness parameters, texture coordinate parameters (UV coordinates), and the like set for each map polygon in addition to such coordinate data.
[0075]
On the other hand, the calculation change area of this embodiment is composed of a plurality of shadow polygons. In this embodiment, the map polygons PL0, PL1, PL2,... Constituting the map are used as they are as the shadow polygons PL0, PL1, PL2,. In this way, the operation change area data can be easily created.
[0076]
9B, the calculation change area data includes X and Z coordinate data of the vertices VE0, VE1, VE2, and VE3 of the shadow polygons PL0, PL1, PL2,... Constituting the calculation change area. These X and Z coordinate data are obtained by using the X and Z coordinate data included in the map data as they are. For the Y coordinate data portion, the luminance parameters I00, I01, I02,... Are substituted without using the Y coordinate data of the map data.
[0077]
Here, as the luminance parameters I00, I01, I02,... To be substituted into the Y coordinate data portion, the luminance parameters included in the map data may be used as they are, or converted into luminance parameters included in the map data. You may use what gave the process.
[0078]
As described above, in this embodiment, as shown in FIG. 9B, the calculation change area data includes X, Z coordinate data (X00, Z00, X01, Z01, X02, Z02...), And shading calculation parameters. Are luminance parameters (I00, I01, I02...). Then, the two-dimensional shape (two-dimensional shape of shadow polygons PL0, PL1, PL2,...) Of the calculation change area is specified by the X and Z coordinate data included in the calculation change area data. In this case, the X and Z coordinate data of the operation change area data is derived from the X and Z coordinate data of the map data (since it is obtained based on the X and Z coordinate data of the map data in a broad sense). ) Making it very easy.
[0079]
Further, in the present embodiment, as shown in FIG. 9B, luminance parameters I00, I01, I02... Are substituted for the Y coordinate data portion of the operation change area data. As a result, it is possible to visually represent how the brightness parameter is set in the operation change area data by using the image data creation tool, and the work of creating the image data can be made more efficient. The development period can be shortened.
[0080]
For example, FIG. 10 shows an example of a block diagram of an image data creation tool for creating image data used in the game device of the present embodiment.
[0081]
In FIG. 10, the developer inputs various data necessary for creating image data and gives various instructions to the image data creation tool using operation means such as a keyboard 200 and a mouse 202.
[0082]
The information storage medium 216 stores a tool program 226 and various data necessary for executing the tool program 226.
[0083]
The processing unit 210 includes a map data creation unit 212, a map display unit 213, a calculation change region data creation unit 214, and a calculation change region display unit 215.
[0084]
Here, the map data creation unit 212 performs processing for creating map data as shown in FIG. 9A based on input data from the keyboard 200 and the mouse 202, and the like.
[0085]
The map display unit 213 performs processing for displaying a map confirmation screen on the display unit 218 based on the X, Y, and Z coordinate data included in the generated map data.
[0086]
The calculation change area data creation unit 214 performs processing for creating calculation change area data based on input data from the keyboard 200 and the mouse 202, and the like.
[0087]
The calculation change area display unit 215 performs processing for displaying a calculation change area confirmation screen based on the X, Y, and Z coordinate data included in the generated calculation change area data.
[0088]
In this embodiment, a luminance parameter (shading calculation parameter) is substituted into the Y coordinate data portion of the calculation change area. Then, based on the X and Z coordinate data of the data of the calculation change area and the luminance parameter substituted into the Y coordinate data portion, the calculation change area confirmation screen is displayed three-dimensionally.
[0089]
For example, FIGS. 11A and 11B show examples of images (texture-mapped images) generated based on image data (map data) created by the image data creation tool of FIG. Here, in FIG. 11A, the shadow of the gate 52 is not displayed on the road 50, but in FIG. 11B, the shadow is displayed. Then, when the moving body enters the calculation change area 30 that is the shadow area of the gate 52, the shading of the moving body changes so as to be dark.
[0090]
FIG. 12A shows a confirmation screen of a map displayed in a wire frame by the image data creation tool of FIG. FIG. 12A is a screen for confirming the shape of the road 50 (one of the maps) in FIG.
[0091]
On the other hand, FIG. 12B shows an example of an operation change area confirmation screen displayed as a wire frame by the image data creation tool. This confirmation screen is a screen for confirming the shape of the calculation change area 30 in FIG. 11B and the value of the set brightness parameter (shading calculation parameter).
[0092]
In the present embodiment, the X and Z coordinate data of the map polygon constituting the map is used as it is for the shadow polygon X and Z coordinate data constituting the calculation change region. Accordingly, as shown in FIGS. 12A and 12B, the X and Z coordinate data of the map polygon and the shadow polygon are the same, and the two-dimensional shape of the map and the operation change area (the shape on the X and Z planes). Are the same.
[0093]
In this embodiment, the luminance parameter is substituted into the Y coordinate (height) data portion of the calculation change area. Then, as shown in FIG. 12B, the calculation change region confirmation screen is displayed three-dimensionally so that the brightness parameter can be grasped by the height. Therefore, the developer can visually grasp how the luminance parameter has a value by looking at the confirmation screen of FIG. That is, in FIG. 12B, the developer can visually grasp immediately that the place where the height is lower (the place where the Y coordinate data is smaller) is the place where the shading to the moving body becomes darker. It becomes like this. As a result, it is possible to improve the efficiency of the data creation work in the operation change area, and to shorten the development period.
[0094]
Note that, for areas where the luminance parameter does not change (areas where the height does not change), such as the areas indicated by F1 and F2 in FIG. 12B, the data relating to the area is stored in the calculation change area data storage unit 144 in FIG. It is desirable not to memorize. By compressing and storing data in this way, the used storage capacity of the storage unit 140 can be saved, and the cost of the game device can be reduced.
[0095]
3. Processing of this embodiment
Next, a detailed processing example of this embodiment will be described with reference to the flowchart of FIG.
[0096]
First, the position and direction of the moving body in the frame are calculated (step S1).
[0097]
Next, based on the calculated position of the moving body, etc., the course block where the moving body (representative point of the moving body) is located is searched (step S2).
[0098]
For example, in FIG. 14, a road 62 is provided on the road 60 so as to intersect (three-dimensional intersection of the roads 60 and 62). And since the mobile body 20 (representative point RP) is located in the course block C52, the course block C52 is searched.
[0099]
Next, it is determined whether or not a shadow polygon is registered in the searched course block (step S3). If registered, the process proceeds to step S4. On the other hand, if not registered, the process proceeds to step S8, and normal luminance calculation parameters (shading calculation parameters) are set for the moving object.
[0100]
For example, in FIG. 14, a shadow polygon (shaded shadow polygon) indicated by G1 is registered in the course block C52 where the moving body 20 is located. Therefore, in this case, the process proceeds to step S4. On the other hand, for example, when the moving body 20 is located in the course block C50, no shadow polygon is registered in the course block C50. Therefore, in this case, the process proceeds to step S8.
[0101]
Next, it is determined whether or not the representative point of the moving object is located in the shadow polygon (step S4). If it is located, the process proceeds to step S5. On the other hand, if it is not located, the process proceeds to step S8, and normal luminance parameters (shading calculation parameters) are set for the moving object.
[0102]
Whether the moving body 20 is located in the shadow polygon is determined as follows. For example, in FIG. 15A, vectors that connect the vertexes VE0, VE1, VE2, and VE3 of the shadow polygon 70 and the representative point RP of the moving body 20 are C0R, C1R, C2R, and C3R, respectively. Further, vectors connecting the vertices VE0 and VE1, vectors connecting VE1 and VE2, vectors connecting VE2 and VE3, and vectors connecting VE3 and VE0 are C01, C12, C23, and C30, respectively. Then, in this embodiment, the outer product between these vectors is calculated as in the following equation.
[0103]
OP0 = C0R × C01 (3)
OP1 = C1R × C12 (4)
OP2 = C2R × C23 (5)
OP3 = C3R × C30 (6)
When the Y components of OP0, OP1, OP2, and OP3 are all positive, it is determined that the representative point RP of the moving body 20 is located in the shadow polygon 70. On the other hand, if any one of the Y components of OP0, OP1, OP2, and OP3 is negative, it is determined that the representative point RP is located outside the shadow polygon 70.
[0104]
Thus, in the present embodiment, whether or not to change the shading calculation based on whether or not the two-dimensional position of the representative point RP of the moving body 20 is within the two-dimensional shadow polygon (calculation change area). To be judged. Therefore, the processing load can be remarkably reduced as compared with the prior art disclosed in Japanese Patent Laid-Open No. 7-155464 using three-dimensional solid data.
[0105]
If it is determined that the representative point of the moving body is located within the shadow polygon, the local coordinates of the representative point in the coordinate system of the shadow polygon are obtained (step S5). For example, in FIG. 15B, the vertices VE0, VE1, VE2, and VE3 of the shadow polygon 70 are transformed into coordinates (0, 0), (0, 1), (1, 1), and (1, 0), respectively. As described above, the local coordinate system (LX, LY) of the shadow polygon 70 is assumed. Then, the local coordinates (RLX, RLZ) of the representative point in the local coordinate system (LX, LY) are obtained.
[0106]
Next, as described in FIGS. 8A and 8B, the luminance parameter (shading calculation parameter in a broad sense) set at the vertex of the shadow polygon and the local coordinates (RLX, (RLZ) and the luminance parameter at the representative point of the moving body 20 is obtained (step S6). And the calculated | required brightness | luminance parameter is set with respect to the mobile body 20 (step S7).
[0107]
Finally, image generation processing such as shading calculation is executed (step S9). In this case, the shading calculation is performed based on the luminance parameter set in step S7 or S8.
[0108]
4). Hardware configuration
Next, an example of a hardware configuration capable of realizing the present embodiment will be described with reference to FIG. In the apparatus shown in the figure, a CPU 1000, a ROM 1002, a RAM 1004, an information storage medium 1006, a sound generation IC 1008, an image generation IC 1010, and I / O ports 1012, 1014 are connected to each other via a system bus 1016 so that data can be transmitted and received. A display 1018 is connected to the image generation IC 1010, a speaker 1020 is connected to the sound generation IC 1008, a control device 1022 is connected to the I / O port 1012, and a communication device 1024 is connected to the I / O port 1014. Has been.
[0109]
The information storage medium 1006 mainly stores programs, image data for expressing display objects, sound data, and the like. For example, a consumer game device uses a CD-ROM, game cassette, DVD, or the like as an information storage medium for storing a game program or the like. The arcade game machine uses a memory such as a ROM. In this case, the information storage medium 1006 is a ROM 1002.
[0110]
The control device 1022 corresponds to a game controller, an operation panel, and the like, and is a device for inputting a result of a determination made by the player in accordance with the progress of the game to the device main body.
[0111]
In accordance with a program stored in the information storage medium 1006, a system program stored in the ROM 1002 (such as device initialization information), a signal input by the control device 1022, the CPU 1000 controls the entire device and performs various data processing. . The RAM 1004 is a storage means used as a work area of the CPU 1000 and stores the given contents of the information storage medium 1006 and the ROM 1002 or the calculation result of the CPU 1000. A data structure having a logical configuration for realizing the present embodiment is constructed on the RAM or the information storage medium.
[0112]
Further, this type of apparatus is provided with a sound generation IC 1008 and an image generation IC 1010 so that game sounds and game images can be suitably output. The sound generation IC 1008 is an integrated circuit that generates game sounds such as sound effects and background music based on information stored in the information storage medium 1006 and the ROM 1002, and the generated game sounds are output by the speaker 1020. The image generation IC 1010 is an integrated circuit that generates pixel information to be output to the display 1018 based on image information sent from the RAM 1004, the ROM 1002, the information storage medium 1006, and the like. As the display 1018, a so-called head mounted display (HMD) can be used.
[0113]
The communication device 1024 exchanges various types of information used inside the game device with the outside. The communication device 1024 is connected to other game devices to send and receive given information according to the game program, and to connect a communication line. It is used for sending and receiving information such as game programs.
[0114]
Various processes described with reference to FIGS. 1 to 15B include an information storage medium 1006 that stores information such as programs and data, a CPU 1000 that operates based on information from the information storage medium 1006, and an image generation IC 1010. Alternatively, it is realized by a sound generation IC 1008 or the like. The processing performed by the image generation IC 1010, the sound generation IC 1008, and the like may be performed by software using the CPU 1000 or a general-purpose DSP.
[0115]
When the present embodiment is applied to an arcade game apparatus as shown in FIG. 1 described above, a CPU, an image generation IC, a sound generation IC, and the like are mounted on a system board (circuit board) 1106 built in the apparatus. The Various information for realizing (executing) the present embodiment (the present invention) (information for performing an operation for moving the moving object in the object space, two-dimensional shading that can be set to an arbitrary shape) The calculation change area is set in the map in the object space, and the information for changing the shading calculation applied to the moving object according to the shading calculation changing area where the moving object is located, at a given viewpoint in the object space The information for generating the image is stored in the semiconductor memory 1108 which is an information storage medium on the system board 1106. Hereinafter, these pieces of information are referred to as stored information.
[0116]
FIG. 17A shows an example in which the present embodiment is applied to a home game device. The player enjoys the game by operating the game controllers 1202 and 1204 while viewing the game image displayed on the display 1200. In this case, the stored information is stored in a CD-ROM 1206, memory cards 1208, 1209, etc., which are information storage media detachable from the main unit.
[0117]
FIG. 17B shows a host device 1300 and terminals 1304-1 to 1304- connected to the host device 1300 via a communication line (a small-scale network such as a LAN or a wide area network such as the Internet) 1302. An example in which the present embodiment is applied to a system including n will be shown. In this case, the stored information is stored in an information storage medium 1306 such as a magnetic disk device, a magnetic tape device, or a semiconductor memory that can be controlled by the host device 1300, for example. When the terminals 1304-1 to 1304-n have a CPU, an image generation IC, and a sound processing IC and can generate game images and game sounds stand-alone, the host device 1300 receives game images and games. A game program or the like for generating sound is delivered to the terminals 1304-1 to 1304-n. On the other hand, if it cannot be generated stand-alone, the host device 1300 generates a game image and a game sound, which is transmitted to the terminals 1304-1 to 1304-n and output at the terminal.
[0118]
In the case of the configuration of FIG. 17B, the processing of the present invention may be distributed and processed between the host device and the terminal (when a server is provided, the host device, the server, and the terminal). Good. The storage information for realizing the present invention is distributed to the information storage medium of the host device and the information storage medium of the terminal (or the information storage medium of the host device, the information storage medium of the server, and the information storage medium of the terminal). May be stored.
[0119]
The terminal connected to the communication line may be a home game device or an arcade game device. When the arcade game device is connected to a communication line, portable information storage that can exchange information with the arcade game device and also exchange information with the home game device. It is desirable to use a device (memory card, portable game device).
[0120]
The present invention is not limited to that described in the above embodiment, and various modifications can be made.
[0121]
For example, in the invention according to the dependent claims of the present invention, a part of the constituent features of the dependent claims can be omitted. Moreover, the principal part of the invention according to one independent claim of the present invention can be made dependent on another independent claim.
[0122]
In the present embodiment, the case where the shading calculation change region is configured by one or a plurality of primitive surfaces (shadow polygons) has been described. In order to facilitate the setting of the shape of the shading calculation change region according to the present invention, it is particularly desirable that the shading calculation change region is configured by the primitive surface as described above.
[0123]
In the present embodiment, the search for the course block is performed before the search for the shading calculation change region (primitive plane) where the moving body is located. However, the scope of the present invention also includes a case of directly searching for a shading calculation change region where a moving body is located without using such a course block search result.
[0124]
Further, the shading calculation parameters set in the shading calculation change area are not limited to those described in the present embodiment.
[0125]
In the present embodiment, the shading calculation change area is set in the area that becomes a shadow of the three-dimensional object. However, the shading calculation change area may be set regardless of the actually displayed three-dimensional object.
[0126]
Further, the structure of the map data and the data structure of the shading calculation change area are not limited to those described with reference to FIGS.
[0127]
The image data creation tool described with reference to FIGS. 10 to 12B is particularly effective in creating image data used in the game device described with reference to FIGS. 1 to 9B, but is not limited thereto. It is not a thing.
[0128]
In addition to the motorcycle game, the present invention provides various games (car game, airplane game, spaceship game, fighting game, robot battle game, sports game, competition game, shooting game, role playing game, music performance game, dance game, Applicable to quiz games.
[0129]
The present invention is also applicable to various game devices such as a business game device, a home game device, a large attraction device in which a large number of players participate, a simulator, a multimedia terminal, an image generation device, and a system board for generating a game image. it can.
[Brief description of the drawings]
FIG. 1 is a diagram showing an example when the present embodiment is applied to an arcade game apparatus.
FIG. 2 is an example of a block diagram of the game apparatus according to the present embodiment.
FIG. 3 is an example of a game image generated according to the present embodiment.
FIGS. 4A and 4B are diagrams for explaining a calculation change region (shading calculation change region).
FIG. 5 is a diagram for explaining an example of an operation change area when a three-dimensional object is a tree.
FIG. 6 is a diagram for explaining an example of a calculation change area when a three-dimensional object is a tunnel.
FIGS. 7A and 7B are diagrams for explaining a method of using a course block.
FIGS. 8A and 8B are diagrams for explaining a method of setting a shading calculation parameter in a calculation change area.
FIGS. 9A and 9B are diagrams for explaining examples of map data and calculation change region data. FIG.
FIG. 10 is an example of a block diagram of an image data creation tool.
FIGS. 11A and 11B are examples of images generated based on image data created by an image data creation tool.
FIGS. 12A and 12B are diagrams illustrating examples of a confirmation screen for a map and a confirmation screen for an operation change area displayed in a wire frame by the image data creation tool.
FIG. 13 is an example of a flowchart showing a detailed processing example of the present embodiment.
FIG. 14 is a diagram for explaining course block search and search for shadow polygons registered in a course block.
FIGS. 15A and 15B show processing for determining whether or not the representative point of the moving object is located in the shadow polygon, and the representative point of the moving object from the luminance parameter set for the shadow polygon. It is a figure for demonstrating the process which calculates | requires the brightness | luminance parameter.
FIG. 16 is a diagram illustrating an example of a hardware configuration capable of realizing the present embodiment.
FIGS. 17A and 17B are diagrams illustrating examples of various types of apparatuses to which the present embodiment is applied.
[Explanation of symbols]
20 Mobile
30 calculation change area (shading calculation change area, shadow area)
32 trees
34 Tunnel
40 courses
100 processor
110 Game calculation part
112 Mobile object calculation unit
114 Viewpoint control unit
116 Shading calculation change unit
118 Course Block Search Department
120 Moving body position determination unit
122 Parameter calculation unit
130 Operation unit
140 storage unit
142 Map data storage unit
144 Calculation change area data storage unit
150 Information storage medium
160 Image generator
162 Display section
170 Sound generator
172 sound output unit
174 Communication Department
176 I / F section
180 memory card
200 keyboard
202 mouse
210 Processing unit
212 Map data generator
213 Map display area
214 Calculation change area data creation unit
215 Calculation change area display
216 Information storage medium
218 display
226 Tool program

Claims (16)

画像を生成するためのゲーム装置であって、
オブジェクト空間におけるマップを所与の3次元座標によって定義するマップデータを記憶する手段と、
前記所与の3次元座標と同一座標系の2次元座標成分に対してシェーディング演算パラメータを割り当てることによって、前記マップに対して任意の形状のシェーディング演算変更領域を定義する演算変更領域データを記憶する手段と、
予め用意された前記マップデータに基づいて前記オブジェクト空間内に設定された前記マップ上で移動体を移動させる移動演算を行う手段と、
前記移動演算によって算出された前記移動体の位置データと、予め用意された前記演算変更領域データとに基づいて、前記移動体が位置するシェーディング演算変更領域に対応するシェーディング演算パラメータを算出し、算出されたシェーディング演算パラメータに応じて、前記移動体に対するシェーディング演算を行う手段と、
オブジェクト空間内の所与の視点での画像を生成する手段と、
を含むことを特徴とするゲーム装置。
A game device for generating an image,
Means for storing map data defining a map in object space by given three-dimensional coordinates;
By assigning a shading calculation parameter to a two-dimensional coordinate component in the same coordinate system as the given three-dimensional coordinate, calculation change area data defining a shading calculation change area having an arbitrary shape is stored for the map. Means,
Means for performing a movement operation for moving a moving body on the map set in the object space based on the map data prepared in advance;
Based on the position data of the moving body calculated by the movement calculation and the calculation change area data prepared in advance, a shading calculation parameter corresponding to the shading calculation change area where the moving body is located is calculated and calculated. Means for performing a shading operation on the moving body according to the performed shading operation parameters;
Means for generating an image at a given viewpoint in object space;
A game apparatus comprising:
請求項1において、
オブジェクト空間内の前記マップに相当するコース上に設定されたコースブロックの中から前記移動体が位置するコースブロックが検索され、検索されたコースブロックに関連づけて登録されたシェーディング演算変更領域が検索されることを特徴とするゲーム装置。
In claim 1,
A course block in which the moving body is located is searched from course blocks set on a course corresponding to the map in the object space, and a shading calculation change area registered in association with the searched course block is searched. The game device characterized by the above-mentioned.
請求項1又は2において、
前記移動体のシェーディング演算に使用されるシェーディング演算パラメータが、前記シェーディング演算変更領域に設定されるシェーディング演算パラメータと前記シェーディング演算変更領域内での前記移動体のローカル座標とに基づいて求められることを特徴とするゲーム装置。
In claim 1 or 2,
The shading calculation parameters used for the shading calculation of the moving object are obtained based on the shading calculation parameters set in the shading calculation change area and the local coordinates of the moving object in the shading calculation change area. A game device.
請求項1乃至3のいずれかにおいて、
前記シェーディング演算変更領域に設定されるシェーディング演算パラメータが、輝度、光源ベクトル、光源の位置、光源の種類、光源の強さ及び環境光のパラメータの少なくとも1つを含むことを特徴とするゲーム装置。
In any one of Claims 1 thru | or 3,
The game apparatus, wherein the shading calculation parameters set in the shading calculation change region include at least one of a luminance, a light source vector, a light source position, a light source type, a light source intensity, and an ambient light parameter.
請求項1乃至4のいずれかにおいて、
前記シェーディング演算変更領域が、オブジェクト空間内の3次元オブジェクトの陰となるべき領域に設定されていることを特徴とするゲーム装置。
In any one of Claims 1 thru | or 4,
The game apparatus according to claim 1, wherein the shading calculation change area is set in an area to be shaded by a three-dimensional object in an object space.
請求項1乃至5のいずれかにおいて、
前記シェーディング演算変更領域のデータが、マップデータに含まれるX、Z座標データに基づいて求められるX、Z座標データと、シェーディング演算パラメータとを含むことを特徴とするゲーム装置。
In any one of Claims 1 thru | or 5,
The game apparatus, wherein the shading calculation change area data includes X and Z coordinate data obtained based on X and Z coordinate data included in map data, and a shading calculation parameter.
請求項6において、
前記シェーディング演算変更領域のデータのY座標データの部分に、前記シェーディング演算パラメータが代入されていることを特徴とするゲーム装置。
In claim 6,
The game apparatus, wherein the shading calculation parameter is substituted into a Y coordinate data portion of the data of the shading calculation change area.
画像データを作成するための画像データ作成装置であって、
操作手段からの入力データに基づいて、マップデータを作成するマップデータ作成手段と、
操作手段からの入力データに基づいて、シェーディング演算変更領域のデータを作成する演算変更領域データ作成手段と、
作成されたマップデータに含まれるX、Y、Z座標データに基づいて、マップの確認画面をディスプレイに表示させるマップ表示手段と、
作成されたシェーディング演算変更領域のデータに含まれるX、Y、Z座標データに基づいて、シェーディング演算変更領域の確認画面をディスプレイに表示させる演算変更領域表示手段とを含み、
前記演算変更領域データ作成手段が、
前記シェーディング演算変更領域のデータのY座標データとして、シェーディング演算パラメータを設定し、
前記演算変更領域表示手段が、
シェーディング演算変更領域のデータのX、Z座標データと前記シェーディング演算パラメータとに基づいて、シェーディング演算変更領域の確認画面を3次元的にディスプレイに表示させることを特徴とする画像データ作成装置。
An image data creation device for creating image data,
Map data creation means for creating map data based on input data from the operation means;
Calculation change area data creation means for creating data of the shading calculation change area based on input data from the operation means;
Map display means for displaying a map confirmation screen on the display based on the X, Y, Z coordinate data included in the generated map data;
Calculation change area display means for displaying a confirmation screen of the shading calculation change area on the display based on the X, Y, Z coordinate data included in the generated shading calculation change area data,
The calculation change area data creating means
As the Y coordinate data of the data of the shading calculation change area, a shading calculation parameter is set,
The calculation change region display means is
An image data creation device, wherein a confirmation screen for a shading calculation change area is displayed three-dimensionally on a display based on X and Z coordinate data of shading calculation change area data and the shading calculation parameters.
画像を生成するためのプログラムを記憶する情報記憶媒体であって、
オブジェクト空間におけるマップを所与の3次元座標によって定義するマップデータを記憶する手段と、
前記所与の3次元座標と同一座標系の2次元座標成分に対してシェーディング演算パラメータを割り当てることによって、前記マップに対して任意の形状のシェーディング演算変更領域を定義する演算変更領域データを記憶する手段と、
予め用意された前記マップデータに基づいて前記オブジェクト空間内に設定された前記マップ上で移動体を移動させる移動演算を行う手段と、
前記移動演算によって算出された前記移動体の位置データと、予め用意された前記演算変更領域データとに基づいて、前記移動体が位置するシェーディング演算変更領域に対応するシェーディング演算パラメータを算出し、算出されたシェーディング演算パラメータに応じて、前記移動体に対するシェーディング演算を行う手段と、
オブジェクト空間内の所与の視点での画像を生成する手段としてコンピュータを機能させるためのプログラムを記憶することを特徴とする情報記憶媒体。
An information storage medium for storing a program for generating an image,
Means for storing map data defining a map in object space by given three-dimensional coordinates;
By assigning a shading calculation parameter to a two-dimensional coordinate component in the same coordinate system as the given three-dimensional coordinate, calculation change area data defining a shading calculation change area having an arbitrary shape is stored for the map. Means,
Means for performing a movement operation for moving a moving body on the map set in the object space based on the map data prepared in advance;
Based on the position data of the moving body calculated by the movement calculation and the calculation change area data prepared in advance, a shading calculation parameter corresponding to the shading calculation change area where the moving body is located is calculated and calculated. Means for performing a shading operation on the moving body according to the performed shading operation parameters;
An information storage medium for storing a program for causing a computer to function as means for generating an image at a given viewpoint in an object space.
請求項9において、
オブジェクト空間内の前記マップに相当するコース上に設定されたコースブロックの中から前記移動体が位置するコースブロックが検索され、検索されたコースブロックに関連づけて登録されたシェーディング演算変更領域が検索されることを特徴とする情報記憶媒体。
In claim 9,
A course block in which the moving body is located is searched from course blocks set on a course corresponding to the map in the object space, and a shading calculation change area registered in association with the searched course block is searched. An information storage medium.
請求項9又は10において、
前記移動体のシェーディング演算に使用されるシェーディング演算パラメータが、前記シェーディング演算変更領域に設定されるシェーディング演算パラメータと前記シェーディング演算変更領域内での前記移動体のローカル座標とに基づいて求められることを特徴とする情報記憶媒体。
In claim 9 or 10,
The shading calculation parameters used for the shading calculation of the moving object are obtained based on the shading calculation parameters set in the shading calculation change area and the local coordinates of the moving object in the shading calculation change area. A characteristic information storage medium.
請求項9乃至11のいずれかにおいて、
前記シェーディング演算変更領域に設定されるシェーディング演算パラメータが、輝度、光源ベクトル、光源の位置、光源の種類、光源の強さ及び環境光のパラメータの少なくとも1つを含むことを特徴とする情報記憶媒体。
In any of claims 9 to 11,
The shading calculation parameter set in the shading calculation change area includes at least one of a luminance, a light source vector, a light source position, a light source type, a light source intensity, and an ambient light parameter. .
請求項9乃至12のいずれかにおいて、
前記シェーディング演算変更領域が、オブジェクト空間内の3次元オブジェクトの陰となるべき領域に設定されていることを特徴とする情報記憶媒体。
In any of claims 9 to 12,
The information storage medium characterized in that the shading calculation change area is set in an area to be shaded by a three-dimensional object in an object space.
請求項9乃至13のいずれかにおいて、
前記シェーディング演算変更領域のデータが、マップデータに含まれるX、Z座標データに基づいて求められるX、Z座標データと、シェーディング演算パラメータとを含むことを特徴とする情報記憶媒体。
In any of claims 9 to 13,
An information storage medium characterized in that the data of the shading calculation change area includes X and Z coordinate data obtained based on X and Z coordinate data included in map data, and a shading calculation parameter.
請求項14において、
前記シェーディング演算変更領域のデータのY座標データの部分に、前記シェーディング演算パラメータが代入されていることを特徴とする情報記憶媒体。
In claim 14,
The information storage medium, wherein the shading calculation parameter is substituted into a Y coordinate data portion of the data of the shading calculation change area.
画像データを作成するための画像データ作成装置に使用されるプログラムを記憶する情報記憶媒体であって、
操作手段からの入力データに基づいて、マップデータを作成するマップデータ作成手段と、
操作手段からの入力データに基づいて、シェーディング演算変更領域のデータを作成する演算変更領域データ作成手段と、
作成されたマップデータに含まれるX、Y、Z座標データに基づいて、マップの確認画面をディスプレイに表示させるマップ表示手段と、
作成されたシェーディング演算変更領域のデータに含まれるX、Y、Z座標データに基づいて、シェーディング演算変更領域の確認画面をディスプレイに表示させる演算変更領域表示手段としてコンピュータを機能させ、
前記演算変更領域データ作成手段が、
前記シェーディング演算変更領域のデータのY座標データとして、シェーディング演算パラメータを設定し、
前記演算変更領域表示手段が、
シェーディング演算変更領域のデータのX、Z座標データと前記シェーディング演算パラメータとに基づいて、シェーディング演算変更領域の確認画面を3次元的にディスプレイに表示させるプログラムを記憶することを特徴とする情報記憶媒体。
An information storage medium for storing a program used in an image data creation device for creating image data,
Map data creation means for creating map data based on input data from the operation means;
Calculation change area data creation means for creating data of the shading calculation change area based on input data from the operation means;
Map display means for displaying a map confirmation screen on the display based on the X, Y, Z coordinate data included in the generated map data;
Based on the X, Y, Z coordinate data included in the created shading calculation change area data, the computer functions as a calculation change area display means for displaying a confirmation screen for the shading calculation change area on the display,
The calculation change area data creating means
As the Y coordinate data of the data of the shading calculation change area, a shading calculation parameter is set,
The calculation change region display means is
An information storage medium for storing a program for three-dimensionally displaying a confirmation screen for a shading calculation change area on the basis of X and Z coordinate data of the data of the shading calculation change area and the shading calculation parameter .
JP11111999A 1999-04-19 1999-04-19 Game device, image data creation tool, and information storage medium Expired - Fee Related JP4001435B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11111999A JP4001435B2 (en) 1999-04-19 1999-04-19 Game device, image data creation tool, and information storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11111999A JP4001435B2 (en) 1999-04-19 1999-04-19 Game device, image data creation tool, and information storage medium

Publications (3)

Publication Number Publication Date
JP2000300842A JP2000300842A (en) 2000-10-31
JP2000300842A5 JP2000300842A5 (en) 2006-06-22
JP4001435B2 true JP4001435B2 (en) 2007-10-31

Family

ID=14552919

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11111999A Expired - Fee Related JP4001435B2 (en) 1999-04-19 1999-04-19 Game device, image data creation tool, and information storage medium

Country Status (1)

Country Link
JP (1) JP4001435B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6983082B2 (en) * 2002-11-15 2006-01-03 Warner Bros. Entertainment Inc. Reality-based light environment for digital imaging in motion pictures
CN116310241B (en) * 2023-03-31 2023-10-13 北京易智时代数字科技有限公司 Virtual character position control method, device, electronic equipment and storage medium

Also Published As

Publication number Publication date
JP2000300842A (en) 2000-10-31

Similar Documents

Publication Publication Date Title
JP3249955B2 (en) Image generation system and information storage medium
JP4856335B2 (en) Program, information storage medium, and game apparatus
JP3467197B2 (en) GAME DEVICE AND INFORMATION STORAGE MEDIUM
JP2009129167A (en) Program, information storage medium, and image generation system
JP4001435B2 (en) Game device, image data creation tool, and information storage medium
JP4651204B2 (en) Image generation system, program, and information storage medium
JP4721476B2 (en) Image generation system and information storage medium
JP2001325605A (en) Game system and information storage medium
JP4187192B2 (en) Image generation system, program, and information storage medium
JP4245356B2 (en) GAME SYSTEM AND INFORMATION STORAGE MEDIUM
JPH10113465A (en) Game device, screen generating method, and information memory medium
JP4574058B2 (en) Image generation system, program, and information storage medium
JP4247856B2 (en) Image generation system and information storage medium
JP3269813B2 (en) Image generation system and information storage medium
JP3420987B2 (en) GAME SYSTEM AND INFORMATION STORAGE MEDIUM
JP2002092637A (en) Game system and information storage medium
JP4450535B2 (en) Image generation system and information storage medium
JP2005122479A (en) Program, information storage medium and image forming apparatus
JP4632521B2 (en) GAME SYSTEM AND INFORMATION STORAGE MEDIUM
JP4261211B2 (en) GAME DEVICE AND INFORMATION STORAGE MEDIUM
JP4162125B2 (en) Image generation system, program, and information storage medium
JP4480322B2 (en) GAME SYSTEM AND INFORMATION STORAGE MEDIUM
JP4803909B2 (en) Image generation system, program, and information storage medium
JP2008198232A (en) Image forming system, program, and information storage medium
JP4443084B2 (en) Image generation system and information storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060327

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060427

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070124

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070320

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070808

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070814

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100824

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100824

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100824

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110824

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110824

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120824

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120824

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130824

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R370 Written measure of declining of transfer procedure

Free format text: JAPANESE INTERMEDIATE CODE: R370

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees