JP4303395B2 - GAME DEVICE AND INFORMATION STORAGE MEDIUM - Google Patents

GAME DEVICE AND INFORMATION STORAGE MEDIUM Download PDF

Info

Publication number
JP4303395B2
JP4303395B2 JP2000106850A JP2000106850A JP4303395B2 JP 4303395 B2 JP4303395 B2 JP 4303395B2 JP 2000106850 A JP2000106850 A JP 2000106850A JP 2000106850 A JP2000106850 A JP 2000106850A JP 4303395 B2 JP4303395 B2 JP 4303395B2
Authority
JP
Japan
Prior art keywords
area
image
reflected
object space
computer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2000106850A
Other languages
Japanese (ja)
Other versions
JP2001286675A (en
Inventor
聡 大内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Namco Ltd
Bandai Namco Entertainment Inc
Original Assignee
Namco Ltd
Namco Bandai Games Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Ltd, Namco Bandai Games Inc filed Critical Namco Ltd
Priority to JP2000106850A priority Critical patent/JP4303395B2/en
Publication of JP2001286675A publication Critical patent/JP2001286675A/en
Application granted granted Critical
Publication of JP4303395B2 publication Critical patent/JP4303395B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images

Description

【0001】
【発明の属する技術分野】
本発明は、オブジェクト空間内の所与の視点での画像を生成し、当該生成画像を表示させることによって所与のゲームを実行するゲーム装置等に関する。
【0002】
【従来の技術】
コンピュータグラフィックスでは、仮想的な3次元空間であるオブジェクト空間内に置かれた鏡や池などを表現する反射率の高いオブジェクト(反射物体)をよりリアルに表現するために、いくつかの工夫を凝らしている。その1つとして、オブジェクト空間内の指定された領域をレンダリングする際に、レイ・トレーシングと呼ばれるアルゴリズムを用いて、他の物体が反射物体の表面に反射して映るように表現する方法がある。
【0003】
レイ・トレーシングとは、所与の視点となる仮想カメラに届いた光線を逆向きに追跡し、当該光線に影響を与える物体の位置および色等を検出することによって、当該光線に対応するピクセルの色を決定するものである。例えば、仮想カメラの視界内に反射物体があり、追跡する光線が反射物体の表面で反射して、他の物体の表面にぶつかる。この場合には、光線が反射した反射物体の部分に、物体の表面の色が反映されることとなる。
【0004】
【発明が解決しようとする課題】
しかしながら、オブジェクト空間には複数のオブジェクトが存在し、そして、各オブジェクトは、色や表面特性等を示す複数の属性を有する多数のポリゴンによって構成されている。このため、オブジェクト空間のレンダリングに際して、レイ・トレーシングの手法を施す場合には、各オブジェクトの配置位置、ポリゴンの属性、光源の位置、仮想カメラの位置等が関わってくるため、多くの処理時間を要する。
【0005】
特に、ユーザが操作部から入力する操作信号に応じて仮想カメラの位置が様々に変化するゲーム装置にあっては、画像生成に係る時間遅延は致命的な問題であった。とりわけ、仮想カメラが高速で移動するレースゲームや、格闘アクションゲーム等の高い処理速度が要求されるゲームにおいて、忠実に光線追跡を実行して反射物体をレンダリングすることは現実的ではなかった。
【0006】
本発明は、上記問題点を解決するためになされたものであって、生成した画像を利用して、反射物体の表現をより簡単化し、画像生成の処理速度を向上させることを目的とする。
【0007】
上記課題を解決するために、第1の発明は、オブジェクト空間内の所与の視点での画像を生成し、当該生成画像を表示させることによって所与のゲームを実行するゲーム装置であって、反射領域を前記オブジェクト空間内から決定するための決定手段(例えば、図4の逃げ水ポリゴン決定部222)と、前記決定手段により決定された前記反射領域に対応する被反射領域を前記生成画像内から特定するための特定手段(例えば、図4のテクスチャ生成部242)と、前記特定手段により特定された前記被反射領域の画像を、前記反射領域に対応する前記生成画像内の領域に合成させるための合成手段(例えば、図4のレンダリング部240)と、を含むことを特徴とする。
【0008】
第13の発明は、オブジェクト空間内の所与の視点での画像を生成し、当該生成画像を表示させることによって所与のゲームを実行するための情報を記憶した情報記憶媒体であって、反射領域を前記オブジェクト空間内から決定するための決定情報(例えば、図4のゲームプログラム42;図14のフローチャートのステップS1)と、前記反射領域に対応する被反射領域を前記生成画像内から特定するための特定情報(例えば、図4のゲームプログラム42;図14のフローチャートのステップS3〜S5)と、前記被反射領域の画像を、前記反射領域に対応する前記生成画像内の領域に合成させるための合成情報(例えば、図4のゲームプログラム42;図14のフローチャートのステップS9)と、を含むことを特徴とする。
【0009】
この第1あるいは第13の発明によれば、反射領域に映し出される画像(被反射領域)が生成画像内に存在する場合には、生成画像を利用することにより、反射領域の反射に係る表現を迅速かつ容易に実現できる。
【0010】
第2の発明は、オブジェクト空間内の所与の視点での画像を生成し、当該生成画像を表示させることによって所与のゲームを実行するゲーム装置であって、反射領域を前記オブジェクト空間内から決定するための決定手段(例えば、図4の逃げ水ポリゴン決定部222)と、前記決定手段により決定された前記反射領域に対応する被反射領域を前記生成画像内から特定するための特定手段(例えば、図4のテクスチャ生成部242)と、前記特定手段により特定された前記被反射領域の画像を、前記反射領域にマッピングさせるための合成手段(例えば、図4のレンダリング部240)と、を含むことを特徴とする。
【0011】
第14の発明は、オブジェクト空間内の所与の視点での画像を生成し、当該生成画像を表示させることによって所与のゲームを実行するための情報を記憶した情報記憶媒体であって、反射領域を前記オブジェクト空間内から決定するための決定情報(例えば、図4のゲームプログラム42;図14のフローチャートのステップS1)と、前記反射領域に対応する被反射領域を前記生成画像内から特定するための特定情報(例えば、図4のゲームプログラム42;図14のフローチャートのステップS3〜S5)と、前記被反射領域の画像を、前記反射領域にマッピングさせるための合成情報(例えば、図4のゲームプログラム42;図14のフローチャートのステップS6〜7)と、を含むことを特徴とする。
【0012】
この第2あるいは第14の発明によれば、被反射領域の画像を反射領域にマッピングできるため、反射物体を容易かつ迅速に表現できる。また、被反射領域の画像を反射領域にマッピングするため、反射物体の表面特性にあわせたマッピングを施すことにより、反射物体に係る反射をよりリアルに表現できる。
【0013】
また、第3の発明のように、第1または第2の発明のゲーム装置において、前記合成手段は、前記被反射領域の画像を歪ませることとしてもよい。
【0014】
また、第4の発明のように、第2の発明のゲーム装置において、前記合成手段は、前記オブジェクト空間における前記反射領域の頂点座標を変更することにより、前記被反射領域の画像を歪ませてマッピングすることとしてもよい。
【0015】
また、第15の発明のように、第13または第14の発明の情報記憶媒体において、前記合成情報は、前記被反射領域の画像を歪ませるための情報を含むこととしてもよい。
【0016】
この第3第4あるいは第15の発明によれば、被反射領域の画像を生成画像内の所与の領域に合成するとき、あるいは、被反射領域の画像を反射領域にマッピングするときに、当該被反射領域の画像を歪ませることができる。従って、表現しようとする反射領域の形状、性質、状態に応じて映し出す画像を変形できる。
【0017】
また、第5の発明のように、第1から第4のいずれか発明のゲーム装置において、前記決定手段は、決定した前記反射領域の位置と、前記所与の視点との距離に応じて、当該反射領域の形状あるいは大きさを変更することとしてもよい。
【0018】
また、第6の発明のように、第1から第4のいずれか発明のゲーム装置において、前記決定手段は、前記所与の視点の俯角に応じて、決定した前記反射領域の形状あるいは大きさを変更することとしてもよい。
【0019】
また、第16の発明のように、第13から第15のいずれか発明の情報記憶媒体において、前記所与の視点と前記反射領域との距離に応じて、当該反射領域を変更するための変更情報を含むこととしてもよい。
【0020】
また、第17の発明のように、第13から第15のいずれか発明の情報記憶媒体において、前記所与の視点の俯角に応じて、前記反射領域を変更するための変更情報を含むこととしてもよい。
【0021】
また、第18の発明のように、第16または第17の発明の情報記憶媒体において、前記変更情報(例えば、図4のゲームプログラム42;図9(a)、(b))は、前記反射領域の形状あるいは大きさを変化させる情報を含むこととしてもよい。
【0022】
この第5第6第16第17あるいは第18の発明によれば、反射領域の形状あるいは大きさを、反射領域から所与の視点までの距離や、所与の視点の俯角に応じて変更できる。従って、例えば、反射領域を湖面上に特定する場合、視点との距離や俯角に応じて反射する領域を変更できるため、反射をよりリアルに表現できる。
【0023】
また、第7の発明のように、第1から第4のいずれか発明のゲーム装置において、前記合成手段は、前記反射領域の位置と前記所与の視点との距離に応じて、前記被反射領域の画像の透明度を変化させて合成することとしてもよい。
【0024】
また、第8の発明のように、第5または第6の発明のゲーム装置において、前記合成手段は、前記反射領域に対する前記所与の視点の俯角に応じて、前記被反射領域の画像の透明度を変化させることとしてもよい。
【0025】
また、第19の発明のように、第16または第17の発明の情報記憶媒体において、前記変更情報(例えば、図4のゲームプログラム42;図9(c)、(d))は、前記反射領域に対応する前記被反射領域の画像の透明度を決定させるための情報を含み、前記合成情報(例えば、図4のゲームプログラム42;図14のフローチャートのステップS9)は、前記変更情報により決定された透明度に基づいて前記被反射領域の画像を合成することとしてもよい。
【0026】
この第7第8あるいは第19の発明によれば、反射領域と所与の視点との距離、あるいは、所与の視点の俯角に応じて被反射領域の画像の透明度を変化させるので、例えば、オブジェクト空間における光源の影響等による反射領域の見え方を変化させて表現できる。
【0027】
また、第9の発明のように、第1から第8のいずれか発明のゲーム装置において、前記決定手段は、所与の条件を具備する前記オブジェクト空間内のオブジェクトの表面に、反射領域を決定することとしてもよい。
【0028】
この第9の発明によれば、例えば、環境温度によって発生が左右される逃げ水を反射物体として表現する場合、所与の条件を温度とすることにより、熱いところにのみ逃げ水を発生させるように表現できる。
【0029】
また、第10の発明のように、第1から第9のいずれか発明のゲーム装置において、前記合成手段は、前記反射領域にキャラクタが存在する場合、当該キャラクタの反射画像を合成するために、当該キャラクタの画像と、当該キャラクタの画像とを交互に合成することとしてもよい。
【0030】
この第10の発明によれば、反射領域にキャラクタが存在する場合であっても、キャラクタの画像と、当該キャラクタの画像とを交互に生成画像内に合成できる。従って、反射領域と、キャラクタと、キャラクタの画像とが奥行き順に正しく表現できる。
【0031】
また、第11の発明のように、第1から第10のいずれか発明のゲーム装置において、前記合成手段は、前記特定手段により特定された前記被反射領域の画像を反転させて合成することとしてもよい。ここで、反転とは、白黒反転等の色彩を反転する意味ではなく、所与の軸を対称軸として、上下、左右等に画像を反転させることを意味するものである。
【0032】
この第11の発明によれば、被反射領域の画像を反転して生成画像内の対応する領域に合成、あるいは、反射領域にマッピングすることとしたので、被反射領域を鏡のように映し出す反射物体を簡単に表現することができる。
【0033】
また、第12の発明のように、第1から第11のいずれか発明のゲーム装置において、前記決定手段は、前記所与の視点の移動に応じて、前記反射領域の位置を移動させることにより、逃げ水を表現することとしてもよい。
【0034】
この第12の発明によれば、所与の視点の移動に応じて反射領域が移動されるため、逃げ水をリアルに表現することができる。
【0035】
第20の発明は、複数のプレーヤが、所与のゲームを同一のオブジェクト空間内で遊ぶための、通信回線を介して接続された複数のゲーム装置を含むゲームシステムであって、前記各ゲーム装置は、反射領域と、当該反射領域に対応する被反射領域とを、前記生成画像内から特定するための特定手段(例えば、図4の逃げ水ポリゴン決定部222およびテクスチャ生成部242)と、前記被反転領域の画像を、前記反射領域に合成させるための合成手段(例えば、図4のレンダリング部240)と、を備え、前記合成手段は、前記反射領域に自キャラクタ以外のキャラクタが存在する場合、当該キャラクタの反射画像を合成するために、当該キャラクタの画像と、当該キャラクタの画像とを交互に合成することを特徴とする。
【0036】
この第20の発明によれば、反射領域に映し出される画像(被反射領域)が生成画像内に存在する場合には、当該生成画像を利用することで、反射領域の反射に係る表現を容易にできる。また、キャラクタが反射領域に存在する場合には、当該キャラクタと、当該キャラクタの画像とを交互に生成画像内に合成できる。従って、反射領域内に重なって存在する複数のキャラクタの反射画像をも、正確に表現することができる。
【0037】
【発明の実施の形態】
以下、本発明の好適な実施形態について図面を参照して説明する。なお、以下では、本発明をバイクレースゲームに適用し、反射物体として逃げ水を表現する場合を例にとって説明するが、本発明が適用されるものはこれに限られるものではない。
【0038】
図1は、本発明を家庭用のゲーム装置に適用した場合の一例を示す図である。
図1において、ユーザは、ディスプレイ1200に映し出されたゲーム画像を見ながら、ゲームコントローラ1202、1204を操作してバイクレースゲーム等のゲームを楽しむ。この場合、ゲームプログラム等のゲームを行うために必要な情報は、本体装置に着脱自在な情報記憶媒体であるCD−ROM1206、ICカード1208、メモリカード1212等に格納されている。
【0039】
バイクレースゲームでは、レース場毎に、或いは、同じレース場であってもゲームの難易度等によって異なる環境(天候やレース場の路面状態等)が設定されている場合が多い。図2は、ディスプレイ1200に表示されたバイクレースゲームの一場面を示す図であり、ユーザは、自キャラクタ2を操作することでバイクレースゲームを楽しむ。
【0040】
図3は、レース場の環境として炎天下が設定された場合に、レース場に反射物体として逃げ水6を表現した画面例を示す図である。同図において、逃げ水6は、逃げ水6の奥方の風景を反射して映し出している。従って、炎天下のレース場の状態がよりリアルに表現されている。
【0041】
図4は、本実施の形態における機能ブロック図の一例を示す図である。図4において、機能ブロックは、操作部10と、処理部20と、表示部30と、情報記憶媒体40とから構成される。
【0042】
操作部10は、ゲームにおける自キャラクタ2の操作や、ゲーム開始あるいは中止等の指示を入力するためのものである。また、図1に示すゲームコントローラ1202、1204が、操作部10に相当する。
【0043】
処理部20は、主に、ゲーム演算部22及び画像生成部24とから構成されており、CISC型やRISC型のCPU、DSP、画像取込専用ICなどのハードウェアにより実現できる。
【0044】
ゲーム演算部22は、操作部10から入力される指示信号に応じて、情報記憶媒体40からゲームプログラム42を読み出してバイクレースゲームを実行する。また、ゲーム演算部22は、オブジェクト空間構築部220、逃げ水ポリゴン決定部222、仮想カメラ制御部224を含む。
【0045】
オブジェクト空間構築部220は、情報記憶媒体40に記憶されたゲームプログラム42や、操作部10から入力される操作信号に基づいてオブジェクト空間を構築し、仮想的なゲーム空間を設定する。
【0046】
オブジェクト空間を構成する各オブジェクトは、複数のポリゴンによって形成されるが、オブジェクト空間構築部220は、ポリゴン1つ1つに対する色や光沢等の表面特性を定義付けると共に、逃げ水発生フラグを付加する。この各ポリゴンに付加される逃げ水発生フラグとは、逃げ水の発生有無を示すフラグであり、逃げ水ポリゴン決定部222が逃げ水として表現するポリゴンをオブジェクト空間内から決定する際に参照される。
【0047】
図5は、構築されたオブジェクト空間の内、レース場をアスファルト、草、客席の各エリアに分割した例を示す図である。オブジェクト空間構築部220は、同図に示すように、オブジェクト空間を、客席エリア50−1、50−5、草エリア50−2、50−4、アスファルトエリア50−3に分割し、同じエリア内に存在するオブジェクト(ポリゴン)に対しては、逃げ水発生フラグに同じ値を設定する。
【0048】
このように、オブジェクト空間を構成する各ポリゴンに逃げ水発生フラグを付加する理由は、逃げ水を表現する場所を制限するためである。現実世界において、逃げ水は、温度が高く、かつ平坦な地面(路面)に出現しやすい。従って、設定されるレース場の環境(温度等)や、オブジェクトの種類に応じて、逃げ水発生フラグにより、逃げ水を発生させるオブジェクトを特定する。
【0049】
そして、逃げ水ポリゴン決定部222は、この逃げ水発生フラグに基づいて、逃げ水として表現するポリゴンを決定する。以下、この逃げ水を表現するために決定されたポリゴンを逃げ水ポリゴンという。
【0050】
例えば、オブジェクト空間構築部220は、図5に示すアスファルトエリア50−3におけるオブジェクト(ポリゴン)に逃げ水発生フラグを“ON”として設定し、それ以外のエリアにおけるオブジェクトには、逃げ水発生フラグを“OFF”として設定する。そして、逃げ水ポリゴン決定部222は、逃げ水発生フラグが“ON”として設定されたポリゴン、即ち、アスファルトエリア50−3を構成するポリゴンの中から逃げ水ポリゴンを決定する。図6は、アスファルトエリア50−3を構成するポリゴンの中から、太枠で囲まれた部分にあるポリゴンを逃げ水ポリゴン52として決定した例を示す図である。
【0051】
また、逃げ水ポリゴン決定部222は、必ず、視点となる仮想カメラ54の視線方向に逃げ水ポリゴンを決定する。仮想カメラ54と逃げ水ポリゴン52との間の距離56は、予め値が設定されているものの、種々の条件の変化に応じて変更される。種々の条件とは、例えば、カーブや坂道等のコースの変化や、自キャラクタ2がジャンプ等をしたことによる仮想カメラ54の俯角58の変化などが考えられる。
【0052】
ただし、距離56とは、図7に示すように、仮想カメラ54から逃げ水ポリゴン52の位置までのZ軸上、即ち、仮想カメラ52の視線方向上の距離を指す。また、俯角58は、仮想カメラ54から逃げ水ポリゴン52を見た視線ベクトルの俯角を意味する。
【0053】
図8は、右方にカーブするレース場における、逃げ水ポリゴン52の発生位置(距離56)が変化する場合の一例を示す図である。図8に示すように、仮想カメラ54の視線方向には、アスファルトエリア50−3の奥に草エリア50−2、次いで客席エリア50−1が広がっている。しかしながら、アスファルトエリア50−3以外のエリアには、逃げ水発生フラグが“OFF”として設定されているため、逃げ水ポリゴンの候補として認識されない。したがって、草エリア50−2に仮想カメラ54が近づいた場合には、逃げ水ポリゴン52の発生位置を決定できず、消滅することとなる。そこで、距離56の値を変更することにより、アスファルトエリア50−1内から逃げ水となるポリゴンを決定することとしてもよい。
【0054】
なお、逃げ水ポリゴン決定部222は、更に、逃げ水ポリゴン52として決定するポリゴンの数あるいは面積(広さ)を、決定することとしてもよい。即ち、逃げ水ポリゴン決定部222は、仮想カメラ54から視線方向に距離56隔てた位置に逃げ水ポリゴン52を代表する座標点(以下、代表点という。)を決定し、この代表点の位置にあるポリゴンから所与の面積あるいは所与の数を満たすように逃げ水として表現するポリゴンを決定することとしてもよい。
【0055】
例えば、図9(a)に示すように、距離56と逃げ水ポリゴン52の面積との関係を関数で定義することとし、逃げ水ポリゴン52の位置を決定する際に、同時に逃げ水ポリゴン52の面積を決定することとしてもよい。同図(a)において、逃げ水ポリゴン決定部222は、逃げ水ポリゴン52の代表点と仮想カメラ54との間の距離56を距離56aとした場合には、関数上の対応する面積を満たすように逃げ水ポリゴン52を決定する。あるいは、距離56aよりも距離56が短い場合には、関数に基づいて逃げ水ポリゴン52の面積を減少させる。
【0056】
また、図9(b)に示すように、仮想カメラ54の逃げ水ポリゴンに対する俯角58と逃げ水ポリゴン52の面積とを対応させてもよい。このように、距離と面積、あるいは、俯角と面積の関係を定義付けることにより、逃げ水ポリゴン52の面積が異常に大きくなったり、無秩序に変化するといったことを防止することができる。
【0057】
なお、逃げ水ポリゴン52の形状は、固定的なものでもよいし、指定された面積を満たす範囲でレース場の条件に合わせて変更させることとしてもよい。また、更に逃げ水ポリゴン52の形状を距離56や俯角58に応じて変更するようにしてもよい。
【0058】
仮想カメラ制御部224は、オブジェクト空間構築部220で設定されたオブジェクト空間における仮想カメラ54の視点位置や視線方向の制御を行う。また、仮想カメラ制御部224は、一定距離離れた自キャラクタ2の後方から追従するように仮想カメラ54を制御する。
【0059】
画像生成部24は、レンダリング部240、テクスチャ生成部242等から構成されており、仮想カメラ制御部224により制御された仮想カメラ54の視点に基づく画像を生成する処理を行い、生成した画像データを表示部30に出力する。
【0060】
以下、逃げ水ポリゴン52上に反射した画像を合成し、ゲーム画像を生成するまでの処理の順に従ってレンダリング部240およびテクスチャ生成部242について説明する。
【0061】
まず、レンダリング部240は、ゲーム演算部22により設定されたオブジェクト空間を仮想カメラ54の視点に基づいてレンダリングし、画像を生成する(以下、この生成された画像を背景画像という。)。
【0062】
次に、テクスチャ生成部242は、レンダリング部240により生成された背景画像から逃げ水ポリゴン52にマッピングする被反射領域を決定する。ここで、被反射領域とは、逃げ水が映し出す画像のことであり、既に生成した背景画像内から決定される。そして、テクスチャ生成部242は、背景画像の内、被反射領域に対応する部分をテクスチャとして生成する。そして、生成したテクスチャを再びレンダリング部240に出力する。
【0063】
被反射領域を特定する方法は、いつくか考えられる。
例えば、図10(a)に示すように、仮想カメラ54を基準として逃げ水ポリゴン52の奥方に、Z軸と垂直に交わるスクリーン60を置く。ただし、図10(a)において、(X、Y、Z)は仮想カメラ54の座標系を、(Xs、Ys)はスクリーン60の座標系をそれぞれ意味している。また、スクリーン60は、レンダリング部240が生成する背景画像の座標系をスクリーン60が置かれたZ軸上の位置に応じて拡大したものである。
【0064】
図10(b)は、図10(a)をX軸方向から見た断面図である。テクスチャ生成部242は、仮想カメラ54から各ポリゴン52−nの頂点への視線ベクトル64と、ポリゴン52−nの法線ベクトル66とを計算する。そして、2つのベクトルが成す角からポリゴン52−nにより反射されるスクリーン60上の位置68を算出する。ここに、ポリゴン52−nとは、逃げ水ポリゴン52を構成する複数のポリゴンの1つを意味する。同様の処理を各ポリゴン52−nの各頂点に対して施すことにより、ポリゴン52に対応する被反射領域62の座標を特定する。そして、テクスチャ生成部242は、特定した被反射領域62をテクスチャとして生成する。
【0065】
ただし、逃げ水ポリゴン52と仮想カメラ54との間の距離56および俯角58が一定の場合には、計算をするまでもなく背景画像の同じ座標領域が常に被反射領域62として特定される。従って、距離56あるいは俯角58の値を変更したときにのみ被反射領域を特定する計算を行うこととしてもよい。
【0066】
なお、テクスチャ生成部242は、生成したテクスチャに透明度を設定することとしてもよい。例えば、図9(c)に示すように、距離56と透明度の関係を関数で定義し、被反射領域のテクスチャの透明度を設定するようにしてもよい。同図によれば、テクスチャの透明度は、逃げ水ポリゴン52と仮想カメラ54の間の距離56が短いほど大きくなるため、逃げ水ポリゴン52に映る(反射する)画像が薄く表現される。図11は、テクスチャの透明度を薄く変化させた場合の画面例を示す図である。
【0067】
また、図9(c)の関係式を用いて、図12に示すように、逃げ水ポリゴン52にテクスチャをマッピングする際に、各ポリゴン52−nの位置に応じて透明度を変化させてもよい。図12に示すように、逃げ水72の手前部分の画像をより薄く表現できるため、逃げ水をよりリアルに表すことができる。
【0068】
また、逃げ水ポリゴン52の透明度を、図9(d)に示すように、逃げ水ポリゴン52に対する仮想カメラ54の俯角58との関数によって決定してもよい。例えば、逃げ水ポリゴン52の面積を図9(a)に示す距離56との関数によって決定し、テクスチャの透明度を図9(d)に示す俯角58との関数によって決定する等の図9に示す関数を組み合わせることにより、種々の変化に応じた逃げ水を表現することができる。
【0069】
以上のように、テクスチャ生成部242によってテクスチャが生成されると、レンダリング部240は、テクスチャ生成部242が生成した各テクスチャを上下に反転させ、オブジェクト空間上の各ポリゴン52―nにマッピングする。そして、レンダリング部240は、逃げ水ポリゴン54をレンダリングして逃げ水の画像を生成すると、既に生成した背景画像の逃げ水ポリゴン52に対応する位置に合成する。そして、完成した画像データを表示部30に出力する。
【0070】
なお、逃げ水ポリゴン52にテクスチャをマッピングする際、次のような手法を施すことにより、歪ませることとしてもよい。例えば、逃げ水ポリゴン52を構成する各ポリゴン52−nは、図6に示すように平面的に並んでいたが、各ポリゴン52−nの各頂点座標を一時的に変化させた後、テクスチャをマッピングさせることにより画像を歪ませることとしてもよい。あるいは、テクスチャの画像自体を歪ませてからマッピングさせることとしてもよい。テクスチャの画像を歪ませた例を図13に示す。同図において、逃げ水74に反射する画像が歪んでいるため、よりリアルな逃げ水を表現することができる。
【0071】
表示部30は、画像生成部24から入力される画像データを表示画面に表示させる。また、情報記憶媒体40は、ゲームプログラム42を記憶している。この情報記憶媒体40の機能は、CD−ROM、ゲームカセット、ICカード、MO、FD、DVD、メモリ、ハードディスクなどのハードウェアにより実現できる。また、ゲームプログラム42には、後述の逃げ水ポリゴン決定処理や画像生成処理を実行するためのプログラムや図9(a)〜(d)で示した関数データ等が含まれている。
【0072】
次に、本実施の形態において、生成した画像を利用して反射物体である逃げ水を表現する処理に係る動作を以下に説明する。
【0073】
図14は、本実施の形態の処理例に係る動作を示すフローチャートである。なお、図14に示す動作は、1フレームに係るゲーム画像の生成について示すものである。まず、逃げ水ポリゴン決定部222は、オブジェクト空間構築部220が構築したオブジェクト空間内から逃げ水となるポリゴン、即ち、逃げ水ポリゴン52を決定する処理を行う(ステップS1)。
【0074】
次いで、レンダリング部240は、仮想カメラ54の視点に基づくオブジェクト空間をレンダリングして背景画像を生成する(ステップS2)。そして、テクスチャ生成部242は、仮想カメラ54からポリゴン52−nへの視線ベクトル64を計算し(ステップS3)、次いで、ポリゴン52−nの法線ベクトル66を計算する(ステップS4)。
【0075】
更に、テクスチャ生成部242は、2つのベクトルからポリゴン52−nの被反射領域を特定する。同様の処理を、逃げ水ポリゴン52を構成する全てのポリゴン52−nに対して施し、逃げ水ポリゴン52の被反射領域62を特定する(ステップS5)。そして、ステップS2において生成された背景画像から被反射領域62に該当するテクスチャを生成し(ステップS6)、レンダリング部240に出力する。
【0076】
レンダリング部240は、テクスチャ生成部242から入力されたテクスチャを逃げ水ポリゴン52にマッピングした後(ステップS7)、仮想カメラ54の視点に基づいて逃げ水ポリゴン52をレンダリングする(ステップS8)。そして、ステップS2において生成された背景画像内の逃げ水ポリゴン52に対応する位置にレンダリングした画像を合成してゲーム画像を完成させ(ステップS9)、表示部30に出力して本処理を終了する。
【0077】
なお、上記説明においては、オブジェクト空間内に自キャラクタ2のみが存在する場合を説明したが、複数のキャラクタが存在する場合にも、本発明を適用することは可能である。しかし、複数のキャラクタが存在する場合には、次のような問題がある。
【0078】
図15は、複数のキャラクタが存在する場合のオブジェクト空間の一場面例を示す図である。同図において、領域100は逃げ水ポリゴンの領域を示しており、領域102は上記実施の形態において説明した被反射領域に該当する領域を示している。なお、簡明のため、同図における逃げ水ポリゴン等の形を矩形として示している。
【0079】
図15において、逃げ水ポリゴン上に存在するキャラクタ、あるいは、被反射領域に存在するキャラクタ108〜112の反転した画像は、領域100上に反映される必要がある。しかし、同図に示すオブジェクト空間のゲーム画像を上記実施の形態で説明した順に従って生成した場合、領域100上のキャラクタ、即ち、キャラクタ108および110の画像が領域100上にうまく反映されないという問題がある。
【0080】
そこで、以下の様に本発明を変形して適用することにより、この問題を解決できる。まず、オブジェクト空間において、図10(a)、(b)に示したスクリーン60と同等のスクリーンを各キャラクタの配置位置上に設定する。そして、仮想カメラ54から遠い順、即ち奥行き順に、キャラクタの配置と、当該キャラクタに設定したスクリーンに対する被反射領域の特定および画像合成処理(本処理は、上述したゲーム画像を生成する処理と同様の処理である。)を交互に行うことにより実現することができる。即ち、図16において、背景画像に対する処理、キャラクタ112に対する処理、キャラクタ110に対する処理…というように、奥行き順に本実施の形態において説明した処理を施すことにより実現することができる。
【0081】
次に、本実施の形態を実現できるハードウェアの構成の一例について、図16を用いて説明する。同図に示す装置では、CPU1000、ROM1002、RAM1004、情報記憶媒体1006、音生成IC1008、画像生成IC1010、I/Oポート1012、1014が、システムバス1016により相互にデータ入出力可能に接続されている。そして、画像生成IC1010には、ディスプレイ1018が接続され、音生成IC1008には、スピーカ1020が接続され、I/Oポート1012には、コントロール装置1022が接続され、I/Oポート1014には、通信装置1024が接続されている。
【0082】
情報記憶媒体1006は、プログラム、表示物を表現するための画像データ、音データ、プレイデータ等が主に格納されるものである。例えば、家庭用ゲーム装置では、ゲームプログラム等を格納する情報記憶媒体として、CD−ROM、ゲームカセット、DVD等が用いられ、プレイデータを格納する情報記憶媒体としてメモリカードなどが用いられる。また、業務用ゲーム装置では、ROM等のメモリやハードディスクが用いられ、この場合には、情報記憶媒体1006は、ROM1002になる。
【0083】
コントロール装置1022は、ゲームコントローラ、操作パネル等に相当するものであり、ユーザがゲーム進行に応じて行う判断の結果を装置本体に入力するための装置である。
【0084】
情報記憶媒体1006に格納されるプログラム、ROM1002に格納されるシステムプログラム(装置本体の初期化情報等)、コントロール装置1022によって入力される信号等に従って、CPU1000は、装置全体の制御や各種データ処理を行う。RAM1004は、このCPU1000の作業領域等として用いられる記憶手段であり、情報記憶媒体1006やROM1002の所与の内容、あるいはCPU1000の演算結果が格納される。また、本実施の形態を実現するための論理的な構成を持つデータ構造(例えば、図9(a)〜(d)等の関数データ)は、このRAM1004または情報記憶媒体1006に構築されることになる。
【0085】
更に、この種の装置には、音生成IC1008と画像生成IC1010とが設けられていて、ゲーム音やゲーム画像の好適な出力が行えるようになっている。音生成IC1008は、情報記憶媒体1006やROM1002に記憶される情報に基づいて効果音やバックグラウンド音楽等のゲーム音を生成する集積回路であり、生成されたゲーム音は、スピーカ1020によって出力される。また、画像生成IC1010は、RAM1004、ROM1002、情報記憶媒体1006等から出力される画像情報に基づいてディスプレイ1018に出力するための画素情報を生成する集積回路である。なお、ディスプレイ1018は、CRTやLCD、TV、プラズマディスプレイ、液晶プラズマディスプレイ、プロジェクター等の表示装置を含む意である。
【0086】
また、通信装置1024は、ゲーム装置内部で利用される各種の情報を外部とやり取りするものであり、他のゲーム装置と接続されてゲームプログラムに応じた所与の情報を送受したり、通信回線を介して、ゲームプログラム等の情報を送受すること等に利用される。
【0087】
また、図1〜図13で説明した種々の処理は、図14のフローチャートに示した処理等を行うプログラムを格納した情報記憶媒体1006と、該プログラムに従って動作するCPU1000、画像生成IC1010、音生成IC1008等によって実現される。なお、画像生成IC1010、音生成IC1008等で行われる処理は、CPU1000あるいは汎用のDSP等によりソフトウェア的に行ってもよい。
【0088】
図17に、ホスト装置1300と、このホスト装置1300と通信回線1302を介して接続される端末1304−1〜1304−nとを含むゲーム装置に本実施の形態を適用した場合の例を示す。
【0089】
この場合、逃げ水ポリゴン決定処理や画像生成処理を実行するためのプログラムや図9(a)〜(d)に示した関数データ等は、例えば、ホスト装置1300が制御可能な磁気ディスク装置、磁気テープ装置、メモリ等の情報記憶媒体1306に格納されている。また、端末1304−1〜1304−nが、CPU、画像生成IC、音生成IC、を有し、スタンドアローンでゲーム画像、ゲーム音を生成できるものである場合には、ホスト装置1300からは、ゲーム画像、ゲーム音を生成するためのゲームプログラム等が端末1304−1〜1304−nに配送される。一方、スタンドアローンで生成できない場合には、ホスト装置1300がゲーム画像、ゲーム音を生成し、これを端末1304−1〜1304−nに伝送し端末において出力することになる。
【0090】
図18は、本実施の形態を業務用ゲーム装置80に適用した場合の例を示す図である。この業務用ゲーム装置80は、レーシングバイクの形状をモデルに形成されており、シート88に座ったユーザが、スピーカ86から出力される音を聞きながら、ハンドル84やアクセル、ブレーキなどを操作することによって、ディプレイ82上に表示されるキャラクタを操作してバイクレースゲームを楽しむ装置である。
【0091】
業務用ゲーム装置80に内蔵されるシステム基板92には、CPU、画像生成IC、音生成IC等が実装されている。そして、逃げ水ポリゴン決定処理や画像生成処理を実行するためのプログラムや図9(a)〜(d)に示した関数データ等は、システム基板上の情報記憶媒体であるメモリに格納されている。
【0092】
なお、本発明は、上記実施の形態で説明したものに限らず、種々の変形実施が可能である。例えば、本実施の形態では、逃げ水ポリゴン52を、オブジェクト空間を構成する各ポリゴンから選択することとしたが、「逃げ水オブジェクト」という移動体を生成し、この「逃げ水オブジェクト」をゲームキャラクタと同様に移動させるようにしてもよい。
【0093】
また、仮想カメラから逃げ水ポリゴンまでの距離あるいは俯角と、面積あるいは透明度の関係を図9(a)〜(d)に示すような関数によって定義したが、距離や俯角とは別個独立に面積や透明度を設定するようにしてもよい。
【0094】
更に、本実施の形態では、生成した背景画像からテクスチャとなる被反射領域を特定し、逃げ水ポリゴンにマッピングした後に、逃げ水ポリゴンをレンダリングして該背景画像に合成することとした。しかし、背景画像から特定した被反射領域の画像を直接背景画像内の逃げ水ポリゴンに対応する位置に合成することとして、反射領域に対する処理を更に簡略化することとしてもよい。
【0095】
また、本発明は、家庭用、業務用のゲーム装置のみならず、シミュレータ、多数のキャラクタが参加する大型アトラクション装置、パーソナルコンピュータ、マルチメディア端末、ゲーム画像を生成するシステム基板等の種々の画像生成装置にも適用できる。
【0096】
【発明の効果】
本発明によれば、反射領域の表面に映し出される画像(被反射画像)が反射領域を含む生成画像内に存在する場合には、被反射画像を生成画像内から特定し、生成画像内の所与の位置に合成できるため、迅速かつ容易に画像を生成できる。また、オブジェクト空間内の所与の視点から反射領域までの距離や俯角に応じて、大きさや形、透明度を変更できるので、反射物体をよりリアルに表現できる。
【図面の簡単な説明】
【図1】本発明を家庭用のゲーム装置に適用した場合の一例を示す図。
【図2】レース場の表示例を示す図。
【図3】レース場に逃げ水が表示された例を示す図。
【図4】機能ブロック図の一例を示す図。
【図5】同じ逃げ水発生フラグをもつエリア毎にオブジェクト空間を分割した例を示す図。
【図6】逃げ水ポリゴンを決定した例を示す図。
【図7】距離および俯角を示す図。
【図8】距離を変更する例を示す図。
【図9】(a)は、距離と逃げ水ポリゴンの面積の関係を示す関数。(b)は、俯角と逃げ水ポリゴンの面積の関係を示す関数。(c)は、距離とテクスチャの透明度の関係を示す関数。(d)は、俯角とテクスチャの透明度の関係を示す関数。
【図10】スクリーンを配置した例を示す斜視図(a)、およびその断面図(b)。
【図11】逃げ水に透明感を付けて表示した例を示す図。
【図12】逃げ水に部分的に透明感を付けて表示した例を示す図。
【図13】逃げ水の画像を歪ませた例を示す図。
【図14】本実施の形態に係る処理を説明するフローチャート。
【図15】複数キャラクタが存在する場合の表示例を示す図。
【図16】本実施の形態を実現できるハードウェアの構成の一例を示す図。
【図17】ホスト装置と通信回線を介して接続されるゲーム端末に本実施の形態を適用した場合の一例を示す図。
【図18】本発明を業務用のゲーム装置に適用した場合の一例を示す図。
【符号の説明】
10 操作部
20 処理部
22 ゲーム演算部
220 オブジェクト空間構築部
222 逃げ水ポリゴン決定部
224 仮想カメラ制御部
24 画像生成部
240 レンダリング部
242 テクスチャ生成部
30 表示部
40 情報記憶媒体
42 ゲームプログラム
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a game apparatus or the like that generates an image at a given viewpoint in an object space and executes the given game by displaying the generated image.
[0002]
[Prior art]
In computer graphics, in order to more realistically express objects with high reflectivity (reflecting objects) that represent mirrors and ponds placed in an object space that is a virtual three-dimensional space, some ingenuity is applied. It is fancy. As one of the methods, when rendering a specified area in the object space, an algorithm called ray tracing is used to express other objects as reflected on the surface of the reflecting object. .
[0003]
Ray tracing is a pixel that corresponds to a ray by tracing the ray that has arrived at a virtual camera at a given viewpoint in the reverse direction and detecting the position and color of an object that affects the ray. The color is determined. For example, there is a reflecting object in the field of view of the virtual camera, and a ray to be tracked is reflected by the surface of the reflecting object and hits the surface of another object. In this case, the color of the surface of the object is reflected in the portion of the reflecting object from which the light beam is reflected.
[0004]
[Problems to be solved by the invention]
However, there are a plurality of objects in the object space, and each object is composed of a large number of polygons having a plurality of attributes indicating colors, surface characteristics, and the like. For this reason, when the ray tracing method is applied when rendering the object space, the arrangement position of each object, the attribute of the polygon, the position of the light source, the position of the virtual camera, etc. are involved. Cost.
[0005]
In particular, in a game apparatus in which the position of the virtual camera changes variously according to an operation signal input from the operation unit by the user, the time delay related to image generation is a fatal problem. In particular, in a race game in which a virtual camera moves at a high speed or a game that requires high processing speed such as a fighting action game, it is not realistic to faithfully perform ray tracing and render a reflective object.
[0006]
The present invention has been made to solve the above-described problems, and an object of the present invention is to use a generated image to further simplify the expression of a reflective object and improve the processing speed of image generation.
[0007]
To solve the above problem, 1st invention Is a game device that generates an image at a given viewpoint in the object space, and executes the given game by displaying the generated image, for determining a reflection area from within the object space Determination means (for example, the runoff polygon determination unit 222 in FIG. 4) and specification means (for example, in FIG. 4) for specifying the reflected area corresponding to the reflection area determined by the determination means from the generated image. Texture generating unit 242) and combining unit (for example, rendering unit 240 in FIG. 4) for combining the image of the reflected region specified by the specifying unit with the region in the generated image corresponding to the reflective region. ).
[0008]
13th invention Is an information storage medium that stores information for executing a given game by generating an image at a given viewpoint in the object space and displaying the generated image. Determination information for determining from within the space (for example, the game program 42 in FIG. 4; step S1 in the flowchart in FIG. 14) and identification information for identifying the reflected area corresponding to the reflection area from within the generated image (For example, the game program 42 in FIG. 4; steps S3 to S5 in the flowchart in FIG. 14) and synthesis information for synthesizing the image of the reflected area with an area in the generated image corresponding to the reflective area ( For example, the game program 42 of FIG. 4; step S9) of the flowchart of FIG. 14 is included.
[0009]
this First Or 13th According to the invention, when an image (reflected region) displayed in the reflection region is present in the generated image, the expression related to the reflection in the reflection region can be quickly and easily realized by using the generated image. .
[0010]
Second The present invention is a game device for generating an image at a given viewpoint in an object space and executing the given game by displaying the generated image, and a reflection area is determined from the object space. Determining means (for example, the escape water polygon determining unit 222 in FIG. 4) and specifying means (for example, FIG. 4) for specifying the reflected area corresponding to the reflecting area determined by the determining means from the generated image. 4 texture generation unit 242), and a synthesis unit (for example, the rendering unit 240 in FIG. 4) for mapping the image of the reflected area specified by the specifying unit to the reflection area. Features.
[0011]
14th The present invention is an information storage medium that stores information for executing a given game by generating an image at a given viewpoint in an object space and displaying the generated image. Determination information for determining from within the object space (for example, the game program 42 in FIG. 4; step S1 in the flowchart in FIG. 14) and a reflection area corresponding to the reflection area are specified from the generated image. Specific information (for example, the game program 42 in FIG. 4; steps S3 to S5 in the flowchart in FIG. 14) and synthetic information for mapping the image of the reflected area to the reflective area (for example, the game program in FIG. 4) 42; Steps S6 to S7) in the flowchart of FIG.
[0012]
this Second Or 14th According to the invention, since the image of the reflected region can be mapped to the reflective region, the reflective object can be expressed easily and quickly. In addition, since the image of the reflected area is mapped to the reflection area, the reflection according to the reflection object can be expressed more realistically by performing mapping according to the surface characteristics of the reflection object.
[0013]
Also, Third Like the invention of First Or Second In the game device of the invention, the synthesizing means may distort the image of the reflected area.
[0014]
Also, 4th Like the invention of Second In the game device of the invention, the synthesizing means may map the image of the reflected area by distorting the image by changing the vertex coordinates of the reflective area in the object space.
[0015]
Also, 15th Like the invention of 13th Or 14th In the information storage medium of the invention, the composite information may include information for distorting the image of the reflected area.
[0016]
this Third , 4th Or 15th According to the invention, when the image of the reflected area is combined with a given area in the generated image, or when the image of the reflected area is mapped to the reflected area, the image of the reflected area is distorted. Can do. Therefore, the image to be projected can be deformed according to the shape, nature, and state of the reflection area to be expressed.
[0017]
Also, 5th Like the invention of First From 4th One of of In the game device of the invention, the determining means may change the shape or size of the reflection area according to a distance between the determined position of the reflection area and the given viewpoint.
[0018]
Also, 6th Like the invention of First From 4th One of of In the game device of the invention, the determining means may change the shape or size of the determined reflection area according to the depression angle of the given viewpoint.
[0019]
Also, 16th Like the invention of 13th From 15th One of of The information storage medium of the invention may include change information for changing the reflection area according to a distance between the given viewpoint and the reflection area.
[0020]
Also, 17th Like the invention of 13th From 15th One of of The information storage medium of the invention may include change information for changing the reflection region according to the depression angle of the given viewpoint.
[0021]
Also, 18th Like the invention of 16th Or 17th In the information storage medium of the invention, the change information (for example, the game program 42 in FIG. 4; FIGS. 9A and 9B) may include information for changing the shape or size of the reflection area. Good.
[0022]
this 5th , 6th , 16th , 17th Or 18th According to this invention, the shape or size of the reflection region can be changed according to the distance from the reflection region to a given viewpoint and the depression angle of the given viewpoint. Therefore, for example, when the reflection area is specified on the lake surface, the reflection area can be changed according to the distance from the viewpoint or the depression angle, so that the reflection can be expressed more realistically.
[0023]
Also, 7th Like the invention of First From 4th One of of In the game device of the invention, the synthesizing unit may synthesize the image by changing the transparency of the image of the reflected area according to the distance between the position of the reflective area and the given viewpoint.
[0024]
Also, 8th Like the invention of 5th Or 6th In the game device according to the invention, the synthesizing unit may change the transparency of the image of the reflected area in accordance with a depression angle of the given viewpoint with respect to the reflective area.
[0025]
Also, 19th Like the invention of 16th Or 17th In the information storage medium of the invention, the change information (for example, the game program 42 in FIG. 4; FIGS. 9C and 9D) determines the transparency of the image of the reflected area corresponding to the reflective area. The combination information (for example, the game program 42 in FIG. 4; step S9 in the flowchart in FIG. 14) includes combining the image of the reflected area based on the transparency determined by the change information. It is good.
[0026]
this 7th , 8th Or 19th According to the invention, the transparency of the image of the reflected area is changed in accordance with the distance between the reflective area and the given viewpoint or the depression angle of the given viewpoint. It can be expressed by changing the appearance of the reflection area.
[0027]
Also, 9th Like the invention of First From 8th One of of In the game device of the invention, the determining means may determine a reflection area on the surface of the object in the object space having a given condition.
[0028]
this 9th According to the invention, for example, when the escape water whose generation is influenced by the environmental temperature is expressed as a reflecting object, the escape condition can be expressed so that the escape water is generated only in a hot place by setting the temperature as a given condition.
[0029]
Also, 10th Like the invention of First From 9th One of of In the game device according to the aspect of the invention, when the character exists in the reflection area, the combining unit alternately combines the character image and the character image in order to combine the reflection image of the character. Also good.
[0030]
this 10th According to the invention, even when a character is present in the reflection area, the character image and the character image can be alternately combined in the generated image. Therefore, the reflection area, the character, and the character image can be correctly represented in the depth order.
[0031]
Also, 11th Like the invention of First From 10th One of of In the game device according to the invention, the synthesizing unit may synthesize the image of the reflected area specified by the specifying unit by inverting it. Here, inversion does not mean to invert colors such as black and white inversion, but means to invert an image vertically or horizontally with a given axis as a symmetry axis.
[0032]
this 11th According to the invention, since the image of the reflected area is inverted and combined with the corresponding area in the generated image, or mapped to the reflective area, a reflective object that reflects the reflected area like a mirror can be simplified. Can be expressed in
[0033]
Also, 12th Like the invention of First From 11th One of of In the game device according to the invention, the determination unit may express the escape water by moving the position of the reflection region in accordance with the movement of the given viewpoint.
[0034]
this 12th According to the invention, since the reflection area is moved in accordance with the movement of a given viewpoint, the escape water can be expressed realistically.
[0035]
20th The present invention is a game system including a plurality of game devices connected via a communication line for a plurality of players to play a given game in the same object space, each game device comprising: A specifying means (for example, the runoff polygon determination unit 222 and the texture generation unit 242 in FIG. 4) for specifying the reflection region and the reflection target region corresponding to the reflection region from the generated image, and the inverted region A synthesizing unit (e.g., the rendering unit 240 in FIG. 4) for synthesizing the image in the reflection area, and when the character other than the own character exists in the reflection area, In order to synthesize the reflected image, the character image and the character image are alternately synthesized.
[0036]
this 20th According to this invention, when an image (reflected region) displayed in the reflection region is present in the generated image, it is possible to easily express the reflection of the reflection region by using the generated image. When the character is present in the reflection area, the character and the character image can be alternately combined in the generated image. Therefore, it is possible to accurately represent the reflection images of a plurality of characters that overlap in the reflection area.
[0037]
DETAILED DESCRIPTION OF THE INVENTION
Preferred embodiments of the present invention will be described below with reference to the drawings. In the following, a case where the present invention is applied to a motorcycle racing game and escape water is expressed as a reflective object will be described as an example. However, the present invention is not limited to this.
[0038]
FIG. 1 is a diagram showing an example when the present invention is applied to a home game device.
In FIG. 1, the user enjoys a game such as a motorcycle racing game by operating the game controllers 1202 and 1204 while watching the game image displayed on the display 1200. In this case, information necessary for playing a game such as a game program is stored in a CD-ROM 1206, an IC card 1208, a memory card 1212, and the like, which are information storage media detachable from the main unit.
[0039]
In a motorcycle racing game, there are many cases where different environments (such as weather conditions and road surface conditions of the race track) are set for each race track or depending on the difficulty level of the game even in the same race track. FIG. 2 is a diagram showing one scene of the motorcycle racing game displayed on the display 1200, and the user enjoys the motorcycle racing game by operating the player character 2.
[0040]
FIG. 3 is a diagram illustrating an example of a screen that expresses the escape water 6 as a reflective object on the race track when the sun is set as the environment of the race track. In the figure, the escape water 6 reflects and reflects the landscape behind the escape water 6. Therefore, the state of the racetrack under the hot sun is expressed more realistically.
[0041]
FIG. 4 is a diagram illustrating an example of a functional block diagram in the present embodiment. In FIG. 4, the functional block includes an operation unit 10, a processing unit 20, a display unit 30, and an information storage medium 40.
[0042]
The operation unit 10 is used to input an operation of the player character 2 in the game and an instruction to start or stop the game. Further, the game controllers 1202 and 1204 illustrated in FIG. 1 correspond to the operation unit 10.
[0043]
The processing unit 20 mainly includes a game calculation unit 22 and an image generation unit 24, and can be realized by hardware such as a CISC type or RISC type CPU, DSP, or an image capture dedicated IC.
[0044]
The game calculation unit 22 reads the game program 42 from the information storage medium 40 in accordance with the instruction signal input from the operation unit 10 and executes the motorcycle racing game. In addition, the game calculation unit 22 includes an object space construction unit 220, a runaway polygon determination unit 222, and a virtual camera control unit 224.
[0045]
The object space construction unit 220 constructs an object space based on the game program 42 stored in the information storage medium 40 and an operation signal input from the operation unit 10, and sets a virtual game space.
[0046]
Each object constituting the object space is formed by a plurality of polygons. The object space constructing unit 220 defines surface characteristics such as color and gloss for each polygon, and adds a runoff generation flag. The escape water generation flag added to each polygon is a flag indicating whether or not the escape water is generated, and is referred to when the escape water polygon determination unit 222 determines a polygon to be expressed as escape water from the object space.
[0047]
FIG. 5 is a diagram showing an example in which the racetrack is divided into asphalt, grass, and audience seat areas in the constructed object space. As shown in the figure, the object space construction unit 220 divides the object space into passenger seat areas 50-1, 50-5, grass areas 50-2, 50-4, and an asphalt area 50-3. For the object (polygon) existing in, the same value is set for the escape water generation flag.
[0048]
As described above, the reason for adding the runoff generation flag to each polygon constituting the object space is to limit the place where the runoff water is expressed. In the real world, the escape water is likely to appear on a flat ground (road surface) having a high temperature. Accordingly, an object that generates runoff water is specified by the runoff water generation flag in accordance with the environment (temperature, etc.) of the racetrack that is set and the type of the object.
[0049]
Then, the escape water polygon determination unit 222 determines a polygon to be expressed as escape water based on the escape water generation flag. Hereinafter, the polygon determined to express the escape water is referred to as an escape water polygon.
[0050]
For example, the object space construction unit 220 sets the escape water generation flag to “ON” for the object (polygon) in the asphalt area 50-3 shown in FIG. 5 and sets the escape water generation flag to “OFF” for objects in other areas. Set as “”. The escape water polygon determination unit 222 determines the escape water polygon from the polygons for which the escape water generation flag is set to “ON”, that is, the polygons constituting the asphalt area 50-3. FIG. 6 is a diagram showing an example in which a polygon in a portion surrounded by a thick frame is determined as a runaway polygon 52 from among polygons constituting the asphalt area 50-3.
[0051]
In addition, the escape water polygon determination unit 222 always determines the escape water polygon in the viewing direction of the virtual camera 54 serving as the viewpoint. Although the distance 56 between the virtual camera 54 and the escape water polygon 52 is set in advance, it is changed according to changes in various conditions. Examples of the various conditions include a change in a course such as a curve or a slope, or a change in the depression angle 58 of the virtual camera 54 caused by the player character 2 jumping or the like.
[0052]
However, the distance 56 indicates a distance on the Z axis from the virtual camera 54 to the position of the escape water polygon 52, that is, a visual line direction of the virtual camera 52, as shown in FIG. 7. The depression angle 58 means the depression angle of the line-of-sight vector when the runaway polygon 52 is viewed from the virtual camera 54.
[0053]
FIG. 8 is a diagram illustrating an example of a case where the generation position (distance 56) of the escape water polygon 52 changes in a racetrack that curves to the right. As shown in FIG. 8, in the line-of-sight direction of the virtual camera 54, a grass area 50-2 and then a passenger seat area 50-1 extend in the back of the asphalt area 50-3. However, in the areas other than the asphalt area 50-3, the escape water generation flag is set to “OFF”, so that it is not recognized as a candidate for the escape water polygon. Therefore, when the virtual camera 54 approaches the grass area 50-2, the generation position of the escape water polygon 52 cannot be determined and disappears. Therefore, by changing the value of the distance 56, it is also possible to determine a polygon that will escape from the asphalt area 50-1.
[0054]
The escape water polygon determination unit 222 may further determine the number or area (width) of polygons determined as the escape water polygon 52. That is, the escape water polygon determination unit 222 determines a coordinate point (hereinafter referred to as a representative point) representing the escape water polygon 52 at a position 56 away from the virtual camera 54 in the line-of-sight direction, and a polygon at the position of the representative point. It is also possible to determine a polygon to be expressed as escape water so as to satisfy a given area or a given number.
[0055]
For example, as shown in FIG. 9A, the relationship between the distance 56 and the area of the runoff polygon 52 is defined as a function, and when the position of the runoff polygon 52 is determined, the area of the runoff polygon 52 is simultaneously determined. It is good to do. In FIG. 9A, the escape water polygon determining unit 222 sets the escape water so as to satisfy the corresponding area on the function when the distance 56 between the representative point of the escape water polygon 52 and the virtual camera 54 is the distance 56a. The polygon 52 is determined. Alternatively, when the distance 56 is shorter than the distance 56a, the area of the escape water polygon 52 is reduced based on the function.
[0056]
Further, as shown in FIG. 9B, the depression angle 58 of the virtual camera 54 with respect to the escape water polygon may correspond to the area of the escape water polygon 52. Thus, by defining the relationship between the distance and the area, or the depression angle and the area, it is possible to prevent the area of the escape water polygon 52 from becoming abnormally large or changing randomly.
[0057]
Note that the shape of the runoff water polygon 52 may be fixed, or may be changed according to the conditions of the racetrack within a range that satisfies a specified area. Further, the shape of the escape water polygon 52 may be changed according to the distance 56 and the depression angle 58.
[0058]
The virtual camera control unit 224 controls the viewpoint position and line-of-sight direction of the virtual camera 54 in the object space set by the object space construction unit 220. In addition, the virtual camera control unit 224 controls the virtual camera 54 so as to follow from the back of the player character 2 that is a certain distance away.
[0059]
The image generation unit 24 includes a rendering unit 240, a texture generation unit 242, and the like. The image generation unit 24 performs processing for generating an image based on the viewpoint of the virtual camera 54 controlled by the virtual camera control unit 224, and generates the generated image data. Output to the display unit 30.
[0060]
Hereinafter, the rendering unit 240 and the texture generation unit 242 will be described in the order of processing until the image reflected on the runoff polygon 52 is synthesized and a game image is generated.
[0061]
First, the rendering unit 240 renders the object space set by the game calculation unit 22 based on the viewpoint of the virtual camera 54, and generates an image (hereinafter, the generated image is referred to as a background image).
[0062]
Next, the texture generation unit 242 determines a reflected region to be mapped to the runaway polygon 52 from the background image generated by the rendering unit 240. Here, the reflected region is an image in which runoff water is projected, and is determined from the already generated background image. Then, the texture generation unit 242 generates a part corresponding to the reflected area in the background image as a texture. Then, the generated texture is output to the rendering unit 240 again.
[0063]
There are several methods for specifying the reflected area.
For example, as shown in FIG. 10A, a screen 60 that intersects the Z axis perpendicularly is placed behind the escape water polygon 52 with the virtual camera 54 as a reference. However, in FIG. 10A, (X, Y, Z) represents the coordinate system of the virtual camera 54, (X s , Y s ) Means the coordinate system of the screen 60. The screen 60 is obtained by enlarging the coordinate system of the background image generated by the rendering unit 240 according to the position on the Z axis where the screen 60 is placed.
[0064]
FIG. 10B is a cross-sectional view of FIG. 10A viewed from the X-axis direction. The texture generation unit 242 calculates a line-of-sight vector 64 from the virtual camera 54 to the vertex of each polygon 52-n and a normal vector 66 of the polygon 52-n. Then, the position 68 on the screen 60 reflected by the polygon 52-n is calculated from the angle formed by the two vectors. Here, the polygon 52-n means one of a plurality of polygons constituting the escape water polygon 52. The coordinates of the reflected area 62 corresponding to the polygon 52 are specified by performing the same processing on each vertex of each polygon 52-n. Then, the texture generation unit 242 generates the identified reflected region 62 as a texture.
[0065]
However, when the distance 56 and the depression angle 58 between the escape water polygon 52 and the virtual camera 54 are constant, the same coordinate area of the background image is always specified as the reflected area 62 without calculation. Therefore, the calculation for specifying the reflected region may be performed only when the value of the distance 56 or the depression angle 58 is changed.
[0066]
Note that the texture generation unit 242 may set the transparency of the generated texture. For example, as shown in FIG. 9C, the relationship between the distance 56 and the transparency may be defined by a function, and the texture transparency of the reflected area may be set. According to the figure, the transparency of the texture increases as the distance 56 between the escape water polygon 52 and the virtual camera 54 becomes shorter, so that the image reflected (reflected) in the escape water polygon 52 is expressed lightly. FIG. 11 is a diagram illustrating a screen example when the transparency of the texture is changed thinly.
[0067]
Further, as shown in FIG. 12, using the relational expression of FIG. 9C, when mapping a texture to the runoff polygon 52, the transparency may be changed according to the position of each polygon 52-n. As shown in FIG. 12, since the image of the front part of the escape water 72 can be expressed more thinly, the escape water can be expressed more realistically.
[0068]
Further, the transparency of the escape water polygon 52 may be determined by a function of the depression angle 58 of the virtual camera 54 with respect to the escape water polygon 52 as shown in FIG. For example, the function shown in FIG. 9 is such that the area of the runoff polygon 52 is determined by a function with the distance 56 shown in FIG. 9A and the transparency of the texture is determined by a function with the depression angle 58 shown in FIG. By combining, escape water according to various changes can be expressed.
[0069]
As described above, when a texture is generated by the texture generation unit 242, the rendering unit 240 inverts each texture generated by the texture generation unit 242 up and down and maps it to each polygon 52-n in the object space. When the rendering unit 240 renders the escape water polygon 54 to generate the escape water image, the rendering unit 240 synthesizes it at a position corresponding to the escape water polygon 52 of the already generated background image. Then, the completed image data is output to the display unit 30.
[0070]
In addition, when mapping a texture to the runoff polygon 52, it is good also as distorting by performing the following methods. For example, the polygons 52-n constituting the escape water polygon 52 are arranged in a plane as shown in FIG. 6, but after temporarily changing the vertex coordinates of each polygon 52-n, the texture is mapped. It is good also as distorting an image by doing. Alternatively, the texture image itself may be distorted before mapping. An example in which the texture image is distorted is shown in FIG. In the figure, since the image reflected on the escape water 74 is distorted, more realistic escape water can be expressed.
[0071]
The display unit 30 displays the image data input from the image generation unit 24 on the display screen. Further, the information storage medium 40 stores a game program 42. The function of the information storage medium 40 can be realized by hardware such as a CD-ROM, game cassette, IC card, MO, FD, DVD, memory, and hard disk. The game program 42 includes a program for executing a later-described escape water polygon determination process and an image generation process, function data shown in FIGS. 9A to 9D, and the like.
[0072]
Next, in the present embodiment, an operation related to a process of expressing escape water that is a reflecting object using the generated image will be described below.
[0073]
FIG. 14 is a flowchart showing an operation according to the processing example of the present embodiment. The operation shown in FIG. 14 shows the generation of a game image related to one frame. First, the escape water polygon determination unit 222 performs processing for determining a polygon that becomes escape water from the object space constructed by the object space construction unit 220, that is, the escape water polygon 52 (step S1).
[0074]
Next, the rendering unit 240 generates a background image by rendering an object space based on the viewpoint of the virtual camera 54 (step S2). Then, the texture generation unit 242 calculates the line-of-sight vector 64 from the virtual camera 54 to the polygon 52-n (step S3), and then calculates the normal vector 66 of the polygon 52-n (step S4).
[0075]
Furthermore, the texture generation unit 242 specifies the reflected region of the polygon 52-n from the two vectors. A similar process is performed on all the polygons 52-n constituting the escape water polygon 52, and the reflected area 62 of the escape water polygon 52 is specified (step S5). Then, a texture corresponding to the reflected region 62 is generated from the background image generated in step S <b> 2 (step S <b> 6) and output to the rendering unit 240.
[0076]
The rendering unit 240 maps the texture input from the texture generation unit 242 to the escape water polygon 52 (step S7), and then renders the escape water polygon 52 based on the viewpoint of the virtual camera 54 (step S8). Then, the rendered image is synthesized at the position corresponding to the runaway polygon 52 in the background image generated in step S2 to complete the game image (step S9), and is output to the display unit 30 to end the present process.
[0077]
In the above description, the case where only the player character 2 exists in the object space has been described. However, the present invention can also be applied to a case where a plurality of characters exist. However, when there are a plurality of characters, there are the following problems.
[0078]
FIG. 15 is a diagram illustrating a scene example of the object space when a plurality of characters exist. In the figure, an area 100 indicates an escape water polygon area, and an area 102 indicates an area corresponding to the reflected area described in the above embodiment. For the sake of simplicity, the shape of the run-off polygon in the figure is shown as a rectangle.
[0079]
In FIG. 15, a character existing on the runaway polygon or an inverted image of the characters 108 to 112 existing in the reflected area needs to be reflected on the area 100. However, when the game image of the object space shown in the figure is generated according to the order described in the above embodiment, there is a problem that the characters on the area 100, that is, the images of the characters 108 and 110 are not reflected on the area 100 well. is there.
[0080]
Therefore, this problem can be solved by modifying and applying the present invention as follows. First, in the object space, a screen equivalent to the screen 60 shown in FIGS. 10A and 10B is set on the arrangement position of each character. Then, in the order farther away from the virtual camera 54, that is, in the depth order, the arrangement of the character, the identification of the reflected area with respect to the screen set for the character, and the image composition process (this process is the same as the process for generating the game image described above). This is realized by alternately performing the processing. That is, in FIG. 16, the processing described in the present embodiment can be realized in the depth order, such as processing for the background image, processing for the character 112, processing for the character 110, and so on.
[0081]
Next, an example of a hardware configuration capable of realizing the present embodiment will be described with reference to FIG. In the apparatus shown in the figure, a CPU 1000, a ROM 1002, a RAM 1004, an information storage medium 1006, a sound generation IC 1008, an image generation IC 1010, and I / O ports 1012, 1014 are connected to each other via a system bus 1016 so as to be able to input and output data. . A display 1018 is connected to the image generation IC 1010, a speaker 1020 is connected to the sound generation IC 1008, a control device 1022 is connected to the I / O port 1012, and communication is performed to the I / O port 1014. A device 1024 is connected.
[0082]
The information storage medium 1006 mainly stores programs, image data for expressing display objects, sound data, play data, and the like. For example, in a home game device, a CD-ROM, a game cassette, a DVD, or the like is used as an information storage medium for storing a game program or the like, and a memory card or the like is used as an information storage medium for storing play data. In the arcade game machine, a memory such as a ROM or a hard disk is used. In this case, the information storage medium 1006 is a ROM 1002.
[0083]
The control device 1022 corresponds to a game controller, an operation panel, and the like, and is a device for inputting a result of determination made by the user in accordance with the progress of the game to the device main body.
[0084]
In accordance with a program stored in the information storage medium 1006, a system program stored in the ROM 1002 (initialization information of the apparatus main body), a signal input by the control apparatus 1022, the CPU 1000 performs control of the entire apparatus and various data processing. Do. The RAM 1004 is a storage means used as a work area of the CPU 1000 and stores the given contents of the information storage medium 1006 and the ROM 1002 or the calculation result of the CPU 1000. In addition, a data structure (for example, function data shown in FIGS. 9A to 9D) having a logical configuration for realizing the present embodiment is constructed in the RAM 1004 or the information storage medium 1006. become.
[0085]
Further, this type of apparatus is provided with a sound generation IC 1008 and an image generation IC 1010 so that game sounds and game images can be suitably output. The sound generation IC 1008 is an integrated circuit that generates game sounds such as sound effects and background music based on information stored in the information storage medium 1006 and the ROM 1002, and the generated game sounds are output by the speaker 1020. . The image generation IC 1010 is an integrated circuit that generates pixel information to be output to the display 1018 based on image information output from the RAM 1004, the ROM 1002, the information storage medium 1006, and the like. The display 1018 includes a display device such as a CRT, LCD, TV, plasma display, liquid crystal plasma display, or projector.
[0086]
The communication device 1024 exchanges various types of information used inside the game device with the outside. The communication device 1024 is connected to other game devices to send and receive given information according to the game program, It is used for sending and receiving information such as game programs via the.
[0087]
1 to 13 includes an information storage medium 1006 that stores a program for performing the processing shown in the flowchart of FIG. 14, a CPU 1000 that operates according to the program, an image generation IC 1010, and a sound generation IC 1008. Etc. Note that the processing performed by the image generation IC 1010, the sound generation IC 1008, and the like may be performed by software using the CPU 1000 or a general-purpose DSP.
[0088]
FIG. 17 shows an example in which the present embodiment is applied to a game device including a host device 1300 and terminals 1304-1 to 1304-n connected to the host device 1300 via a communication line 1302.
[0089]
In this case, the program for executing the escape water polygon determination process and the image generation process, the function data shown in FIGS. It is stored in an information storage medium 1306 such as a device or memory. When the terminals 1304-1 to 1304-n have a CPU, an image generation IC, and a sound generation IC and can generate game images and game sounds in a stand-alone manner, the host device 1300 A game program for generating game images, game sounds, and the like are delivered to the terminals 1304-1 to 1304-n. On the other hand, if it cannot be generated stand-alone, the host device 1300 generates a game image and a game sound, which is transmitted to the terminals 1304-1 to 1304-n and output at the terminal.
[0090]
FIG. 18 is a diagram showing an example when the present embodiment is applied to the arcade game device 80. This arcade game device 80 is formed using a racing bike shape as a model, and a user sitting on a seat 88 operates a handle 84, an accelerator, a brake, and the like while listening to a sound output from a speaker 86. Thus, a device for operating a character displayed on the display 82 to enjoy a motorcycle racing game.
[0091]
A CPU, an image generation IC, a sound generation IC, and the like are mounted on a system board 92 built in the arcade game device 80. A program for executing the escape water polygon determination process and the image generation process, the function data shown in FIGS. 9A to 9D, and the like are stored in a memory which is an information storage medium on the system board.
[0092]
The present invention is not limited to the one described in the above embodiment, and various modifications can be made. For example, in the present embodiment, the escape water polygon 52 is selected from each polygon constituting the object space. However, a moving body called “escape water object” is generated, and this “escape water object” is set in the same manner as the game character. You may make it move.
[0093]
Further, the relationship between the distance or depression angle from the virtual camera to the runaway polygon and the area or transparency is defined by a function as shown in FIGS. 9A to 9D, but the area and transparency are independent of the distance and depression angle. May be set.
[0094]
Furthermore, in the present embodiment, a reflected area that becomes a texture is specified from the generated background image, mapped to the escape polygon, and then the escape polygon is rendered and combined with the background image. However, the process for the reflection area may be further simplified by directly synthesizing the image of the reflected area specified from the background image at a position corresponding to the runaway polygon in the background image.
[0095]
Further, the present invention is not limited to home and business game devices, but also various image generation such as simulators, large attraction devices with many characters participating, personal computers, multimedia terminals, system boards for generating game images, etc. It can also be applied to devices.
[0096]
【The invention's effect】
According to the present invention, when an image (reflected image) displayed on the surface of the reflection region is present in the generated image including the reflection region, the reflected image is specified from the generated image, and the location in the generated image is determined. Since the image can be synthesized at a given position, an image can be generated quickly and easily. In addition, since the size, shape, and transparency can be changed according to the distance or depression angle from a given viewpoint in the object space to the reflection area, the reflection object can be expressed more realistically.
[Brief description of the drawings]
FIG. 1 is a diagram showing an example when the present invention is applied to a game device for home use.
FIG. 2 is a diagram showing a display example of a racetrack.
FIG. 3 is a diagram showing an example in which escape water is displayed on a race track.
FIG. 4 is a diagram illustrating an example of a functional block diagram.
FIG. 5 is a diagram showing an example in which an object space is divided for each area having the same escape water generation flag.
FIG. 6 is a diagram showing an example in which a runaway polygon is determined.
FIG. 7 is a diagram showing distance and depression angle.
FIG. 8 is a diagram illustrating an example of changing a distance.
FIG. 9A is a function showing the relationship between the distance and the area of the runaway polygon. (B) is a function indicating the relationship between the depression angle and the area of the relief water polygon. (C) is a function indicating the relationship between the distance and the transparency of the texture. (D) is a function indicating the relationship between the depression angle and the transparency of the texture.
FIG. 10A is a perspective view showing an example in which a screen is arranged, and FIG.
FIG. 11 is a diagram showing an example in which the escape water is displayed with a sense of transparency.
FIG. 12 is a diagram showing an example in which the escape water is displayed with a partial transparency.
FIG. 13 is a diagram showing an example in which an image of runoff is distorted.
FIG. 14 is a flowchart for explaining processing according to the embodiment;
FIG. 15 is a diagram illustrating a display example when there are a plurality of characters.
FIG. 16 is a diagram showing an example of a hardware configuration capable of realizing the present embodiment.
FIG. 17 is a diagram showing an example when the present embodiment is applied to a game terminal connected to a host device via a communication line.
FIG. 18 is a diagram showing an example when the present invention is applied to an arcade game device.
[Explanation of symbols]
10 Operation part
20 processor
22 Game calculator
220 Object Space Construction Department
222 Runaway polygon determination unit
224 Virtual camera control unit
24 Image generator
240 Rendering part
242 Texture generator
30 Display section
40 Information storage media
42 game programs

Claims (17)

オブジェクト空間内の所与の視点での画像を生成し、当該生成画像を表示させることによって所与のゲームを実行するゲーム装置であって、
反射領域を前記オブジェクト空間内から決定するための決定手段と、
前記決定手段により決定された前記反射領域に対応する被反射領域を前記生成画像内から特定するための特定手段と、
前記特定手段により特定された前記被反射領域の画像を、前記反射領域に対応する前記生成画像内の領域に合成させるための合成手段と、
を含み、
前記決定手段は、決定した前記反射領域の位置と、前記所与の視点との距離に応じて、当該反射領域の形状あるいは大きさを変更するゲーム装置。
A game device that generates an image at a given viewpoint in an object space and executes the given game by displaying the generated image,
Determining means for determining a reflection area from within the object space;
Specifying means for specifying the reflected area corresponding to the reflecting area determined by the determining means from within the generated image;
Combining means for combining an image of the reflected area specified by the specifying means with an area in the generated image corresponding to the reflective area;
Only including,
The game device changes the shape or size of the reflection area according to the distance between the determined position of the reflection area and the given viewpoint .
オブジェクト空間内の所与の視点での画像を生成し、当該生成画像を表示させることによって所与のゲームを実行するゲーム装置であって、
反射領域を前記オブジェクト空間内から決定するための決定手段と、
前記決定手段により決定された前記反射領域に対応する被反射領域を前記生成画像内から特定するための特定手段と、
前記特定手段により特定された前記被反射領域の画像を、前記反射領域にマッピングさせるための合成手段と、
を含み、
前記決定手段は、決定した前記反射領域の位置と、前記所与の視点との距離に応じて、当該反射領域の形状あるいは大きさを変更するゲーム装置。
A game device that generates an image at a given viewpoint in an object space and executes the given game by displaying the generated image,
Determining means for determining a reflection area from within the object space;
Specifying means for specifying the reflected area corresponding to the reflecting area determined by the determining means from within the generated image;
Combining means for mapping an image of the reflected area specified by the specifying means to the reflective area;
Only including,
The game device changes the shape or size of the reflection area according to the distance between the determined position of the reflection area and the given viewpoint .
オブジェクト空間内の所与の視点での画像を生成し、当該生成画像を表示させることによって所与のゲームを実行するゲーム装置であって、
反射領域を前記オブジェクト空間内から決定するための決定手段と、
前記決定手段により決定された前記反射領域に対応する被反射領域を前記生成画像内から特定するための特定手段と、
前記特定手段により特定された前記被反射領域の画像を、前記反射領域に対応する前記生成画像内の領域に合成させるための合成手段と、
を含み、
前記決定手段は、前記所与の視点の俯角に応じて、決定した前記反射領域の形状あるいは大きさを変更するゲーム装置。
A game device that generates an image at a given viewpoint in an object space and executes the given game by displaying the generated image,
Determining means for determining a reflection area from within the object space;
Specifying means for specifying the reflected area corresponding to the reflecting area determined by the determining means from within the generated image;
Combining means for combining an image of the reflected area specified by the specifying means with an area in the generated image corresponding to the reflective area;
Only including,
The game device that changes the shape or size of the determined reflection area according to the depression angle of the given viewpoint .
オブジェクト空間内の所与の視点での画像を生成し、当該生成画像を表示させることによって所与のゲームを実行するゲーム装置であって、
反射領域を前記オブジェクト空間内から決定するための決定手段と、
前記決定手段により決定された前記反射領域に対応する被反射領域を前記生成画像内から特定するための特定手段と、
前記特定手段により特定された前記被反射領域の画像を、前記反射領域にマッピングさせるための合成手段と、
を含み、
前記決定手段は、前記所与の視点の俯角に応じて、決定した前記反射領域の形状あるいは大きさを変更するゲーム装置。
A game device that generates an image at a given viewpoint in an object space and executes the given game by displaying the generated image,
Determining means for determining a reflection area from within the object space;
Specifying means for specifying the reflected area corresponding to the reflecting area determined by the determining means from within the generated image;
Combining means for mapping an image of the reflected area specified by the specifying means to the reflective area;
Only including,
The game device that changes the shape or size of the determined reflection area according to the depression angle of the given viewpoint .
オブジェクト空間内の所与の視点での画像を生成し、当該生成画像を表示させることによって所与のゲームを実行するゲーム装置であって、
反射領域を前記オブジェクト空間内から決定するための決定手段と、
前記決定手段により決定された前記反射領域に対応する被反射領域を前記生成画像内から特定するための特定手段と、
前記特定手段により特定された前記被反射領域の画像を、前記反射領域に対応する前記生成画像内の領域に合成させるための合成手段と、
を含み、
前記合成手段は、前記被反射領域の各部の画像の透明度を、当該各部に対応する前記反射領域中の位置と前記所与の視点との距離に応じて変化させて合成するゲーム装置。
A game device that generates an image at a given viewpoint in an object space and executes the given game by displaying the generated image,
Determining means for determining a reflection area from within the object space;
Specifying means for specifying the reflected area corresponding to the reflecting area determined by the determining means from within the generated image;
Combining means for combining an image of the reflected area specified by the specifying means with an area in the generated image corresponding to the reflective area;
Only including,
The game device for synthesizing the image by changing the transparency of the image of each part of the reflected area according to the distance between the position in the reflection area corresponding to the part and the given viewpoint .
オブジェクト空間内の所与の視点での画像を生成し、当該生成画像を表示させることによって所与のゲームを実行するゲーム装置であって、
反射領域を前記オブジェクト空間内から決定するための決定手段と、
前記決定手段により決定された前記反射領域に対応する被反射領域を前記生成画像内から特定するための特定手段と、
前記特定手段により特定された前記被反射領域の画像を、前記反射領域にマッピングさせるための合成手段と、
を含み、
前記合成手段は、前記被反射領域の各部の画像の透明度を、当該各部に対応する前記反射領域中の位置と前記所与の視点との距離に応じて変化させて合成するゲーム装置。
A game device that generates an image at a given viewpoint in an object space and executes the given game by displaying the generated image,
Determining means for determining a reflection area from within the object space;
Specifying means for specifying the reflected area corresponding to the reflecting area determined by the determining means from within the generated image;
Combining means for mapping an image of the reflected area specified by the specifying means to the reflective area;
Only including,
The game device for synthesizing the image by changing the transparency of the image of each part of the reflected area according to the distance between the position in the reflection area corresponding to the part and the given viewpoint .
請求項1から4のいずれかにおいて、
前記合成手段は、前記反射領域に対する前記所与の視点の俯角に応じて、前記被反射領域の画像の透明度を変化させるゲーム装置。
In any one of Claim 1-4 ,
The game device that changes the transparency of the image of the reflected area according to the depression angle of the given viewpoint with respect to the reflective area.
請求項1からのいずれかにおいて、
前記決定手段は、所与の条件を具備する前記オブジェクト空間内のオブジェクトの表面に、反射領域を決定するゲーム装置。
In any one of Claim 1 to 7 ,
The game device for determining a reflection area on a surface of an object in the object space having a given condition.
請求項1からのいずれかにおいて、
前記決定手段は、前記所与の視点の移動に応じて、前記反射領域の位置を移動させることにより、逃げ水を表現するゲーム装置。
In any one of Claim 1 to 8 ,
The determination device is a game device that expresses escape water by moving the position of the reflection region in accordance with the movement of the given viewpoint.
コンピュータに、オブジェクト空間内の所与の視点での画像を生成させ、当該生成画像を表示制御させることによって所与のゲームを実行させるためのプログラムであって、
反射領域を前記オブジェクト空間内から決定するための決定手段
前記反射領域に対応する被反射領域を前記生成画像内から特定するための特定手段
前記被反射領域の画像を、前記反射領域に対応する前記生成画像内の領域に合成させるための合成手段
前記所与の視点と前記反射領域との距離に応じて、当該反射領域を変更するための変更手段、
として前記コンピュータを機能させるためのプログラムを記憶したコンピュータ読み取り可能な情報記憶媒体。
The computer to generate an image at a given viewpoint in the object space, a program for causing execution of a given game by displaying controlling the generated image,
Determining means for determining a reflection area from within the object space;
A specifying means for specifying a reflected region corresponding to the reflective region from within the generated image;
A synthesizing unit for synthesizing the image of the reflected area with an area in the generated image corresponding to the reflective area;
A changing means for changing the reflection area according to a distance between the given viewpoint and the reflection area;
A computer-readable information storage medium storing a program for causing the computer to function as:
コンピュータに、オブジェクト空間内の所与の視点での画像を生成させ、当該生成画像を表示制御させることによって所与のゲームを実行させるためのプログラムであって、
反射領域を前記オブジェクト空間内から決定するための決定手段
前記反射領域に対応する被反射領域を前記生成画像内から特定するための特定手段
前記被反射領域の画像を、前記反射領域にマッピングさせるための合成手段
前記所与の視点と前記反射領域との距離に応じて、当該反射領域を変更するための変更手段、
として前記コンピュータを機能させるためのプログラムを記憶したコンピュータ読み取り可能な情報記憶媒体。
The computer to generate an image at a given viewpoint in the object space, a program for causing execution of a given game by displaying controlling the generated image,
Determining means for determining a reflection area from within the object space;
A specifying means for specifying a reflected region corresponding to the reflective region from within the generated image;
Combining means for mapping an image of the reflected area to the reflective area;
A changing means for changing the reflection area according to a distance between the given viewpoint and the reflection area;
A computer-readable information storage medium storing a program for causing the computer to function as:
コンピュータに、オブジェクト空間内の所与の視点での画像を生成させ、当該生成画像を表示制御させることによって所与のゲームを実行させるためのプログラムであって、
反射領域を前記オブジェクト空間内から決定するための決定手段
前記反射領域に対応する被反射領域を前記生成画像内から特定するための特定手段
前記被反射領域の画像を、前記反射領域に対応する前記生成画像内の領域に合成させるための合成手段
前記所与の視点の俯角に応じて、前記反射領域を変更するための変更手段、
として前記コンピュータを機能させるためのプログラムを記憶したコンピュータ読み取り可能な情報記憶媒体。
The computer to generate an image at a given viewpoint in the object space, a program for causing execution of a given game by displaying controlling the generated image,
Determining means for determining a reflection area from within the object space;
A specifying means for specifying a reflected region corresponding to the reflective region from within the generated image;
A synthesizing unit for synthesizing the image of the reflected area with an area in the generated image corresponding to the reflective area;
A changing means for changing the reflection region according to the depression angle of the given viewpoint;
A computer-readable information storage medium storing a program for causing the computer to function as:
コンピュータに、オブジェクト空間内の所与の視点での画像を生成させ、当該生成画像を表示制御させることによって所与のゲームを実行させるためのプログラムであって、
反射領域を前記オブジェクト空間内から決定するための決定手段
前記反射領域に対応する被反射領域を前記生成画像内から特定するための特定手段
前記被反射領域の画像を、前記反射領域にマッピングさせるための合成手段
前記所与の視点の俯角に応じて、前記反射領域を変更するための変更手段、
として前記コンピュータを機能させるためのプログラムを記憶したコンピュータ読み取り可能な情報記憶媒体。
The computer to generate an image at a given viewpoint in the object space, a program for causing execution of a given game by displaying controlling the generated image,
Determining means for determining a reflection area from within the object space;
A specifying means for specifying a reflected region corresponding to the reflective region from within the generated image;
Combining means for mapping an image of the reflected area to the reflective area;
A changing means for changing the reflection region according to the depression angle of the given viewpoint;
A computer-readable information storage medium storing a program for causing the computer to function as:
請求項10から13のいずれかにおいて、
前記プログラムは、
前記変更手段が、前記反射領域の形状あるいは大きさを変化させるように前記コンピュータを機能させるためのプログラムである情報記憶媒体。
In any of claims 10 to 13 ,
The program is
An information storage medium, which is a program for causing the computer to function so that the changing means changes the shape or size of the reflection area.
請求項10から13のいずれかにおいて、
前記プログラムは、
前記変更手段が、前記反射領域に対応する前記被反射領域の画像の透明度を決定させるように前記コンピュータを機能させ
前記合成手段が、前記変更手段により決定された透明度に基づいて前記被反射領域の画像を合成するように前記コンピュータを機能させる、
ためのプログラムである情報記憶媒体。
In any of claims 10 to 13 ,
The program is
The changing means causes the computer to function to determine the transparency of the image of the reflected area corresponding to the reflective area;
The synthesizing unit causes the computer to function to synthesize the image of the reflected area based on the transparency determined by the changing unit ;
An information storage medium that is a program .
コンピュータに、オブジェクト空間内の所与の視点での画像を生成させ、当該生成画像を表示制御させることによって所与のゲームを実行させるためのプログラムであって、  A program for causing a computer to generate an image at a given viewpoint in an object space and causing a given game to be executed by controlling the display of the generated image.
反射領域を前記オブジェクト空間内から決定するための決定手段、  Determining means for determining a reflection area from within the object space;
前記反射領域に対応する被反射領域を前記生成画像内から特定するための特定手段、  A specifying means for specifying a reflected region corresponding to the reflective region from within the generated image;
前記被反射領域の画像を、前記反射領域に対応する前記生成画像内の領域に合成させるための合成手段、  A synthesizing unit for synthesizing the image of the reflected area with an area in the generated image corresponding to the reflective area;
として前記コンピュータを機能させるとともに、  As the computer functions as
前記合成手段が、前記被反射領域の各部の画像の透明度を、当該各部に対応する前記反射領域中の位置と前記所与の視点との距離に応じて変化させて合成するように前記コンピュータを機能させる、  The computer is configured to synthesize the computer by changing the transparency of the image of each part of the reflected area according to the distance between the position in the reflective area corresponding to the part and the given viewpoint. Make it work,
ためのプログラムを記憶したコンピュータ読み取り可能な情報記憶媒体。  A computer-readable information storage medium storing a program for storing the program.
コンピュータに、オブジェクト空間内の所与の視点での画像を生成させ、当該生成画像を表示制御させることによって所与のゲームを実行させるためのプログラムであって、  A program for causing a computer to generate an image at a given viewpoint in an object space and causing a given game to be executed by controlling the display of the generated image.
反射領域を前記オブジェクト空間内から決定するための決定手段、  Determining means for determining a reflection area from within the object space;
前記反射領域に対応する被反射領域を前記生成画像内から特定するための特定手段、  A specifying means for specifying a reflected region corresponding to the reflective region from within the generated image;
前記被反射領域の画像を、前記反射領域にマッピングさせるための合成手段、  Combining means for mapping an image of the reflected area to the reflective area;
として前記コンピュータを機能させるとともに、  As the computer functions as
前記合成手段が、前記被反射領域の各部の画像の透明度を、当該各部に対応する前記反射領域中の位置と前記所与の視点との距離に応じて変化させて合成するように前記コンピュータを機能させる、  The computer is configured to synthesize the computer by changing the transparency of the image of each part of the reflected area according to the distance between the position in the reflective area corresponding to the part and the given viewpoint. Make it work,
ためのプログラムを記憶したコンピュータ読み取り可能な情報記憶媒体。  A computer-readable information storage medium storing a program for storing the program.
JP2000106850A 2000-04-07 2000-04-07 GAME DEVICE AND INFORMATION STORAGE MEDIUM Expired - Lifetime JP4303395B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000106850A JP4303395B2 (en) 2000-04-07 2000-04-07 GAME DEVICE AND INFORMATION STORAGE MEDIUM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000106850A JP4303395B2 (en) 2000-04-07 2000-04-07 GAME DEVICE AND INFORMATION STORAGE MEDIUM

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2009052108A Division JP4802254B2 (en) 2009-03-05 2009-03-05 GAME DEVICE AND INFORMATION STORAGE MEDIUM

Publications (2)

Publication Number Publication Date
JP2001286675A JP2001286675A (en) 2001-10-16
JP4303395B2 true JP4303395B2 (en) 2009-07-29

Family

ID=18619955

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000106850A Expired - Lifetime JP4303395B2 (en) 2000-04-07 2000-04-07 GAME DEVICE AND INFORMATION STORAGE MEDIUM

Country Status (1)

Country Link
JP (1) JP4303395B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3737784B2 (en) * 2002-07-01 2006-01-25 コナミ株式会社 3D image processing program, 3D image processing method, and video game apparatus
JP5007991B2 (en) * 2006-02-13 2012-08-22 株式会社ディジタルメディアプロフェッショナル Rendering device for subdivision curved surface drawing
KR101841668B1 (en) * 2012-02-15 2018-03-27 한국전자통신연구원 Apparatus and method for producing 3D model
JP2015051119A (en) * 2013-09-06 2015-03-19 株式会社カプコン Game program and game apparatus
CN111435548B (en) * 2019-01-13 2023-10-03 北京魔门塔科技有限公司 Map rendering method and device
CN112884860B (en) * 2021-03-01 2023-08-22 网易(杭州)网络有限公司 Water surface ripple effect generation method and device, electronic equipment and storage medium
CN113546416A (en) * 2021-08-16 2021-10-26 网易(杭州)网络有限公司 Game scene processing method and device, computer equipment and storage medium

Also Published As

Publication number Publication date
JP2001286675A (en) 2001-10-16

Similar Documents

Publication Publication Date Title
JP4651435B2 (en) Program, information storage medium, and image generation system
US20090244064A1 (en) Program, information storage medium, and image generation system
US6738061B2 (en) Method, apparatus, storage medium, program, and program product for generating image data of virtual three-dimensional space
JP2011101752A (en) Program, information storage medium, and image generating device
JP4303395B2 (en) GAME DEVICE AND INFORMATION STORAGE MEDIUM
JPH11175748A (en) Image generating device and information storage medium
JP4802254B2 (en) GAME DEVICE AND INFORMATION STORAGE MEDIUM
JP3576126B2 (en) Image generation system, program, and information storage medium
JP2001143099A (en) Image-forming system and information storage medium
JP3005581B1 (en) Image creation device, image creation method, readable recording medium on which image creation program is recorded, and video game device
JP2006323512A (en) Image generation system, program, and information storage medium
JP4266121B2 (en) Image generation system, program, and information storage medium
JP4528008B2 (en) Program, information storage medium, and image generation system
JP4006243B2 (en) Image generation information, game information, information storage medium, image generation device, and game device
JP4443716B2 (en) GAME DEVICE AND INFORMATION STORAGE MEDIUM
JP3275001B2 (en) Game device and information storage medium
JP4229317B2 (en) Image generation system, program, and information storage medium
JP2001273519A (en) Game system, picture plotting method for this system, and computer-readable recording medium for storing program for game
JP2001314648A (en) Game apparatus and information storage medium
JP4229318B2 (en) Image generation system, program, and information storage medium
JP4390351B2 (en) GAME DEVICE AND INFORMATION STORAGE MEDIUM
JP4688405B2 (en) PROGRAM, INFORMATION STORAGE MEDIUM, AND GAME DEVICE
JP2001160151A (en) Image generation system and information storage medium
JP4589517B2 (en) Information storage medium and image generation apparatus
JP4063368B2 (en) 3D game device and information storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070314

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20070314

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20070406

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20070406

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090106

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090305

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090421

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090424

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120501

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4303395

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120501

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120501

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130501

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130501

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140501

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R370 Written measure of declining of transfer procedure

Free format text: JAPANESE INTERMEDIATE CODE: R370

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term