JP4245356B2 - GAME SYSTEM AND INFORMATION STORAGE MEDIUM - Google Patents

GAME SYSTEM AND INFORMATION STORAGE MEDIUM Download PDF

Info

Publication number
JP4245356B2
JP4245356B2 JP2003002098A JP2003002098A JP4245356B2 JP 4245356 B2 JP4245356 B2 JP 4245356B2 JP 2003002098 A JP2003002098 A JP 2003002098A JP 2003002098 A JP2003002098 A JP 2003002098A JP 4245356 B2 JP4245356 B2 JP 4245356B2
Authority
JP
Japan
Prior art keywords
image
texture
original image
mapping
generating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003002098A
Other languages
Japanese (ja)
Other versions
JP2003175274A (en
Inventor
一誠 渡辺
秀司 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Namco Ltd
Bandai Namco Entertainment Inc
Original Assignee
Namco Ltd
Namco Bandai Games Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Ltd, Namco Bandai Games Inc filed Critical Namco Ltd
Priority to JP2003002098A priority Critical patent/JP4245356B2/en
Publication of JP2003175274A publication Critical patent/JP2003175274A/en
Application granted granted Critical
Publication of JP4245356B2 publication Critical patent/JP4245356B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images

Landscapes

  • Image Generation (AREA)
  • Processing Or Creating Images (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、ゲームシステム及び情報記憶媒体に関する。
【0002】
【背景技術】
従来より、仮想的な3次元空間であるオブジェクト空間内の所与の視点から見える画像を生成するゲームシステムが知られており、いわゆる仮想現実を体験できるものとして人気が高い。レーシングゲームを楽しむことができるゲームシステムを例にとれば、プレーヤは、車(オブジェクト)を操作してオブジェクト空間内で走行させ、他のプレーヤやコンピュータが操作する車と競争することで3次元ゲームを楽しむ。
【0003】
【特許文献1】
特開平11−175746号
【0004】
【発明が解決しようとする課題】
さて、このようなゲームシステムでは、プレーヤの仮想現実向上のために、よりリアルな画像を生成することが重要な技術的課題になっている。そしてこのような課題を解決する一つの手法としてテクスチャマッピングが知られている。
【0005】
例えば水面をとおして見える水底を表現する場合には、現実に水面をとおして見た水底の写真等を予めテクスチャとして用意しておいてオブジェクトにマッピングすることにより写真のもつリアリティをそのままいかすことが出来る。
【0006】
ところが例えば仮想カメラの配置によって水面の見える角度は異なってくるし、水中に移動物が存在する場合には、移動物の位置によっても水面の見え方が異なってくる。しかし、水面の写真等を予めテクスチャとして用意しておく場合には、固定された状態の表現しかできないため、リアルタイムに変化する状態を反映したその場の環境に対応した表現には対応することが出来なかった。
【0007】
本発明は、以上のような課題に鑑みてなされたものであり、その目的とするところは、リアルタイムに変化する環境や状況を反映した画像をテクスチャとして利用してより簡易にリアルな画像を生成することである。
【0008】
【課題を解決するための手段】
(1)本発明は、表示部に出力する画像の生成を行うゲームシステムであって、
3次元モデルの種類、配置、状態、環境条件、仮想カメラの配置の少なくともひとつの要素がリアルタイムに変化する仮想3次元空間の所与のフレームの画像をリアルタイムに生成する際の1フレームの画像生成過程において、
プレーヤの入力に基づき仮想3次元空間に配置されるオブジェクトの移動動作演算を行い当該フレームのオブジェクト及び仮想カメラの配置を決定する手段と、
前記仮想3次元空間について、視点座標系からスクリーン座標系に座標変換し、レンダリング処理を施して生成した元画像を描画領域に描画して、当該元画像の少なくとも一部をテクスチャとして利用するために必要な処理を行う手段と、
前記元画像の少なくとも一部からなるテクスチャを前記3次元空間内の所与のオブジェクトにマッピングして背景画像が透過して見える所与のオブジェクト画像を生成し、当該画像と元画像を合成して表示部に出力する所与のフレームの画像を生成する手段と、
を含むことを特徴とする。
(2)本発明は、表示部に出力する画像の生成を行うゲームシステムであって、
3次元モデルの種類、配置、状態、環境条件、仮想カメラの配置の少なくともひとつの要素がリアルタイムに変化する仮想3次元空間の所与のフレームの画像をリアルタイムに生成する際の1フレームの画像生成過程において、
レンダリング処理を施して生成した元画像を描画領域に描画して、当該元画像の少なくとも一部をテクスチャとして利用するために必要な処理を行う手段と、
前記元画像の少なくとも一部からなるテクスチャを前記3次元空間内の所与のオブジェクトにマッピングして背景画像が透過して見える所与のオブジェクト画像を生成し、当該画像と元画像を合成して表示部に出力する所与のフレームの画像を生成する手段とを含み、
移動する第1のオブジェクトを含む風景が透けて見える第2のオブジェクトを含む画像を生成する際に、第2のオブジェクトを含まない画像を元画像として描画領域に描画して、元画像をテクスチャとして第2のオブジェクトにマッピングすることを特徴とする。
(3)本発明は、表示部に出力する画像の生成を行うゲームシステムであって、
3次元モデルの種類、配置、状態、環境条件、仮想カメラの配置の少なくともひとつの要素がリアルタイムに変化する仮想3次元空間の所与のフレームの画像をリアルタイムに生成する際の1フレームの画像生成過程において、
レンダリング処理を施して生成した元画像を描画領域に描画して、当該元画像の少なくとも一部をテクスチャとして利用するために必要な処理を行う手段と、
前記元画像の少なくとも一部からなるテクスチャを前記3次元空間内の所与のオブジェクトにマッピングして背景画像が透過して見える所与のオブジェクト画像を生成し、当該画像と元画像を合成して表示部に出力する所与のフレームの画像を生成する手段とを含み、
水面、ガラス、炎、ガス、霧のいずれかを含む画像を生成する際に、水面、ガラス、炎、ガス、霧のいずれかがなしの状態でレンダリングした画像を元画像として描画し、元画像の水面、ガラス、炎、ガス、霧のいずれかになる部分をテクスチャとして水面、ガラス、炎、ガス、霧のいずれかのオブジェクトにマッピングする際に、テクスチャのUV値を操作してマッピングを行うことを特徴とする。
(4)本発明のゲームシステムは、
前記元画像の少なくとも一部からなるテクスチャに変形処理をほどこしてから所与のオブジェクトにマッピングすることを特徴とする。
(5)本発明のゲームシステムは、
前記オブジェクトが、表示画面サイズのポリゴンであることを特徴とする。
(6)本発明のゲームシステムは、
前記オブジェクトが、表示画面を分割したブロックのサイズのポリゴンであることを特徴とする。
(7)本発明のゲームシステムは、
前記元画像の少なくとも一部からなるテクスチャをマッピングする際にオブジェクトの頂点に対応づけられたUV値を操作することを特徴とする。
(8)本発明は、コンピュータが読みとり可能な情報記憶媒体であって、
3次元モデルの種類、配置、状態、環境条件、仮想カメラの配置の少なくともひとつの要素がリアルタイムに変化する仮想3次元空間の所与のフレームの画像をリアルタイムに生成する際の1フレームの画像生成過程において、
プレーヤの入力に基づき仮想3次元空間に配置されるオブジェクトの移動動作演算を行い当該フレームのオブジェクト及び仮想カメラの配置を決定する手段と、
前記仮想3次元空間について、視点座標系からスクリーン座標系に座標変換し、レンダリング処理を施して生成した元画像を描画領域に描画して、当該元画像の少なくとも一部をテクスチャとして利用するために必要な処理を行う手段と、
前記元画像の少なくとも一部からなるテクスチャを前記3次元空間内の所与のオブジェクトにマッピングして背景画像が透過して見える所与のオブジェクト画像を生成し、当該画像と元画像を合成して表示部に出力する所与のフレームの画像を生成する手段と、
をコンピュータに実現させるためのプログラムを含むことを特徴とする。
(9)本発明は、コンピュータが読みとり可能な情報記憶媒体であって、
3次元モデルの種類、配置、状態、環境条件、仮想カメラの配置の少なくともひとつの要素がリアルタイムに変化する仮想3次元空間の所与のフレームの画像をリアルタイムに生成する際の1フレームの画像生成過程において、
レンダリング処理を施して生成した元画像を描画領域に描画して、当該元画像の少なくとも一部をテクスチャとして利用するために必要な処理を行う手段と、
前記元画像の少なくとも一部からなるテクスチャを前記3次元空間内の所与のオブジェクトにマッピングして背景画像が透過して見える所与のオブジェクト画像を生成し、当該画像と元画像を合成して表示部に出力する所与のフレームの画像を生成する手段とコンピュータに実現させるためのプログラムを含み、
移動する第1のオブジェクトを含む風景が透けて見える第2のオブジェクトを含む画像を生成する際に、第2のオブジェクトを含まない画像を元画像として描画領域に描画して、元画像をテクスチャとして第2のオブジェクトにマッピングするためのプログラムを含むことを特徴とする。
(10)本発明は、コンピュータが読みとり可能な情報記憶媒体であって、
3次元モデルの種類、配置、状態、環境条件、仮想カメラの配置の少なくともひとつの要素がリアルタイムに変化する仮想3次元空間の所与のフレームの画像をリアルタイムに生成する際の1フレームの画像生成過程において、
レンダリング処理を施して生成した元画像を描画領域に描画して、当該元画像の少なくとも一部をテクスチャとして利用するために必要な処理を行う手段と、
前記元画像の少なくとも一部からなるテクスチャを前記3次元空間内の所与のオブジェクトにマッピングして背景画像が透過して見える所与のオブジェクト画像を生成し、当該画像と元画像を合成して表示部に出力する所与のフレームの画像を生成する手段とコンピュータに実現させるためのプログラムを含み、
水面、ガラス、炎、ガス、霧のいずれかを含む画像を生成する際に、水面、ガラス、炎、ガス、霧のいずれかがなしの状態でレンダリングした画像を元画像として描画し、元画像の水面、ガラス、炎、ガス、霧のいずれかになる部分をテクスチャとして水面、ガラス、炎、ガス、霧のいずれかのオブジェクトにマッピングする際に、テクスチャのUV値を操作してマッピングを行うためのプログラムを含むことを特徴とする。
(11)本発明の情報記憶媒体は、
前記元画像の少なくとも一部からなるテクスチャに変形処理をほどこしてから所与のオブジェクトにマッピングするためのプログラムを含むことを特徴とする。
(12)本発明の情報記憶媒体は、
前記オブジェクトが、表示画面サイズのポリゴンであることを特徴とする。
(13)本発明の情報記憶媒体は、
前記オブジェクトが、表示画面を分割したブロックのサイズのポリゴンであることを特徴とする。
(14)本発明の情報記憶媒体は、
前記元画像の少なくとも一部からなるテクスチャをマッピングする際にオブジェクトの頂点に対応づけられたUV値を操作するためのプログラムを含むことを特徴とする。
【0009】
【発明の実施の形態】
本実施の形態は画像生成を行うゲームシステムであって、所与のフレームの画像生成過程においてレンダリング処理を施されて描画領域に描画された元画像の少なくとも一部をテクスチャとして利用するために必要な処理を行う手段と、前記元画像の少なくとも一部からなるテクスチャを所与のオブジェクトにマッピングした画像を用いて前記所与のフレームの画像を生成する手段と、を含むことを特徴とする。
【0010】
また本実施の形態に係る情報記憶媒体は、コンピュータにより使用可能な情報記憶媒体であって、上記手段を実行するためのプログラムを含むことを特徴とする。また本実施の形態に係るプログラムは、コンピュータにより使用可能なプログラム(搬送波に具現化されるプログラムを含む)であって、上記手段を実行するための処理ルーチンを含むことを特徴とする。
【0011】
レンダリング処理とは例えば座標変換、陰面消去、シェーディング等の処理を含む。
【0012】
元画像の少なくとも一部からなるテテクスチャがマッピングされるオブジェクトはポリゴン等で構成された3次元オブジェクトでもよいし、一枚ポリゴンや、スプライト等のような2次元ポリゴンでもよい。
【0013】
本実施の形態は所与のフレームの画像生成過程においてレンダリング処理を施されて描画領域に描画された元画像の少なくとも一部を前記所与のフレーム内でテクスチャとして利用することが出来るので、マッピングされるテクスチャ画像と当該フレームの画像に時間的なずれが生じない。
【0014】
このため例えば背景画像が水面やガラス、炎、ガス、霧、水等を透過して見える場合や元画像が映りこんで見える場合等のようにその場の環境を反映した表現が必要な場合に、元画像として描画された背景画像をテクスチャとしてマッピングすることによりその場の環境を正確に反映したリアルな画像を生成することが出来る。
【0015】
例えば水中に自由に動き回る物体がいる場合、予め水面の画像をテクスチャとして用意することは困難である。しかし本実施の形態によれば、その場のその時刻におけるレンダリング画像をテクスチャとして使用できるため、例えば移動物が存在しても視点位置や向きが変わっても、それを反映したテクスチャを得ることが出来る。
【0016】
このように本実施の形態によれば、予め固定のテクスチャを用意する必要がない。また環境や状況をリアルタイムに反映したテクスチャを利用して画像生成を行うことが出来るため、よりリアルな画像を生成することが出来る。
【0017】
また本実施の形態に係るゲームシステム、情報記憶媒体及びプログラムは、前記元画像の少なくとも一部からなるテクスチャを所与のオブジェクトにマッピングした画像と前記元画像を合成して前記所与のフレームの画像を生成することを特徴とする。
【0018】
合成とは上書き処理やブレンド処理を含む。
【0019】
例えば元画像に元画像が透過して見える炎や水差しや水面等のオブジェクトがある場合に、前記炎や水差しや水面等のオブジェクトに元画像のテクスチャをマッピングした画像を元画像と合成すると、元画像が透過して見える炎や水差しや水面等を正確かつリアルに表現することが出来る。
【0020】
このように本実施の形態によれば、元画像の中に元画像が透過又は移りこんだオブジェクトがある場合に、元画像の透過又は移りこみを正確かつリアルに表現することが出来る。
【0021】
また本実施の形態に係るゲームシステム、情報記憶媒体及びプログラムは、前記元画像の少なくとも一部からなるテクスチャに変形処理をほどこしてから所与のオブジェクトにマッピングすることを特徴とする。
【0022】
変形処理とは何らかの関数演算を行って画像を変形させる処理を意味する。
【0023】
本実施の形態によれば、元画像を変形させてマッピングすることが出来るため、映り込みや透過の際の揺らぎや変形、ぼやけ等を表現できる。
【0024】
また本実施の形態に係るゲームシステム、情報記憶媒体及びプログラムは、前記オブジェクトが、表示画面サイズのポリゴンであることを特徴とする。
【0025】
このようにすれば、全表示画面分の画像情報を例えば1回(あるいは数回)のテクスチャマッピングで変化することが出来る。従って例えばシステムにおいてテクスチャマッピング専用のハードが用意されている場合には、これを用いることにより処理の高速化を図ることが出来る。
【0026】
また本実施の形態に係るゲームシステム、情報記憶媒体及びプログラムは、前記オブジェクトが、表示画面を分割したブロックのサイズのポリゴンであることを特徴とする。
【0027】
このようにすれば前記オブジェクトを描画する領域の大きさを小さくすることが可能となり、記憶部の使用記憶量を節約することが出来る。
【0028】
また本実施の形態に係るゲームシステム、情報記憶媒体及びプログラムは、前記元画像の少なくとも一部からなるテクスチャをマッピングする際にオブジェクトの頂点に対応づけられたUV値を操作することを特徴とする。
【0029】
オブジェクトの頂点に対応づけられたUV値を操作することにより元画像を変形させてマッピングすることが出来る。さらにこのUV値の設定を時間的に変化させることにより元画像の変形の状態が変化するため、元画像が揺らいだ画像を生成することができる。このため揺らいでいる水面の画像等を生成する際に効果的である。
【0030】
また本実施の形態に係るゲームシステム、情報記憶媒体及びプログラムは、3次元モデルの種類、配置、状態、環境条件、仮想カメラの配置の少なくともひとつの要素がリアルタイムに変化することを特徴とする。
【0031】
本実施の形態によれば、3次元モデルの種類、配置、状態、環境条件、仮想カメラの配置を反映してレンダリングされた元画像をテクスチャ画像として利用することが出来る。配置とは位置や回転や向きを意味する。
【0032】
従って3次元モデルの種類、配置、状態、環境条件、仮想カメラの配置の少なくともひとつの要素のリアルタイムに反映したリアルな映り込みや透過の表現を行うことが出来る。
【0033】
本実施の形態は画像生成を行うゲームシステムであって、3次元モデルの種類、配置、状態、環境条件、仮想カメラの配置の少なくともひとつの要素が時間的に変化する仮想3次元空間の所与のフレームの画像をリアルタイムに生成する際に、レンダリング処理を施して生成した元画像を描画領域に描画する手段と、前記元画像に基づき生成された画像と前記元画像を合成して前記所与のフレームの画像を生成する手段と、を含むことを特徴とする。
【0034】
また本実施の形態に係る情報記憶媒体は、コンピュータにより使用可能な情報記憶媒体であって、上記手段を実行するためのプログラムを含むことを特徴とする。また本実施の形態に係るプログラムは、コンピュータにより使用可能なプログラム(搬送波に具現化されるプログラムを含む)であって、上記手段を実行するための処理ルーチンを含むことを特徴とする。
【0035】
前記元画像に基づき生成された画像とは例えば元画像の一部をマスクした画像、元画像の一部又は全部を変形させた画像、元画像の一部又は全部をフィルタリングした画像等である。
【0036】
また前記元画像に基づき生成された画像を元画像の一部に合成するとは、前記元画像に基づき生成された画像を元画像の一部に上書きしたり、ブレンド処理を行ったりすることである。
【0037】
本実施の形態は所与のフレームの画像生成過程においてレンダリング処理を施されて描画領域に描画された元画像に基づき生成された画像と元画像を合成して前記所与のフレームの画像を生成することが出来る。すなわち当該フレーム内で生成した元画像を加工した画像を用いて当該フレーム内の画像を生成することが出来る。
【0038】
従って例えば背景画像が水面やガラス、鏡等、炎、ガス、霧、水等を透過して見える場合や映りこんで見える場合等のようにその場の環境を反映した表現が必要な場合に、場の環境を正確に反映したリアルな画像を生成することが出来る。
【0039】
以下、本発明の好適な実施形態について図面を用いて説明する。
【0040】
1.構成
図1に、本実施形態のブロック図の一例を示す。なお同図において本実施形態は、少なくとも処理部100を含めばよく、それ以外のブロックについては、任意の構成要素とすることができる。
【0041】
ここで処理部100は、システム全体の制御、システム内の各ブロックへの命令の指示、ゲーム処理、画像処理、音処理などの各種の処理を行うものであり、その機能は、各種プロセッサ(CPU、DSP等)、或いはASIC(ゲートアレイ等)などのハードウェアや、所与のプログラム(ゲームプログラム)により実現できる。
【0042】
操作部160は、プレーヤが操作データを入力するためのものであり、その機能は、レバー、ボタン、筺体などのハードウェアにより実現できる。
【0043】
記憶部170は、処理部100や通信部196などのワーク領域となるもので、その機能はRAMなどのハードウェアにより実現できる。
【0044】
情報記憶媒体(コンピュータにより使用可能な記憶媒体)180は、プログラムやデータなどの情報を格納するものであり、その機能は、光ディスク(CD、DVD)、光磁気ディスク(MO)、磁気ディスク、ハードディスク、磁気テープ、或いはメモリ(ROM)などのハードウェアにより実現できる。処理部100は、この情報記憶媒体180に格納される情報に基づいて本発明(本実施形態)の種々の処理を行う。即ち情報記憶媒体180には、本発明(本実施形態)の手段(特に処理部100に含まれるブロック)を実行するための情報(プログラム或いはデータ)が格納される。
【0045】
なお、情報記憶媒体180に格納される情報の一部又は全部は、システムへの電源投入時等に記憶部170に転送されることになる。また情報記憶媒体180に記憶される情報は、本発明の処理を行うためのプログラムコード、画像データ、音データ、表示物の形状データ、テーブルデータ、リストデータ、本発明の処理を指示するための情報、その指示に従って処理を行うための情報等の少なくとも1つを含むものである。
【0046】
表示部190は、本実施形態により生成された画像を出力するものであり、その機能は、CRT、LCD、或いはHMD(ヘッドマウントディスプレイ)などのハードウェアにより実現できる。
【0047】
音出力部192は、本実施形態により生成された音を出力するものであり、その機能は、スピーカなどのハードウェアにより実現できる。
【0048】
セーブ用情報記憶装置194は、プレーヤの個人データ(セーブデータ)などが記憶されるものであり、このセーブ用情報記憶装置194としては、メモリカードや携帯型ゲーム装置などを考えることができる。
【0049】
通信部196は、外部(例えばホスト装置や他のゲームシステム)との間で通信を行うための各種の制御を行うものであり、その機能は、各種プロセッサ、或いは通信用ASICなどのハードウェアや、プログラムなどにより実現できる。
【0050】
なお本発明(本実施形態)の手段を実行するためのプログラム或いはデータは、ホスト装置(サーバー)が有する情報記憶媒体からネットワーク及び通信部196を介して情報記憶媒体180に配信するようにしてもよい。このようなホスト装置(サーバー)の情報記憶媒体の使用も本発明の範囲内に含まれる。
【0051】
処理部100は、ゲーム処理部110、画像生成部130、音生成部150を含む。
【0052】
ここでゲーム処理部110は、コイン(代価)の受け付け処理、各種モードの設定処理、ゲームの進行処理、選択画面の設定処理、オブジェクト(1又は複数のプリミティブ面)の位置や回転角度(X、Y又はZ軸回り回転角度)を求める処理、オブジェクトを動作させる処理(モーション処理)、視点の位置(仮想カメラの位置)や視線角度(仮想カメラの回転角度)を求める処理、マップオブジェクトなどのオブジェクトをオブジェクト空間へ配置するための処理、ヒットチェック処理、ゲーム結果(成果、成績)を演算する処理、複数のプレーヤが共通のゲーム空間でプレイするための処理、或いはゲームオーバー処理などの種々のゲーム処理を、操作部160からの操作データや、セーブ用情報記憶装置194からの個人データや、ゲームプログラムなどに基づいて行う。
【0053】
画像生成部130は、ゲーム処理部110からの指示等にしたがって各種の画像処理を行い、例えばオブジェクト空間内で仮想カメラ(視点)から見える画像を生成して、表示部190に出力する。また、音生成部150は、ゲーム処理部110からの指示等にしたがって各種の音処理を行い、BGM、効果音、音声などの音を生成し、音出力部192に出力する。
【0054】
なお、ゲーム処理部110、画像生成部130、音生成部150の機能は、その全てをハードウェアにより実現してもよいし、その全てをプログラムにより実現してもよい。或いは、ハードウェアとプログラムの両方により実現してもよい。
【0055】
ゲーム処理部110は、移動・動作演算部112を含む。
【0056】
ここで移動・動作演算部112は、車などのオブジェクトの移動情報(位置データ、回転角度データ)や動作情報(オブジェクトの各パーツの位置データ、回転角度データ)を演算するものであり、例えば、操作部160によりプレーヤが入力した操作データやゲームプログラムなどに基づいて、オブジェクトを移動させたり動作させたりする処理を行う。
【0057】
より具体的には、移動・動作演算部112は、オブジェクトの位置や回転角度を例えば1フレーム(1/60秒)毎に求める処理を行う。例えば(k−1)フレームでのオブジェクトの位置をPMk-1、速度をVMk-1、加速度をAMk-1、1フレームの時間を△tとする。するとkフレームでのオブジェクトの位置PMk、速度VMkは例えば下式(1)、(2)のように求められる。
【0058】
PMk=PMk-1+VMk-1×△t (1)
VMk=VMk-1+AMk-1×△t (2)
画像生成部130は、ジオメトリ処理部132、描画部140を含む。
【0059】
ここで、ジオメトリ処理部132は、座標変換、クリッピング処理、透視変換、或いは光源計算などの種々のジオメトリ処理(3次元演算)を行う。そして、ジオメトリ処理後(透視変換後)のオブジェクトデータ(オブジェクトの頂点座標などの形状データ、或いは頂点テクスチャ座標、輝度データ等)は、記憶部170のメインメモリ172に保存される。
【0060】
描画部140は、ジオメトリ処理後のオブジェクト(モデル)を、フレームバッファ174に描画するための処理を行うものであり、テクスチャ設定部142、マッピング処理部144を含む。
【0061】
ここでテクスチャ設定部142は、所与のフレームの画像生成過程においてレンダリング処理を施されて描画領域に描画された元画像の少なくとも一部をテクスチャとして利用するために必要な処理を行う。
【0062】
マッピング処理部144は、前記元画像の少なくとも一部からなるテクスチャを所与のオブジェクトにマッピングした画像を用いて前記所与のフレームの画像を生成する処理を行う。
【0063】
また前記元画像の少なくとも一部からなるテクスチャを所与のオブジェクトにマッピングした画像と前記元画像を合成して前記所与のフレームの画像を生成するようにしてもよい。
【0064】
また前記元画像の少なくとも一部からなるテクスチャに変形処理をほどこしてから所与のオブジェクトにマッピングするようにしてもよい。
【0065】
なお前記オブジェクトとして表示画面サイズのポリゴンを用いてもよいし、表示画面を分割したブロックのサイズのポリゴンを用いてもよい。
【0066】
前記元画像の少なくとも一部からなるテクスチャをマッピングする際にオブジェクトの頂点に対応づけられたUV値を操作するようにしてもよい。
【0067】
なお、本実施形態のゲームシステムは、1人のプレーヤのみがプレイできるシングルプレーヤモード専用のシステムにしてもよいし、このようなシングルプレーヤモードのみならず、複数のプレーヤがプレイできるマルチプレーヤモードも備えるシステムにしてもよい。
【0068】
また複数のプレーヤがプレイする場合に、これらの複数のプレーヤに提供するゲーム画像やゲーム音を、1つの端末を用いて生成してもよいし、ネットワーク(伝送ライン、通信回線)などで接続された複数の端末を用いて生成してもよい。
【0069】
2.本実施形態の特徴
本実施の形態は、オブジェクトの種類、配置、状態、環境条件、仮想カメラの配置の少なくともひとつの要素がリアルタイムに変化する仮想3次元空間の所与のフレームの画像生成過程においてレンダリング処理を施されて描画領域に描画された元画像の少なくとも一部をテクスチャとして利用して、前記元画像の少なくとも一部からなるテクスチャを所与のオブジェクトにマッピングした画像を用いて前記所与のフレームの画像を生成する点にある。
【0070】
まず図2、図3を用いて従来との相違点について明らかにする。
【0071】
図2は1フレーム分の画像を生成する際の従来例を説明するためのフローチャート図である。
【0072】
まずCPUはプレーヤの入力に基づき仮想3次元空間に配置されるオブジェクトの移動動作演算を行い当該フレームのオブジェクトのワールド座標系における位置及び回転を確定する(ステップS10)。また同時に仮想カメラの位置及び向きを確定するようにしてもよい。
【0073】
そして、視点座標系からスクリーン座標系における座標変換、陰面消去、シェーディング処理等のレンダリング処理を行ってVRAM等の描画領域に描画して(ステップS20)、これをディスプレイに出力する(ステップS30)。
【0074】
これに対し本実施の形態では図3のフローチャート図に示すようにして1フレーム分の画像を生成している。
【0075】
ステップS110、S120については図2のステップS10、S20と同様である。
【0076】
しかし本実施の形態では、一旦レンダリング処理をおえてVRAM等の描画領域に描画された画像(以下元画像という)をテクスチャとして設定する(ステップS130)。
【0077】
そして元画像のテクスチャをオブジェクトにマッピングして描画領域に描画し(ステップS140)、これをディスプレイに出力する(ステップS150)。
【0078】
このように本実施の形態では、1フレームの画像生成過程において、リアルタイムに生成されたレンダリング後の画像をテクスチャとして利用して画像生成を行っている。
【0079】
図4(A)(B)はリアルタイムに生成されたレンダリング後の画像をテクスチャとして設定する手法について説明するための図である。
【0080】
図4(A)はVRAM200上の所定部分があらかじめテクスチャ領域220として割り当てがなされている場合の設定例である。まずレンダリング後の元画像をフレームバッファ210に描画する(a1)。そして前記元画像をVRAM200上にテクスチャ領域220に部分にコピーして元画像テクスチャ230を生成する(a2)。そしてこの元画像テクスチャをオブジェクトにマッピングした画像をフレームバッファ210に描画する(a3)。そしてフレームバッファ210の画像をディスプレイに出力する(a4)。
【0081】
図4(B)はVRAM200上の所与の部分を動的にテクスチャ領域220として割り当て可能な場合の設定例である。まずレンダリング後の元画像をVRAM200に描画する(b1)。そしてVRAM上の元画像エリア240をテクスチャ領域(元画像テクスチャ)として設定する(b2)。そしてこの元画像テクスチャをオブジェクトにマッピングした画像をフレームバッファ210に描画する(b3)。なお(b3)に先立ってフレームバッファ210上に元画像を予めコピーしておいて、元画像テクスチャをマッピングしたオブジェクトを上書きしてもよい。そしてフレームバッファ210の画像をディスプレイに出力する(b4)。
【0082】
次にリアルタイムに生成された元画像テクスチャをオブジェクトにマッピングする例について説明する。
【0083】
図5は元画像に元画像テクスチャをマッピングした画像を上書きする画像生成例について説明するための図である。
【0084】
移動する飛行機334を含む風景が透けて見える透明な水差し332が描画された描画(330参照)を描画する場合、まず水差しを含まない画像(元画像)を描画領域に描画して(310参照)、元画像をテクスチャとして設定する。
【0085】
そして元画像を水差しオブジェクトにマッピングした画像(320参照)を、元画像に上書きする(330参照)。
【0086】
このようにすると例えば飛行機等のようにリアルタイムに変化する移動物の位置を正確に反映した画像をテクスチャとして利用できる。従って当該フレームの画像として生成された画像とテクスチャとして用いる画像に時間的なずれが生じず、その時点のオブジェクトの位置や状態、環境で表現された画像をテクスチャとして利用できるため、オブジェクトから透けて見える画像や反射して見える画像をより正確に再現することが出来る。
【0087】
また図6(A)(B)は元画像テクスチャを画面サイズのポリゴンにマッピングする例について説明するための図である。
【0088】
図6(A)に示すように、描画領域に描画された元画像400をテクスチャとして設定し(元画像テクスチャ)、元画像テクスチャを画面サイズのポリゴン(フレームバッファ)310にマッピングするようにしてもよい。
【0089】
また図6(B)に示すように、マッピングする際には例えばUV値の値を操作して元画像が変形されてマッピングされるようにしてもよい(410参照)。
【0090】
また図7に示すように、表示画面を分割したブロックのサイズのポリゴンにテクスチャマッピングするようにしてもよい。
【0091】
即ち図7に示すように、フレームバッファ上の元画像350を複数のブロック(350−1〜350−12)に分割し、各ブロックの画像をテクスチャ画像352として設定する。そして当該テクスチャ画像352を、分割ブロックサイズのポリゴン360にテクスチャマッピングする(c1)。そして、得られた分割ブロックサイズの画像をフレームバッファ(描画領域)に描き戻す(c2)。
【0092】
このようにすれば、例えばテクスチャマッピングされたポリゴンを別バッファに一時的に描画するような場合に、VRAM上での別バッファの占有領域を小さくできる。
【0093】
即ち、図6(A)(B)のように表示画面サイズのポリゴンにテクスチャマッピングすると、この表示画面サイズのポリゴンを一時的に描画するために、表示画面サイズの別バッファをVRAM上に確保しなければならず、他の処理に支障を来すおそれがある。
【0094】
しかし図7のように、分割ブロックサイズのポリゴンにテクスチャマッピングするようにすれば、VRAM上には分割ブロックサイズの別バッファを用意すれば済むため、別バッファの占有領域を小さくできる。従って、限られたハードウェア資源を有効利用することが可能になる。
【0095】
3.本実施の形態の処理
(1)水面の表現
本実施の形態の処理の一例を魚が泳いでいる水槽の水面の画像を生成する場合を例にとり説明する。水槽の水面の様子は、水中の様子や水槽をみる角度によってリアルタイムに変化するため、本実施の形態では以下のようにして水面の画像を生成する。
【0096】
図8は水槽の水面の画像を生成する処理例について説明するためのフローチャート図であり、図9〜図12は水面の画像を生成する処理例について説明するための図である。
【0097】
まず水面なし(水中に存在するものは描く)の状態でレンダリングした画像をVRAM内表示領域に描画する(ステップS210、図9の510参照)。なお、VRAM500は図9に示すように表示領域510とテクスチャ領域(退避領域)520の割り当てが予め設定されているものとする。
【0098】
そして表示領域510の元画像をテクスチャ領域にコピーして元画像テクスチャを生成する(ステップS220、図10参照)。
【0099】
そして元画像テクスチャ550の水面になる部分560を水面オブジェクト570に貼り付ける際に、波立ちや水の屈折率などに基づき、テクスチャのUV値を操作してマッピングを行う(ステップS230、図11参照)。
【0100】
そして元画像テクスチャをマッピングした水面オブジェクトを元画像に上書きする(ステップS240、図12参照)。
【0101】
このようにするとリアルタイムに変化する水面を見る角度や水中の魚の位置等について、元画像とテクスチャ画像の同期をとることが出来る。従って水面を見る角度や水中の魚の位置等が正確に反映されたリアルな水面の表現を行うことが出来る。
【0102】
(2)炎の表現
炎の向こうの背景が透過して見える画像を生成する場合を例にとり説明する。炎の向こうの背景は、炎の向こうにあるオブジェクトの位置や状態、炎をみる角度によってリアルタイムに変化するため、本実施の形態では以下のようにして炎の向こうの背景が透過して見える画像を生成する。
【0103】
図13は炎の向こうの背景が透過して見える画像を生成する処理例について説明するためのフローチャート図であり、図14〜図17は炎の向こうの背景が透過して見える画像を生成する処理例について説明するための図である。
【0104】
まず背景(炎以外)をレンダリングした画像(元画像)612をVRAMの描画領域1(610)に描画する(ステップS310、図14参照)。VRAM600には描画領域1(610)、描画領域2(620)、描画領域3(630)が設けられている。
【0105】
そして描画領域1(610)の元画像612を変形させた画像622を描画領域2に書きこむ(ステップS320、図15参照)。
【0106】
次に炎の画像632を描画領域3に描画する(ステップS330、図16参照)。ここで描画領域3の炎の部分を炎領域634とし、炎以外の部分を背景領域636とする。
【0107】
描画領域2を描画領域3の背景領域636でマスクして描画領域1へ上書き書きする(ステップS340、図17の614参照)。
【0108】
そしてこの描画領域1を表示領域にコピーして、これをディスプレイに出力する(ステップS350)。
【0109】
このようにするとリアルタイムに変化する炎の向こうの背景が正確に炎の向こうに透けて見えるリアルな炎の表現を行うことが出来る。
【0110】
4.ハードウェア構成
次に、本実施形態を実現できるハードウェアの構成の一例について図18を用いて説明する。
【0111】
メインプロセッサ900は、CD982(情報記憶媒体)に格納されたプログラム、通信インターフェース990を介して転送されたプログラム、或いはROM950(情報記憶媒体の1つ)に格納されたプログラムなどに基づき動作し、ゲーム処理、画像処理、音処理などの種々の処理を実行する。
【0112】
コプロセッサ902は、メインプロセッサ900の処理を補助するものであり、高速並列演算が可能な積和算器や除算器を有し、マトリクス演算(ベクトル演算)を高速に実行する。例えば、オブジェクトを移動させたり動作(モーション)させるための物理シミュレーションに、マトリクス演算などの処理が必要な場合には、メインプロセッサ900上で動作するプログラムが、その処理をコプロセッサ902に指示(依頼)する。
【0113】
ジオメトリプロセッサ904は、座標変換、透視変換、光源計算、曲面生成などのジオメトリ処理を行うものであり、高速並列演算が可能な積和算器や除算器を有し、マトリクス演算(ベクトル演算)を高速に実行する。例えば、座標変換、透視変換、光源計算などの処理を行う場合には、メインプロセッサ900で動作するプログラムが、その処理をジオメトリプロセッサ904に指示する。
【0114】
データ伸張プロセッサ906は、圧縮された画像データや音データを伸張するデコード処理を行ったり、メインプロセッサ900のデコード処理をアクセレートする処理を行う。これにより、オープニング画面、インターミッション画面、エンディング画面、或いはゲーム画面などにおいて、所与の画像圧縮方式で圧縮された動画像を表示できるようになる。なお、デコード処理の対象となる画像データや音データは、ROM950、CD982に格納されたり、或いは通信インターフェース990を介して外部から転送される。
【0115】
描画プロセッサ910は、ポリゴンや曲面などのプリミティブ面で構成されるオブジェクトの描画(レンダリング)処理を高速に実行するものである。オブジェクトの描画の際には、メインプロセッサ900は、DMAコントローラ970の機能を利用して、オブジェクトデータを描画プロセッサ910に渡すと共に、必要であればテクスチャ記憶部924にテクスチャを転送する。すると、描画プロセッサ910は、これらのオブジェクトデータやテクスチャに基づいて、Zバッファなどを利用した陰面消去を行いながら、オブジェクトをフレームバッファ922に高速に描画する。また、描画プロセッサ910は、αブレンディング(半透明処理)、デプスキューイング、ミップマッピング、フォグ処理、バイリニア・フィルタリング、トライリニア・フィルタリング、アンチエリアシング、シェーディング処理なども行うことができる。そして、1フレーム分の画像がフレームバッファ922に書き込まれると、その画像はディスプレイ912に表示される。
【0116】
サウンドプロセッサ930は、多チャンネルのADPCM音源などを内蔵し、BGM、効果音、音声などの高品位のゲーム音を生成する。生成されたゲーム音は、スピーカ932から出力される。
【0117】
ゲームコントローラ942からの操作データや、メモリカード944からのセーブデータ、個人データは、シリアルインターフェース940を介してデータ転送される。
【0118】
ROM950にはシステムプログラムなどが格納される。なお、業務用ゲームシステムの場合には、ROM950が情報記憶媒体として機能し、ROM950に各種プログラムが格納されることになる。なお、ROM950の代わりにハードディスクを利用するようにしてもよい。
【0119】
RAM960は、各種プロセッサの作業領域として用いられる。
【0120】
DMAコントローラ970は、プロセッサ、メモリ(RAM、VRAM、ROM等)間でのDMA転送を制御するものである。
【0121】
CDドライブ980は、プログラム、画像データ、或いは音データなどが格納されるCD982(情報記憶媒体)を駆動し、これらのプログラム、データへのアクセスを可能にする。
【0122】
通信インターフェース990は、ネットワークを介して外部との間でデータ転送を行うためのインターフェースである。この場合に、通信インターフェース990に接続されるネットワークとしては、通信回線(アナログ電話回線、ISDN)、高速シリアルバスなどを考えることができる。そして、通信回線を利用することでインターネットを介したデータ転送が可能になる。また、高速シリアルバスを利用することで、他のゲームシステム、他のゲームシステムとの間でのデータ転送が可能になる。
【0123】
なお、本発明の各手段は、その全てを、ハードウェアのみにより実行してもよいし、情報記憶媒体に格納されるプログラムや通信インターフェースを介して配信されるプログラムのみにより実行してもよい。或いは、ハードウェアとプログラムの両方により実行してもよい。
【0124】
そして、本発明の各手段をハードウェアとプログラムの両方により実行する場合には、情報記憶媒体には、本発明の各手段をハードウェアを利用して実行するためのプログラムが格納されることになる。より具体的には、上記プログラムが、ハードウェアである各プロセッサ902、904、906、910、930等に処理を指示すると共に、必要であればデータを渡す。そして、各プロセッサ902、904、906、910、930等は、その指示と渡されたデータとに基づいて、本発明の各手段を実行することになる。
【0125】
図19(A)に、本実施形態を業務用ゲームシステムに適用した場合の例を示す。プレーヤは、ディスプレイ1100上に映し出されたゲーム画像を見ながら、レバー1102、ボタン1104等を操作してゲームを楽しむ。内蔵されるシステムボード(サーキットボード)1106には、各種プロセッサ、各種メモリなどが実装される。そして、本発明の各手段を実行するための情報(プログラム又はデータ)は、システムボード1106上の情報記憶媒体であるメモリ1108に格納される。以下、この情報を格納情報と呼ぶ。
【0126】
図19(B)に、本実施形態を家庭用のゲームシステムに適用した場合の例を示す。プレーヤはディスプレイ1200に映し出されたゲーム画像を見ながら、ゲームコントローラ1202、1204を操作してゲームを楽しむ。この場合、上記格納情報は、本体システムに着脱自在な情報記憶媒体であるCD1206、或いはメモリカード1208、1209等に格納されている。
【0127】
図19(C)に、ホスト装置1300と、このホスト装置1300とネットワーク1302(LANのような小規模ネットワークや、インターネットのような広域ネットワーク)を介して接続される端末1304-1〜1304-nとを含むシステムに本実施形態を適用した場合の例を示す。この場合、上記格納情報は、例えばホスト装置1300が制御可能な磁気ディスク装置、磁気テープ装置、メモリ等の情報記憶媒体1306に格納されている。端末1304-1〜1304-nが、スタンドアロンでゲーム画像、ゲーム音を生成できるものである場合には、ホスト装置1300からは、ゲーム画像、ゲーム音を生成するためのゲームプログラム等が端末1304-1〜1304-nに配送される。一方、スタンドアロンで生成できない場合には、ホスト装置1300がゲーム画像、ゲーム音を生成し、これを端末1304-1〜1304-nに伝送し端末において出力することになる。
【0128】
なお、図19(C)の構成の場合に、本発明の各手段を、ホスト装置(サーバー)と端末とで分散して実行するようにしてもよい。また、本発明の各手段を実行するための上記格納情報を、ホスト装置(サーバー)の情報記憶媒体と端末の情報記憶媒体に分散して格納するようにしてもよい。
【0129】
またネットワークに接続する端末は、家庭用ゲームシステムであってもよいし業務用ゲームシステムであってもよい。そして、業務用ゲームシステムをネットワークに接続する場合には、業務用ゲームシステムとの間で情報のやり取りが可能であると共に家庭用ゲームシステムとの間でも情報のやり取りが可能なセーブ用情報記憶装置(メモリカード、携帯型ゲーム装置)を用いることが望ましい。
【0130】
なお本発明は、上記実施形態で説明したものに限らず、種々の変形実施が可能である。
【0131】
例えば、本発明のうち従属請求項に係る発明においては、従属先の請求項の構成要件の一部を省略する構成とすることもできる。また、本発明の1の独立請求項に係る発明の要部を、他の独立請求項に従属させることもできる。
【0132】
また、本発明は種々のゲーム(格闘ゲーム、シューティングゲーム、ロボット対戦ゲーム、スポーツゲーム、競争ゲーム、ロールプレイングゲーム、音楽演奏ゲーム、ダンスゲーム等)に適用できる。
【0133】
また本発明は、業務用ゲームシステム、家庭用ゲームシステム、多数のプレーヤが参加する大型アトラクションシステム、シミュレータ、マルチメディア端末、ゲーム画像を生成するシステムボード等の種々のゲームシステムに適用できる。
【図面の簡単な説明】
【図1】本実施形態のゲームシステムのブロック図の例である。
【図2】1フレーム分の画像を生成する際の従来例を説明するためのフローチャート図である。
【図3】本実施の形態で1フレーム分の画像を生成する際のフローチャート図である。
【図4】図4(A)(B)はリアルタイムに生成されたレンダリング後の画像をテクスチャとして設定する手法について説明するための図である。
【図5】元画像に元画像テクスチャをマッピングした画像を上書きする画像生成例について説明するための図である。
【図6】図6(A)(B)は元画像テクスチャを画面サイズのポリゴンにマッピングする例について説明するための図である。
【図7】表示画面を分割したブロックのサイズのポリゴンにテクスチャマッピングする例について説明するための図である。
【図8】水槽の水面の画像を生成する処理例について説明するためのフローチャート図である。
【図9】水面の画像を生成する処理例について説明するための図である。
【図10】水面の画像を生成する処理例について説明するための図である。
【図11】水面の画像を生成する処理例について説明するための図である。
【図12】水面の画像を生成する処理例について説明するための図である。
【図13】炎の向こうの背景が透過して見える画像を生成する処理例について説明するためのフローチャート図である。
【図14】炎の向こうの背景が透過して見える画像を生成する処理例について説明するための図である。
【図15】炎の向こうの背景が透過して見える画像を生成する処理例について説明するための図である。
【図16】炎の向こうの背景が透過して見える画像を生成する処理例について説明するための図である。
【図17】炎の向こうの背景が透過して見える画像を生成する処理例について説明するための図である。
【図18】本実施形態を実現できるハードウェアの構成の一例を示す図である。
【図19】図19(A)、(B)、(C)は、本実施形態が適用される種々の形態のシステムの例を示す図である。
【符号の説明】
100 処理部
110 ゲーム処理部
112 移動・動作演算部
130 画像生成部
132 ジオメトリ処理部
140 描画部
142 テクスチャ設定部
144 マッピング処理部
150 音生成部
160 操作部
170 記憶部
172 メインメモリ
174 フレームバッファ
180 情報記憶媒体
190 表示部
192 音出力部
194 セーブ用情報記憶装置
196 通信部
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a game system and an information storage medium.
[0002]
[Background]
Conventionally, a game system that generates an image that can be seen from a given viewpoint in an object space that is a virtual three-dimensional space is known, and is popular as a device that can experience so-called virtual reality. Taking a game system in which a racing game can be enjoyed as an example, a player operates a car (object) to run in an object space, and competes with other players and cars operated by a computer to play a three-dimensional game. Enjoy.
[0003]
[Patent Document 1]
JP-A-11-175746
[0004]
[Problems to be solved by the invention]
Now, in such a game system, it is an important technical problem to generate a more realistic image in order to improve the virtual reality of the player. Texture mapping is known as one method for solving such problems.
[0005]
For example, when expressing the bottom of the water that can be seen through the water surface, it is possible to use the reality of the photograph as it is by preparing a photograph of the water bottom actually seen through the water surface as a texture and mapping it to the object in advance. I can do it.
[0006]
However, for example, the angle at which the water surface can be seen varies depending on the arrangement of the virtual camera, and when a moving object exists in the water, the way the water surface appears depends on the position of the moving object. However, if a photograph of the surface of the water is prepared in advance as a texture, it can only be expressed in a fixed state, so it can correspond to an expression corresponding to the environment of the place reflecting the state that changes in real time. I could not do it.
[0007]
The present invention has been made in view of the problems as described above, and the object of the present invention is to generate a real image more easily by using an image reflecting an environment or situation changing in real time as a texture. It is to be.
[0008]
[Means for Solving the Problems]
(1) The present invention is a game system for generating an image to be output to a display unit,
One-frame image generation when generating an image of a given frame in a virtual three-dimensional space in which at least one element of the type, arrangement, state, environmental condition, and virtual camera arrangement of the three-dimensional model changes in real time In the process
Means for calculating a movement operation of an object arranged in the virtual three-dimensional space based on an input from the player and determining an arrangement of the object and the virtual camera of the frame;
In order to use at least a part of the original image as a texture by rendering the original image generated by performing coordinate conversion from the viewpoint coordinate system to the screen coordinate system and performing rendering processing on the virtual three-dimensional space. Means to perform the necessary processing;
Mapping a texture comprising at least a part of the original image to a given object in the three-dimensional space to generate a given object image in which a background image appears to be transparent, and combining the image with the original image Means for generating an image of a given frame to be output to the display;
It is characterized by including.
(2) The present invention is a game system for generating an image to be output to a display unit,
One-frame image generation when generating an image of a given frame in a virtual three-dimensional space in which at least one element of the type, arrangement, state, environmental condition, and virtual camera arrangement of the three-dimensional model changes in real time In the process
Means for rendering an original image generated by rendering processing in a drawing area and performing processing necessary to use at least a part of the original image as a texture;
Mapping a texture comprising at least a part of the original image to a given object in the three-dimensional space to generate a given object image in which a background image appears to be transparent, and combining the image with the original image Means for generating an image of a given frame to be output to the display unit,
When generating an image including the second object through which the scenery including the moving first object can be seen through, an image not including the second object is drawn as an original image in the drawing area, and the original image is used as a texture. It is characterized by mapping to the second object.
(3) The present invention is a game system for generating an image to be output to a display unit,
One-frame image generation when generating an image of a given frame in a virtual three-dimensional space in which at least one element of the type, arrangement, state, environmental condition, and virtual camera arrangement of the three-dimensional model changes in real time In the process
Means for rendering an original image generated by rendering processing in a drawing area and performing processing necessary to use at least a part of the original image as a texture;
Mapping a texture comprising at least a part of the original image to a given object in the three-dimensional space to generate a given object image in which a background image appears to be transparent, and combining the image with the original image Means for generating an image of a given frame to be output to the display unit,
When generating an image that includes water, glass, flame, gas, or mist, the rendered image is rendered without the water, glass, flame, gas, or mist as the original image. When mapping a part that becomes one of water surface, glass, flame, gas, or mist as a texture to a water surface, glass, flame, gas, or mist object, mapping is performed by manipulating the UV value of the texture. It is characterized by that.
(4) The game system of the present invention
The texture is formed of at least a part of the original image, and is subjected to a deformation process before being mapped to a given object.
(5) The game system of the present invention
The object is a polygon having a display screen size.
(6) The game system of the present invention
The object is a polygon having a block size obtained by dividing a display screen.
(7) The game system of the present invention
The UV value associated with the vertex of the object is manipulated when mapping the texture comprising at least a part of the original image.
(8) The present invention is a computer-readable information storage medium,
One-frame image generation when generating an image of a given frame in a virtual three-dimensional space in which at least one element of the type, arrangement, state, environmental condition, and virtual camera arrangement of the three-dimensional model changes in real time In the process
Means for calculating a movement operation of an object arranged in the virtual three-dimensional space based on an input from the player and determining an arrangement of the object and the virtual camera of the frame;
In order to use at least a part of the original image as a texture by rendering the original image generated by performing coordinate conversion from the viewpoint coordinate system to the screen coordinate system and performing rendering processing on the virtual three-dimensional space. Means to perform the necessary processing;
Mapping a texture comprising at least a part of the original image to a given object in the three-dimensional space to generate a given object image in which a background image appears to be transparent, and combining the image with the original image Means for generating an image of a given frame to be output to the display;
Including a program for causing a computer to realize the above.
(9) The present invention is a computer-readable information storage medium,
One-frame image generation when generating an image of a given frame in a virtual three-dimensional space in which at least one element of the type, arrangement, state, environmental condition, and virtual camera arrangement of the three-dimensional model changes in real time In the process
Means for rendering an original image generated by rendering processing in a drawing area and performing processing necessary to use at least a part of the original image as a texture;
Mapping a texture comprising at least a part of the original image to a given object in the three-dimensional space to generate a given object image in which a background image appears to be transparent, and combining the image with the original image Means for generating an image of a given frame to be output to the display unit and a program for causing a computer to realize the program;
When generating an image including the second object through which the scenery including the moving first object can be seen through, an image not including the second object is drawn as an original image in the drawing area, and the original image is used as a texture. A program for mapping to the second object is included.
(10) The present invention is a computer-readable information storage medium,
One-frame image generation when generating an image of a given frame in a virtual three-dimensional space in which at least one element of the type, arrangement, state, environmental condition, and virtual camera arrangement of the three-dimensional model changes in real time In the process
Means for rendering an original image generated by rendering processing in a drawing area and performing processing necessary to use at least a part of the original image as a texture;
Mapping a texture comprising at least a part of the original image to a given object in the three-dimensional space to generate a given object image in which a background image appears to be transparent, and combining the image with the original image Means for generating an image of a given frame to be output to the display unit and a program for causing a computer to realize the program;
When generating an image that includes water, glass, flame, gas, or mist, the rendered image is rendered without the water, glass, flame, gas, or mist as the original image. When mapping a part that becomes one of water surface, glass, flame, gas, or mist as a texture to a water surface, glass, flame, gas, or mist object, mapping is performed by manipulating the UV value of the texture. It is characterized by including the program for.
(11) The information storage medium of the present invention is
It includes a program for applying a deformation process to a texture comprising at least a part of the original image and then mapping it to a given object.
(12) The information storage medium of the present invention is
The object is a polygon having a display screen size.
(13) The information storage medium of the present invention is
The object is a polygon having a block size obtained by dividing a display screen.
(14) The information storage medium of the present invention is
A program for operating a UV value associated with the vertex of an object when mapping a texture comprising at least a part of the original image is included.
[0009]
DETAILED DESCRIPTION OF THE INVENTION
This embodiment is a game system that performs image generation, and is necessary to use at least a part of an original image rendered in a drawing area after being rendered in the image generation process of a given frame as a texture. And a means for generating an image of the given frame using an image obtained by mapping a texture comprising at least a part of the original image to a given object.
[0010]
The information storage medium according to the present embodiment is an information storage medium that can be used by a computer, and includes a program for executing the above means. The program according to the present embodiment is a program that can be used by a computer (including a program embodied in a carrier wave), and includes a processing routine for executing the above means.
[0011]
The rendering process includes processes such as coordinate conversion, hidden surface removal, shading, and the like.
[0012]
The object to which the texture consisting of at least a part of the original image is mapped may be a three-dimensional object composed of polygons or the like, or may be a two-dimensional polygon such as a single polygon or a sprite.
[0013]
In the present embodiment, since at least part of the original image rendered in the rendering area after rendering processing in the image generation process of a given frame can be used as a texture in the given frame, mapping is performed. There is no time lag between the texture image and the frame image.
[0014]
For this reason, for example, when the background image appears to pass through the water surface, glass, flame, gas, fog, water, etc., or when the expression reflecting the environment is required, such as when the original image appears to be reflected By mapping a background image drawn as an original image as a texture, a realistic image that accurately reflects the environment on the spot can be generated.
[0015]
For example, when there is an object that moves freely in water, it is difficult to prepare an image of the water surface as a texture in advance. However, according to the present embodiment, since the rendered image at that time on the spot can be used as a texture, for example, even if a moving object exists or the viewpoint position or orientation changes, a texture reflecting it can be obtained. I can do it.
[0016]
Thus, according to the present embodiment, there is no need to prepare a fixed texture in advance. Further, since the image generation can be performed using the texture reflecting the environment and the situation in real time, a more realistic image can be generated.
[0017]
In addition, the game system, information storage medium, and program according to the present embodiment combine an image obtained by mapping a texture including at least a part of the original image onto a given object and the original image, and store the given frame. An image is generated.
[0018]
Compositing includes overwriting and blending.
[0019]
For example, if there is an object such as a flame, jug, or water surface where the original image can be seen through the original image, the image obtained by mapping the texture of the original image onto the object such as the flame, jug, or water surface is combined with the original image. It is possible to accurately and realistically represent a flame, a jug, a water surface, etc. through which an image can be seen.
[0020]
As described above, according to the present embodiment, when there is an object in which the original image is transmitted or transferred in the original image, the transmission or transfer of the original image can be accurately and realistically expressed.
[0021]
In addition, the game system, information storage medium, and program according to the present embodiment are characterized in that a deformation process is applied to a texture made up of at least a part of the original image and then mapped to a given object.
[0022]
The deformation process means a process of performing some function operation to deform an image.
[0023]
According to the present embodiment, since the original image can be deformed and mapped, fluctuation, deformation, blurring, and the like during reflection and transmission can be expressed.
[0024]
The game system, information storage medium, and program according to the present embodiment are characterized in that the object is a polygon having a display screen size.
[0025]
In this way, the image information for the entire display screen can be changed by, for example, one (or several) texture mapping. Therefore, for example, when hardware dedicated to texture mapping is prepared in the system, the processing speed can be increased by using this hardware.
[0026]
The game system, information storage medium, and program according to the present embodiment are characterized in that the object is a polygon having a block size obtained by dividing a display screen.
[0027]
In this way, it is possible to reduce the size of the area for drawing the object, and it is possible to save the storage capacity used in the storage unit.
[0028]
In addition, the game system, information storage medium, and program according to the present embodiment operate the UV value associated with the vertex of the object when mapping the texture including at least a part of the original image. .
[0029]
By manipulating the UV value associated with the vertex of the object, the original image can be transformed and mapped. Furthermore, since the deformation state of the original image is changed by changing the setting of the UV value with time, an image in which the original image is shaken can be generated. For this reason, it is effective when generating the image of the water surface which is shaking.
[0030]
The game system, information storage medium, and program according to the present embodiment are characterized in that at least one element of the type, arrangement, state, environmental condition, and virtual camera arrangement of the three-dimensional model changes in real time.
[0031]
According to the present embodiment, an original image rendered by reflecting the type, arrangement, state, environmental condition, and virtual camera arrangement of the three-dimensional model can be used as a texture image. Arrangement means position, rotation and orientation.
[0032]
Accordingly, it is possible to perform real reflection and transmission expression reflecting in real time at least one element of the type, arrangement, state, environmental condition, and virtual camera arrangement of the three-dimensional model.
[0033]
This embodiment is a game system that performs image generation, and provides a virtual three-dimensional space in which at least one element of the type, arrangement, state, environmental condition, and virtual camera arrangement of a three-dimensional model changes with time. Means for rendering an original image generated by rendering processing in a drawing area when generating an image of a frame in real time, and combining the image generated based on the original image with the original image Means for generating an image of the frame.
[0034]
The information storage medium according to the present embodiment is an information storage medium that can be used by a computer, and includes a program for executing the above means. The program according to the present embodiment is a program that can be used by a computer (including a program embodied in a carrier wave), and includes a processing routine for executing the above means.
[0035]
The image generated based on the original image is, for example, an image obtained by masking a part of the original image, an image obtained by deforming a part or the whole of the original image, an image obtained by filtering a part or the whole of the original image, or the like.
[0036]
In addition, synthesizing an image generated based on the original image with a part of the original image means overwriting the image generated based on the original image onto a part of the original image or performing a blending process. .
[0037]
In the present embodiment, an image of the given frame is generated by synthesizing the original image and the image generated based on the original image drawn in the drawing area after being rendered in the image generation process of the given frame. I can do it. That is, an image in the frame can be generated using an image obtained by processing the original image generated in the frame.
[0038]
Therefore, for example, when the background image needs to be an expression that reflects the local environment, such as when the background image is seen through water, glass, mirrors, flames, gas, mist, water, etc. Realistic images that accurately reflect the environment of the field can be generated.
[0039]
Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings.
[0040]
1. Constitution
FIG. 1 shows an example of a block diagram of this embodiment. In this figure, the present embodiment only needs to include at least the processing unit 100, and the other blocks can be arbitrary constituent elements.
[0041]
Here, the processing unit 100 performs various processes such as control of the entire system, instruction instruction to each block in the system, game processing, image processing, sound processing, and the like. , DSP, etc.) or ASIC (gate array, etc.) or a given program (game program).
[0042]
The operation unit 160 is for a player to input operation data, and the function can be realized by hardware such as a lever, a button, and a housing.
[0043]
The storage unit 170 serves as a work area such as the processing unit 100 or the communication unit 196, and its function can be realized by hardware such as a RAM.
[0044]
An information storage medium (storage medium usable by a computer) 180 stores information such as programs and data, and functions thereof are an optical disk (CD, DVD), a magneto-optical disk (MO), a magnetic disk, and a hard disk. It can be realized by hardware such as a magnetic tape or a memory (ROM). The processing unit 100 performs various processes of the present invention (this embodiment) based on information stored in the information storage medium 180. That is, the information storage medium 180 stores information (program or data) for executing the means of the present invention (this embodiment) (particularly, the blocks included in the processing unit 100).
[0045]
Part or all of the information stored in the information storage medium 180 is transferred to the storage unit 170 when the system is powered on. Information stored in the information storage medium 180 includes program code, image data, sound data, display object shape data, table data, list data, and data for instructing the processing of the present invention. It includes at least one of information, information for performing processing according to the instruction, and the like.
[0046]
The display unit 190 outputs an image generated according to the present embodiment, and the function thereof can be realized by hardware such as a CRT, LCD, or HMD (head mounted display).
[0047]
The sound output unit 192 outputs the sound generated by the present embodiment, and its function can be realized by hardware such as a speaker.
[0048]
The save information storage device 194 stores player's personal data (save data), and the save information storage device 194 may be a memory card or a portable game device.
[0049]
The communication unit 196 performs various controls for communicating with the outside (for example, a host device or other game system), and functions thereof are various processors, hardware such as a communication ASIC, It can be realized by a program.
[0050]
The program or data for executing the means of the present invention (this embodiment) may be distributed from the information storage medium of the host device (server) to the information storage medium 180 via the network and the communication unit 196. Good. Use of such an information storage medium of the host device (server) is also included in the scope of the present invention.
[0051]
The processing unit 100 includes a game processing unit 110, an image generation unit 130, and a sound generation unit 150.
[0052]
Here, the game processing unit 110 receives a coin (price) reception process, various mode setting processes, a game progress process, a selection screen setting process, the position and rotation angle (X, Processing to obtain the rotation angle around the Y or Z axis), processing to move the object (motion processing), processing to obtain the viewpoint position (virtual camera position) and line-of-sight angle (virtual camera rotation angle), objects such as map objects Various games such as processing for placing a game in the object space, hit check processing, processing for calculating game results (results, results), processing for multiple players to play in a common game space, or game over processing The processing includes operation data from the operation unit 160, personal data from the save information storage device 194, Carried out on the basis of such as the over-time program.
[0053]
The image generation unit 130 performs various types of image processing in accordance with instructions from the game processing unit 110, for example, generates an image that can be seen from a virtual camera (viewpoint) in the object space, and outputs the generated image to the display unit 190. In addition, the sound generation unit 150 performs various types of sound processing in accordance with instructions from the game processing unit 110, generates sounds such as BGM, sound effects, and voices, and outputs them to the sound output unit 192.
[0054]
Note that all of the functions of the game processing unit 110, the image generation unit 130, and the sound generation unit 150 may be realized by hardware, or all of them may be realized by a program. Alternatively, it may be realized by both hardware and a program.
[0055]
The game processing unit 110 includes a movement / motion calculation unit 112.
[0056]
Here, the movement / motion calculation unit 112 calculates movement information (position data, rotation angle data) and movement information (position data of each part of the object, rotation angle data) of an object such as a car. Based on operation data input by the player through the operation unit 160, a game program, or the like, a process of moving or moving an object is performed.
[0057]
More specifically, the movement / motion calculation unit 112 performs processing for obtaining the position and rotation angle of the object every frame (1/60 seconds), for example. For example, the position of the object in the (k-1) frame is PMk-1, the speed is VMk-1, the acceleration is AMk-1, and the time of one frame is Δt. Then, the position PMk and speed VMk of the object in the k frame are obtained by the following equations (1) and (2), for example.
[0058]
PMk = PMk-1 + VMk-1 * .DELTA.t (1)
VMk = VMk-1 + AMk-1 * .DELTA.t (2)
The image generation unit 130 includes a geometry processing unit 132 and a drawing unit 140.
[0059]
Here, the geometry processing unit 132 performs various types of geometry processing (three-dimensional calculation) such as coordinate transformation, clipping processing, perspective transformation, or light source calculation. Then, the object data (shape data such as vertex coordinates of the object, vertex texture coordinates, luminance data, etc.) after geometry processing (after perspective transformation) is stored in the main memory 172 of the storage unit 170.
[0060]
The drawing unit 140 performs processing for drawing an object (model) after geometry processing in the frame buffer 174, and includes a texture setting unit 142 and a mapping processing unit 144.
[0061]
Here, the texture setting unit 142 performs processing necessary to use at least a part of the original image rendered in the rendering area after being rendered in the image generation process of a given frame as a texture.
[0062]
The mapping processing unit 144 performs a process of generating an image of the given frame using an image obtained by mapping a texture including at least a part of the original image to a given object.
[0063]
Further, an image of the given frame may be generated by synthesizing an image obtained by mapping a texture including at least a part of the original image to a given object and the original image.
[0064]
Further, it is also possible to perform a deformation process on a texture consisting of at least a part of the original image before mapping to a given object.
[0065]
A polygon having a display screen size may be used as the object, or a polygon having a block size obtained by dividing the display screen may be used.
[0066]
The UV value associated with the vertex of the object may be manipulated when mapping the texture comprising at least a part of the original image.
[0067]
Note that the game system according to the present embodiment may be a system dedicated to the single player mode in which only one player can play, and not only such a single player mode but also a multiplayer mode in which a plurality of players can play. A system may be provided.
[0068]
Further, when a plurality of players play, game images and game sounds to be provided to the plurality of players may be generated using one terminal, or connected via a network (transmission line, communication line) or the like. Alternatively, it may be generated using a plurality of terminals.
[0069]
2. Features of this embodiment
In the present embodiment, rendering processing is performed in the image generation process of a given frame in a virtual three-dimensional space in which at least one element of the object type, arrangement, state, environmental condition, and virtual camera arrangement changes in real time. The image of the given frame is obtained by using at least a part of the original image drawn in the drawing area as a texture, and using an image obtained by mapping a texture comprising at least a part of the original image to a given object. It is in the point to generate.
[0070]
First, the difference from the prior art will be clarified with reference to FIGS.
[0071]
FIG. 2 is a flowchart for explaining a conventional example when an image for one frame is generated.
[0072]
First, the CPU performs a movement operation calculation of the object arranged in the virtual three-dimensional space based on the input from the player, and determines the position and rotation of the object in the world coordinate system of the frame (step S10). At the same time, the position and orientation of the virtual camera may be determined.
[0073]
Then, rendering processing such as coordinate conversion in the screen coordinate system, hidden surface removal, shading processing, etc. is performed from the viewpoint coordinate system to draw in a drawing area such as VRAM (step S20), and this is output to the display (step S30).
[0074]
In contrast, in the present embodiment, an image for one frame is generated as shown in the flowchart of FIG.
[0075]
Steps S110 and S120 are the same as steps S10 and S20 in FIG.
[0076]
However, in the present embodiment, an image (hereinafter referred to as an original image) drawn once in a drawing area such as a VRAM after rendering processing is set as a texture (step S130).
[0077]
Then, the texture of the original image is mapped to the object and drawn in the drawing area (step S140), and this is output to the display (step S150).
[0078]
As described above, in the present embodiment, image generation is performed using the rendered image generated in real time as a texture in the process of generating an image of one frame.
[0079]
FIGS. 4A and 4B are diagrams for explaining a method of setting a rendered image generated in real time as a texture.
[0080]
FIG. 4A shows a setting example in the case where a predetermined portion on the VRAM 200 is assigned as the texture area 220 in advance. First, the rendered original image is drawn in the frame buffer 210 (a1). Then, the original image is copied into the texture area 220 on the VRAM 200 to generate the original image texture 230 (a2). Then, an image obtained by mapping the original image texture to the object is drawn in the frame buffer 210 (a3). Then, the image in the frame buffer 210 is output to the display (a4).
[0081]
FIG. 4B shows a setting example when a given portion on the VRAM 200 can be dynamically assigned as the texture region 220. First, the rendered original image is drawn on the VRAM 200 (b1). Then, the original image area 240 on the VRAM is set as a texture area (original image texture) (b2). Then, an image obtained by mapping the original image texture to the object is drawn in the frame buffer 210 (b3). Prior to (b3), the original image may be copied on the frame buffer 210 in advance, and the object mapped with the original image texture may be overwritten. Then, the image in the frame buffer 210 is output to the display (b4).
[0082]
Next, an example of mapping an original image texture generated in real time to an object will be described.
[0083]
FIG. 5 is a diagram for explaining an image generation example in which an image obtained by mapping an original image texture on an original image is overwritten.
[0084]
When drawing a drawing (see 330) in which a transparent jug 332 through which a landscape including a moving airplane 334 can be seen is drawn, first draw an image (original image) that does not contain a jug in the drawing area (see 310). Set the original image as a texture.
[0085]
Then, an image obtained by mapping the original image to the jug object (see 320) is overwritten on the original image (see 330).
[0086]
In this way, an image that accurately reflects the position of a moving object that changes in real time, such as an airplane, can be used as a texture. Therefore, there is no time lag between the image generated as the image of the frame and the image used as the texture, and the image represented by the position and state of the object at that time and the environment can be used as the texture. It is possible to more accurately reproduce visible images and reflected images.
[0087]
FIGS. 6A and 6B are diagrams for explaining an example in which an original image texture is mapped to a polygon having a screen size.
[0088]
As shown in FIG. 6A, the original image 400 drawn in the drawing area is set as a texture (original image texture), and the original image texture is mapped to a screen-sized polygon (frame buffer) 310. Good.
[0089]
Further, as shown in FIG. 6B, when mapping, for example, the UV value may be manipulated so that the original image is deformed and mapped (see 410).
[0090]
Further, as shown in FIG. 7, texture mapping may be performed on polygons having a block size obtained by dividing the display screen.
[0091]
That is, as shown in FIG. 7, the original image 350 on the frame buffer is divided into a plurality of blocks (350-1 to 350-12), and the image of each block is set as a texture image 352. The texture image 352 is texture-mapped to the polygon 360 having the divided block size (c1). Then, the obtained image of the divided block size is drawn back to the frame buffer (drawing area) (c2).
[0092]
In this way, for example, when the texture-mapped polygon is temporarily drawn in another buffer, the area occupied by the other buffer on the VRAM can be reduced.
[0093]
That is, when texture mapping is performed on display screen size polygons as shown in FIGS. 6A and 6B, another buffer of display screen size is secured on the VRAM in order to temporarily draw the display screen size polygons. This may interfere with other processing.
[0094]
However, if texture mapping is performed on polygons having a divided block size as shown in FIG. 7, it is only necessary to prepare another buffer having a divided block size on the VRAM, so that the area occupied by the separate buffer can be reduced. Therefore, it is possible to effectively use limited hardware resources.
[0095]
3. Processing in this embodiment
(1) Expression of water surface
An example of the processing of the present embodiment will be described by taking as an example the case of generating an image of the surface of a water tank in which fish are swimming. Since the state of the water surface of the water tank changes in real time depending on the state of the water tank and the angle at which the water tank is viewed, an image of the water surface is generated as follows in the present embodiment.
[0096]
FIG. 8 is a flowchart for explaining a processing example for generating an image of the water surface of the aquarium, and FIGS. 9 to 12 are diagrams for explaining a processing example for generating an image of the water surface.
[0097]
First, the rendered image is drawn in the display area in the VRAM in a state where there is no water surface (what is present in the water is drawn) (see step S210, 510 in FIG. 9). In the VRAM 500, it is assumed that the allocation of the display area 510 and the texture area (save area) 520 is set in advance as shown in FIG.
[0098]
Then, the original image in the display area 510 is copied to the texture area to generate the original image texture (step S220, see FIG. 10).
[0099]
Then, when the portion 560 that becomes the water surface of the original image texture 550 is pasted to the water surface object 570, mapping is performed by manipulating the UV value of the texture based on the ripples and the refractive index of water (step S230, see FIG. 11). .
[0100]
Then, the water surface object to which the original image texture is mapped is overwritten on the original image (step S240, see FIG. 12).
[0101]
In this way, the original image and the texture image can be synchronized with respect to the angle at which the water surface changes in real time, the position of the fish in the water, and the like. Therefore, it is possible to express a realistic water surface that accurately reflects the angle at which the water surface is viewed and the position of fish in the water.
[0102]
(2) Expression of flame
An example of generating an image in which the background over the flame can be seen through will be described. Since the background over the flame changes in real time depending on the position and state of the object over the flame, and the angle at which the flame is viewed, in this embodiment, the image where the background over the flame appears to be transparent as follows Is generated.
[0103]
FIG. 13 is a flowchart for explaining an example of processing for generating an image in which the background over the flame can be seen through, and FIGS. 14 to 17 show processing for generating an image in which the background over the flame is seen through. It is a figure for demonstrating an example.
[0104]
First, an image (original image) 612 in which the background (other than flame) is rendered is drawn in the drawing area 1 (610) of the VRAM (step S310, see FIG. 14). The VRAM 600 is provided with a drawing area 1 (610), a drawing area 2 (620), and a drawing area 3 (630).
[0105]
Then, an image 622 obtained by deforming the original image 612 in the drawing area 1 (610) is written in the drawing area 2 (see step S320, FIG. 15).
[0106]
Next, the flame image 632 is drawn in the drawing area 3 (step S330, see FIG. 16). Here, the flame portion of the drawing region 3 is a flame region 634, and the portion other than the flame is a background region 636.
[0107]
The drawing area 2 is masked with the background area 636 of the drawing area 3 and overwritten in the drawing area 1 (see step S340, 614 in FIG. 17).
[0108]
Then, the drawing area 1 is copied to the display area and output to the display (step S350).
[0109]
In this way, it is possible to express a realistic flame in which the background behind the flame that changes in real time can be accurately seen through the flame.
[0110]
4). Hardware configuration
Next, an example of a hardware configuration capable of realizing the present embodiment will be described with reference to FIG.
[0111]
The main processor 900 operates based on a program stored in the CD 982 (information storage medium), a program transferred via the communication interface 990, or a program stored in the ROM 950 (one of information storage media). Various processes such as processing, image processing, and sound processing are executed.
[0112]
The coprocessor 902 assists the processing of the main processor 900, has a product-sum calculator and a divider capable of high-speed parallel calculation, and executes matrix calculation (vector calculation) at high speed. For example, if a physical simulation for moving or moving an object requires processing such as matrix operation, a program operating on the main processor 900 instructs (requests) the processing to the coprocessor 902. )
[0113]
The geometry processor 904 performs geometry processing such as coordinate transformation, perspective transformation, light source calculation, and curved surface generation, has a product-sum calculator and a divider capable of high-speed parallel computation, and performs matrix computation (vector computation). Run fast. For example, when processing such as coordinate transformation, perspective transformation, and light source calculation is performed, a program operating on the main processor 900 instructs the geometry processor 904 to perform the processing.
[0114]
The data decompression processor 906 performs a decoding process for decompressing the compressed image data and sound data, and a process for accelerating the decoding process of the main processor 900. As a result, a moving image compressed by a given image compression method can be displayed on an opening screen, an intermission screen, an ending screen, a game screen, or the like. Note that the image data and sound data to be decoded are stored in the ROM 950 and the CD 982 or transferred from the outside via the communication interface 990.
[0115]
The drawing processor 910 performs drawing (rendering) processing of an object composed of primitive surfaces such as polygons and curved surfaces at high speed. When drawing an object, the main processor 900 uses the function of the DMA controller 970 to pass the object data to the drawing processor 910 and transfer the texture to the texture storage unit 924 if necessary. Then, the rendering processor 910 renders the object in the frame buffer 922 at high speed while performing hidden surface removal using a Z buffer or the like based on the object data and texture. The drawing processor 910 can also perform α blending (translucent processing), depth cueing, mip mapping, fog processing, bilinear filtering, trilinear filtering, anti-aliasing, shading processing, and the like. When an image for one frame is written in the frame buffer 922, the image is displayed on the display 912.
[0116]
The sound processor 930 includes a multi-channel ADPCM sound source and the like, and generates high-quality game sounds such as BGM, sound effects, and sounds. The generated game sound is output from the speaker 932.
[0117]
Operation data from the game controller 942, save data from the memory card 944, and personal data are transferred via the serial interface 940.
[0118]
The ROM 950 stores system programs and the like. In the case of an arcade game system, the ROM 950 functions as an information storage medium, and various programs are stored in the ROM 950. A hard disk may be used instead of the ROM 950.
[0119]
The RAM 960 is used as a work area for various processors.
[0120]
The DMA controller 970 controls DMA transfer between the processor and memory (RAM, VRAM, ROM, etc.).
[0121]
The CD drive 980 drives a CD 982 (information storage medium) in which programs, image data, sound data, and the like are stored, and enables access to these programs and data.
[0122]
The communication interface 990 is an interface for transferring data to and from the outside via a network. In this case, as a network connected to the communication interface 990, a communication line (analog telephone line, ISDN), a high-speed serial bus, or the like can be considered. By using a communication line, data transfer via the Internet becomes possible. Also, by using the high-speed serial bus, data transfer between other game systems and other game systems becomes possible.
[0123]
All of the means of the present invention may be executed by hardware alone, or may be executed only by a program stored in an information storage medium or a program distributed via a communication interface. Alternatively, it may be executed by both hardware and a program.
[0124]
When each means of the present invention is executed by both hardware and a program, a program for executing each means of the present invention using hardware is stored in the information storage medium. Become. More specifically, the program instructs each processor 902, 904, 906, 910, 930, etc., which is hardware, and passes data if necessary. Each processor 902, 904, 906, 910, 930, etc. executes each means of the present invention based on the instruction and the passed data.
[0125]
FIG. 19A shows an example in which the present embodiment is applied to an arcade game system. The player enjoys the game by operating the lever 1102, the button 1104, and the like while viewing the game image displayed on the display 1100. Various processors and various memories are mounted on the built-in system board (circuit board) 1106. Information (program or data) for executing each means of the present invention is stored in a memory 1108 which is an information storage medium on the system board 1106. Hereinafter, this information is referred to as storage information.
[0126]
FIG. 19B shows an example in which the present embodiment is applied to a home game system. The player enjoys the game by operating the game controllers 1202 and 1204 while viewing the game image displayed on the display 1200. In this case, the stored information is stored in the CD 1206, which is an information storage medium that is detachable from the main system, or in the memory cards 1208, 1209, and the like.
[0127]
FIG. 19C shows a host apparatus 1300 and terminals 1304-1 to 1304-n connected to the host apparatus 1300 via a network 1302 (a small-scale network such as a LAN or a wide area network such as the Internet). An example of applying this embodiment to a system including In this case, the stored information is stored in an information storage medium 1306 such as a magnetic disk device, a magnetic tape device, or a memory that can be controlled by the host device 1300, for example. When the terminals 1304-1 to 1304-n can generate game images and game sounds stand-alone, the host device 1300 receives a game program and the like for generating game images and game sounds from the terminal 1304-. 1 to 1304-n. On the other hand, if it cannot be generated stand-alone, the host device 1300 generates a game image and a game sound, which is transmitted to the terminals 1304-1 to 1304-n and output at the terminal.
[0128]
In the case of the configuration shown in FIG. 19C, each unit of the present invention may be executed in a distributed manner between the host device (server) and the terminal. The storage information for executing each means of the present invention may be distributed and stored in the information storage medium of the host device (server) and the information storage medium of the terminal.
[0129]
The terminal connected to the network may be a home game system or an arcade game system. When the arcade game system is connected to a network, the save information storage device can exchange information with the arcade game system and exchange information with the home game system. It is desirable to use (memory card, portable game device).
[0130]
The present invention is not limited to that described in the above embodiment, and various modifications can be made.
[0131]
For example, in the invention according to the dependent claims of the present invention, a part of the constituent features of the dependent claims can be omitted. Moreover, the principal part of the invention according to one independent claim of the present invention can be made dependent on another independent claim.
[0132]
The present invention can also be applied to various games (such as fighting games, shooting games, robot battle games, sports games, competitive games, role playing games, music playing games, dance games, etc.).
[0133]
Further, the present invention can be applied to various game systems such as a business game system, a home game system, a large attraction system in which a large number of players participate, a simulator, a multimedia terminal, and a system board for generating game images.
[Brief description of the drawings]
FIG. 1 is an example of a block diagram of a game system according to the present embodiment.
FIG. 2 is a flowchart for explaining a conventional example when generating an image for one frame.
FIG. 3 is a flowchart when an image for one frame is generated in the present embodiment;
FIGS. 4A and 4B are diagrams for explaining a method of setting a rendered image generated in real time as a texture. FIG.
FIG. 5 is a diagram for describing an image generation example in which an image obtained by mapping an original image texture on an original image is overwritten.
FIGS. 6A and 6B are diagrams for explaining an example in which an original image texture is mapped to a polygon having a screen size.
FIG. 7 is a diagram for explaining an example in which texture mapping is performed on a polygon having a block size obtained by dividing a display screen.
FIG. 8 is a flowchart for explaining a processing example for generating an image of the water surface of the aquarium.
FIG. 9 is a diagram for describing a processing example for generating an image of a water surface.
FIG. 10 is a diagram for describing a processing example for generating an image of a water surface.
FIG. 11 is a diagram for describing a processing example for generating an image of a water surface.
FIG. 12 is a diagram for describing a processing example for generating an image of a water surface.
FIG. 13 is a flowchart for explaining an example of processing for generating an image in which a background over a flame can be seen through.
FIG. 14 is a diagram for describing a processing example for generating an image in which a background over a flame can be seen through.
FIG. 15 is a diagram for describing a processing example for generating an image in which a background beyond a flame can be seen through.
FIG. 16 is a diagram for describing a processing example for generating an image in which a background over a flame can be seen through.
FIG. 17 is a diagram for describing a processing example for generating an image in which a background beyond a flame can be seen through.
FIG. 18 is a diagram illustrating an example of a hardware configuration capable of realizing the present embodiment.
FIGS. 19A, 19B, and 19C are diagrams illustrating examples of various types of systems to which the present embodiment is applied.
[Explanation of symbols]
100 processor
110 Game processor
112 Movement / motion calculation unit
130 Image generator
132 Geometry processing part
140 Drawing part
142 Texture setting section
144 Mapping processing unit
150 sound generator
160 Operation unit
170 Storage unit
172 Main memory
174 frame buffer
180 Information storage medium
190 Display
192 sound output section
194 Information storage device for saving
196 Communication Department

Claims (14)

表示部に出力する画像の生成を行うゲームシステムであって、
3次元モデルの種類、配置、状態、環境条件、仮想カメラの配置の少なくともひとつの要素がリアルタイムに変化する仮想3次元空間の所与のフレームの画像をリアルタイムに生成する際の1フレームの画像生成過程において、
プレーヤの入力に基づき仮想3次元空間に配置されるオブジェクトの移動動作演算を行い当該フレームのオブジェクト及び仮想カメラの配置を決定する手段と、
前記仮想3次元空間について、視点座標系からスクリーン座標系に座標変換し、レンダリング処理を施して生成した元画像を記憶部の描画領域に描画して、当該元画像の少なくとも一部をテクスチャとして利用するために必要な処理を行うテクスチャ設定手段と、
前記元画像の少なくとも一部からなるテクスチャを前記3次元空間内の所与のオブジェクトにマッピングして背景画像が透過して見える所与のオブジェクト画像を生成し、当該画像と元画像を合成して表示部に出力する所与のフレームの画像を生成するマッピング処理手段と、
を含むことを特徴とするゲームシステム。
A game system for generating an image to be output to a display unit,
One-frame image generation when generating an image of a given frame in a virtual three-dimensional space in which at least one element of the type, arrangement, state, environmental condition, and virtual camera arrangement of the three-dimensional model changes in real time In the process
Means for calculating a movement operation of an object arranged in the virtual three-dimensional space based on an input from the player and determining an arrangement of the object and the virtual camera of the frame;
With respect to the virtual three-dimensional space, coordinate conversion from the viewpoint coordinate system to the screen coordinate system is performed, and the original image generated by rendering processing is drawn in the drawing area of the storage unit, and at least a part of the original image is used as the texture Texture setting means for performing processing necessary to
Mapping a texture comprising at least a part of the original image to a given object in the three-dimensional space to generate a given object image in which a background image appears to be transparent, and combining the image with the original image Mapping processing means for generating an image of a given frame to be output to the display unit;
A game system comprising:
表示部に出力する画像の生成を行うゲームシステムであって、
3次元モデルの種類、配置、状態、環境条件、仮想カメラの配置の少なくともひとつの要素がリアルタイムに変化する仮想3次元空間の所与のフレームの画像をリアルタイムに生成する際の1フレームの画像生成過程において、
レンダリング処理を施して生成した元画像を記憶部の描画領域に描画して、当該元画像の少なくとも一部をテクスチャとして利用するために必要な処理を行うテクスチャ設定手段と、
前記元画像の少なくとも一部からなるテクスチャを前記3次元空間内の所与のオブジェクトにマッピングして背景画像が透過して見える所与のオブジェクト画像を生成し、当該画像と元画像を合成して表示部に出力する所与のフレームの画像を生成するマッピング処理手段とを含み、
前記テクスチャ設定手段が、
移動する第1のオブジェクトを含む風景が透けて見える第2のオブジェクトを含む画像を生成する際に、第2のオブジェクトを含まない画像を元画像として前記描画領域に描画し
前記マッピング処理手段が、
元画像をテクスチャとして第2のオブジェクトにマッピングすることを特徴とするゲームシステム。
A game system for generating an image to be output to a display unit,
One-frame image generation when generating an image of a given frame in a virtual three-dimensional space in which at least one element of the type, arrangement, state, environmental condition, and virtual camera arrangement of the three-dimensional model changes in real time In the process
A texture setting means for drawing an original image generated by rendering processing in a drawing area of the storage unit and performing processing necessary to use at least a part of the original image as a texture ;
Mapping a texture comprising at least a part of the original image to a given object in the three-dimensional space to generate a given object image in which a background image appears to be transparent, and combining the image with the original image Mapping processing means for generating an image of a given frame to be output to the display unit,
The texture setting means is
When generating an image including a second object seen through landscape including a first object to be moved, and drawn in the drawing area the image not including the second object as the original image,
The mapping processing means
A game system, wherein an original image is mapped to a second object as a texture.
表示部に出力する画像の生成を行うゲームシステムであって、
3次元モデルの種類、配置、状態、環境条件、仮想カメラの配置の少なくともひとつの要素がリアルタイムに変化する仮想3次元空間の所与のフレームの画像をリアルタイムに生成する際の1フレームの画像生成過程において、
レンダリング処理を施して生成した元画像を記憶部の描画領域に描画して、当該元画像の少なくとも一部をテクスチャとして利用するために必要な処理を行うテクスチャ設定手段と、
前記元画像の少なくとも一部からなるテクスチャを前記3次元空間内の所与のオブジェクトにマッピングして背景画像が透過して見える所与のオブジェクト画像を生成し、当該画像と元画像を合成して表示部に出力する所与のフレームの画像を生成するマッピング処理手段とを含み、
前記テクスチャ設定手段が、
水面、ガラス、炎、ガス、霧のいずれかを含む画像を生成する際に、水面、ガラス、炎、ガス、霧のいずれかがなしの状態でレンダリングした画像を元画像として描画し、
前記マッピング処理手段が、
元画像の水面、ガラス、炎、ガス、霧のいずれかになる部分をテクスチャとして水面、ガラス、炎、ガス、霧のいずれかのオブジェクトにマッピングする際に、テクスチャのUV値を操作してマッピングを行うことを特徴とするゲームシステム。
A game system for generating an image to be output to a display unit,
One-frame image generation when generating an image of a given frame in a virtual three-dimensional space in which at least one element of the type, arrangement, state, environmental condition, and virtual camera arrangement of the three-dimensional model changes in real time In the process
A texture setting means for drawing an original image generated by rendering processing in a drawing area of the storage unit and performing processing necessary to use at least a part of the original image as a texture ;
Mapping a texture comprising at least a part of the original image to a given object in the three-dimensional space to generate a given object image in which a background image appears to be transparent, and combining the image with the original image Mapping processing means for generating an image of a given frame to be output to the display unit,
The texture setting means is
When generating an image that includes water, glass, flame, gas, or mist, the rendered image is rendered without the water, glass, flame, gas, or mist as the original image.
The mapping processing means
When mapping the water surface, glass, flame, gas, or fog part of the original image to a water surface, glass, flame, gas, or fog object as a texture, the texture UV value is manipulated for mapping. The game system characterized by performing.
請求項1乃至3のいずれかにおいて、
前記マッピング処理手段が、
前記元画像の少なくとも一部からなるテクスチャに変形処理をほどこしてから所与のオブジェクトにマッピングすることを特徴とするゲームシステム。
In any one of Claims 1 thru | or 3,
The mapping processing means
A game system, wherein a deformation process is applied to a texture formed of at least a part of the original image and then mapped to a given object.
請求項1乃至4のいずれかにおいて、
前記オブジェクトが、表示画面サイズのポリゴンであることを特徴とするゲームシステム。
In any one of Claims 1 thru | or 4,
A game system, wherein the object is a polygon having a display screen size.
請求項1乃至5のいずれかにおいて、
前記オブジェクトが、表示画面を分割したブロックのサイズのポリゴンであることを特徴とするゲームシステム。
In any one of Claims 1 thru | or 5,
A game system, wherein the object is a polygon having a block size obtained by dividing a display screen.
請求項1乃至6のいずれかにおいて、
前記マッピング処理手段が、
前記元画像の少なくとも一部からなるテクスチャをマッピングする際にオブジェクトの頂点に対応づけられたUV値を操作することを特徴とするゲームシステム。
In any one of Claims 1 thru | or 6.
The mapping processing means
A game system characterized by operating a UV value associated with a vertex of an object when mapping a texture comprising at least a part of the original image.
コンピュータが読みとり可能な情報記憶媒体であって、
3次元モデルの種類、配置、状態、環境条件、仮想カメラの配置の少なくともひとつの要素がリアルタイムに変化する仮想3次元空間の所与のフレームの画像をリアルタイムに生成する際の1フレームの画像生成過程において、
プレーヤの入力に基づき仮想3次元空間に配置されるオブジェクトの移動動作演算を行い当該フレームのオブジェクト及び仮想カメラの配置を決定する手段と、
前記仮想3次元空間について、視点座標系からスクリーン座標系に座標変換し、レンダリング処理を施して生成した元画像を記憶部の描画領域に描画して、当該元画像の少なくとも一部をテクスチャとして利用するために必要な処理を行うテクスチャ設定手段と、
前記元画像の少なくとも一部からなるテクスチャを前記3次元空間内の所与のオブジェクトにマッピングして背景画像が透過して見える所与のオブジェクト画像を生成し、当該画像と元画像を合成して表示部に出力する所与のフレームの画像を生成するマッピング処理手段としてコンピュータを機能させるためのプログラムを記憶したことを特徴とする情報記憶媒体。
A computer-readable information storage medium,
One-frame image generation when generating an image of a given frame in a virtual three-dimensional space in which at least one element of the type, arrangement, state, environmental condition, and virtual camera arrangement of the three-dimensional model changes in real time In the process
Means for calculating a movement operation of an object arranged in the virtual three-dimensional space based on an input from the player and determining an arrangement of the object and the virtual camera of the frame;
With respect to the virtual three-dimensional space, coordinate conversion from the viewpoint coordinate system to the screen coordinate system is performed, and the original image generated by rendering processing is drawn in the drawing area of the storage unit, and at least a part of the original image is used as the texture Texture setting means for performing processing necessary to
Mapping a texture comprising at least a part of the original image to a given object in the three-dimensional space to generate a given object image in which a background image appears to be transparent, and combining the image with the original image information storage medium characterized by storing a program for causing a computer to function as the mapping processing means for generating an image of a given frame to be output to the display unit.
コンピュータが読みとり可能な情報記憶媒体であって、
3次元モデルの種類、配置、状態、環境条件、仮想カメラの配置の少なくともひとつの要素がリアルタイムに変化する仮想3次元空間の所与のフレームの画像をリアルタイムに生成する際の1フレームの画像生成過程において、
レンダリング処理を施して生成した元画像を記憶部の描画領域に描画して、当該元画像の少なくとも一部をテクスチャとして利用するために必要な処理を行うテクスチャ設定手段と、
前記元画像の少なくとも一部からなるテクスチャを前記3次元空間内の所与のオブジェクトにマッピングして背景画像が透過して見える所与のオブジェクト画像を生成し、当該画像と元画像を合成して表示部に出力する所与のフレームの画像を生成するマッピング処理手段としてコンピュータを機能させるためのプログラムを記憶し
前記テクスチャ設定手段が、
移動する第1のオブジェクトを含む風景が透けて見える第2のオブジェクトを含む画像を生成する際に、第2のオブジェクトを含まない画像を元画像として前記描画領域に描画し
前記マッピング処理手段が、
元画像をテクスチャとして第2のオブジェクトにマッピングすることを特徴とする情報記憶媒体。
A computer-readable information storage medium,
One-frame image generation when generating an image of a given frame in a virtual three-dimensional space in which at least one element of the type, arrangement, state, environmental condition, and virtual camera arrangement of the three-dimensional model changes in real time In the process
A texture setting means for drawing an original image generated by rendering processing in a drawing area of the storage unit and performing processing necessary to use at least a part of the original image as a texture ;
Mapping a texture comprising at least a part of the original image to a given object in the three-dimensional space to generate a given object image in which a background image appears to be transparent, and combining the image with the original image storing a program for causing a computer to function as the mapping processing means for generating an image of a given frame to be output to the display unit,
The texture setting means is
When generating an image including a second object seen through landscape including a first object to be moved, and drawn in the drawing area the image not including the second object as the original image,
The mapping processing means
Information storage medium characterized and mapped to Turkey the second object as a texture original image.
コンピュータが読みとり可能な情報記憶媒体であって、
3次元モデルの種類、配置、状態、環境条件、仮想カメラの配置の少なくともひとつの要素がリアルタイムに変化する仮想3次元空間の所与のフレームの画像をリアルタイムに生成する際の1フレームの画像生成過程において、
レンダリング処理を施して生成した元画像を記憶部の描画領域に描画して、当該元画像の少なくとも一部をテクスチャとして利用するために必要な処理を行うテクスチャ設定手段と、
前記元画像の少なくとも一部からなるテクスチャを前記3次元空間内の所与のオブジェクトにマッピングして背景画像が透過して見える所与のオブジェクト画像を生成し、当該画像と元画像を合成して表示部に出力する所与のフレームの画像を生成するマッピング処理手段としてコンピュータを機能させるためのプログラムを記憶し
前記テクスチャ設定手段が、
水面、ガラス、炎、ガス、霧のいずれかを含む画像を生成する際に、水面、ガラス、炎、ガス、霧のいずれかがなしの状態でレンダリングした画像を元画像として描画し、
前記マッピング処理手段が、
元画像の水面、ガラス、炎、ガス、霧のいずれかになる部分をテクスチャとして水面、ガラス、炎、ガス、霧のいずれかのオブジェクトにマッピングする際に、テクスチャのUV値を操作してマッピングを行うことを特徴とする情報記憶媒体。
A computer-readable information storage medium,
One-frame image generation when generating an image of a given frame in a virtual three-dimensional space in which at least one element of the type, arrangement, state, environmental condition, and virtual camera arrangement of the three-dimensional model changes in real time In the process
A texture setting means for drawing an original image generated by rendering processing in a drawing area of the storage unit and performing processing necessary to use at least a part of the original image as a texture ;
Mapping a texture comprising at least a part of the original image to a given object in the three-dimensional space to generate a given object image in which a background image appears to be transparent, and combining the image with the original image storing a program for causing a computer to function as the mapping processing means for generating an image of a given frame to be output to the display unit,
The texture setting means is
When generating an image that includes water, glass, flame, gas, or mist, the rendered image is rendered without the water, glass, flame, gas, or mist as the original image.
The mapping processing means
When mapping the water surface, glass, flame, gas, or fog part of the original image to a water surface, glass, flame, gas, or fog object as a texture, the texture UV value is manipulated for mapping. information storage medium characterized and TURMERIC rows.
請求項8乃至10のいずれかにおいて、
前記マッピング処理手段が、
前記元画像の少なくとも一部からなるテクスチャに変形処理をほどこしてから所与のオブジェクトにマッピングすることを特徴とする情報記憶媒体。
In any one of Claims 8 thru | or 10.
The mapping processing means
Information storage medium comprising a mapping to Turkey on a given object from endowment deformation processing to the texture of at least a portion of the original image.
請求項8乃至11のいずれかにおいて、
前記オブジェクトが、表示画面サイズのポリゴンであることを特徴とする情報記憶媒体。
In any of claims 8 to 11,
An information storage medium, wherein the object is a polygon having a display screen size.
請求項8乃至12のいずれかにおいて、
前記オブジェクトが、表示画面を分割したブロックのサイズのポリゴンであることを特徴とする情報記憶媒体。
In any one of Claims 8 thru | or 12.
An information storage medium, wherein the object is a polygon having a block size obtained by dividing a display screen.
請求項8乃至13のいずれかにおいて、
前記マッピング処理手段が、
前記元画像の少なくとも一部からなるテクスチャをマッピングする際にオブジェクトの頂点に対応づけられたUV値を操作することを特徴とする情報記憶媒体。
In any one of Claims 8 thru | or 13.
The mapping processing means
Information storage medium characterized and Turkey to operate the UV values associated with the vertices of the object in mapping texture composed from at least a portion of the original image.
JP2003002098A 2003-01-08 2003-01-08 GAME SYSTEM AND INFORMATION STORAGE MEDIUM Expired - Fee Related JP4245356B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003002098A JP4245356B2 (en) 2003-01-08 2003-01-08 GAME SYSTEM AND INFORMATION STORAGE MEDIUM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003002098A JP4245356B2 (en) 2003-01-08 2003-01-08 GAME SYSTEM AND INFORMATION STORAGE MEDIUM

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2000040064A Division JP3431562B2 (en) 2000-02-17 2000-02-17 GAME SYSTEM AND INFORMATION STORAGE MEDIUM

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2005030618A Division JP2005209217A (en) 2005-02-07 2005-02-07 Game system and information storage medium

Publications (2)

Publication Number Publication Date
JP2003175274A JP2003175274A (en) 2003-06-24
JP4245356B2 true JP4245356B2 (en) 2009-03-25

Family

ID=19198111

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003002098A Expired - Fee Related JP4245356B2 (en) 2003-01-08 2003-01-08 GAME SYSTEM AND INFORMATION STORAGE MEDIUM

Country Status (1)

Country Link
JP (1) JP4245356B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4528036B2 (en) * 2004-06-22 2010-08-18 株式会社バンダイナムコゲームス Program, information storage medium, and image generation system
JP4749824B2 (en) * 2005-10-12 2011-08-17 三菱電機株式会社 Graphics system
JP5042651B2 (en) 2007-01-31 2012-10-03 株式会社バンダイナムコゲームス PROGRAM, INFORMATION STORAGE MEDIUM, AND GAME DEVICE
JP5413081B2 (en) * 2009-02-18 2014-02-12 セイコーエプソン株式会社 Image display method and image display apparatus
EP3337585B1 (en) * 2015-08-17 2022-08-10 Lego A/S Method of creating a virtual game environment and interactive game system employing the method
CN111275809B (en) * 2020-01-14 2023-09-12 新疆初点信息科技有限公司 Space display method and system for ceramic tiles
CN117205549A (en) * 2022-11-30 2023-12-12 腾讯科技(深圳)有限公司 Picture rendering method, apparatus, device, storage medium, and program product

Also Published As

Publication number Publication date
JP2003175274A (en) 2003-06-24

Similar Documents

Publication Publication Date Title
JP3249955B2 (en) Image generation system and information storage medium
JP3777288B2 (en) GAME SYSTEM AND INFORMATION STORAGE MEDIUM
JP4245356B2 (en) GAME SYSTEM AND INFORMATION STORAGE MEDIUM
JP3280355B2 (en) Image generation system and information storage medium
JP3442344B2 (en) GAME SYSTEM AND INFORMATION STORAGE MEDIUM
JP4229319B2 (en) Image generation system, program, and information storage medium
JP3656012B2 (en) GAME SYSTEM AND INFORMATION STORAGE MEDIUM
JP2005209217A (en) Game system and information storage medium
JP4367804B2 (en) Image generation system and information storage medium
JP3297410B2 (en) Image generation system and information storage medium
JP2001229403A (en) Game system and information storage medium
JP3254195B2 (en) Image generation system and information storage medium
JP4577968B2 (en) GAME SYSTEM AND INFORMATION STORAGE MEDIUM
JP4574058B2 (en) Image generation system, program, and information storage medium
JP3431562B2 (en) GAME SYSTEM AND INFORMATION STORAGE MEDIUM
JP4394211B2 (en) Image generation system and information storage medium
JP3614340B2 (en) GAME SYSTEM AND INFORMATION STORAGE MEDIUM
JP3269813B2 (en) Image generation system and information storage medium
JP4592039B2 (en) GAME SYSTEM AND INFORMATION STORAGE MEDIUM
JP2003162734A (en) Game system and information storage medium
JP4803909B2 (en) Image generation system, program, and information storage medium
JP4530326B2 (en) Image generation system and information storage medium
JP4632521B2 (en) GAME SYSTEM AND INFORMATION STORAGE MEDIUM
JP4391633B2 (en) Image generation system and information storage medium
JP4450535B2 (en) Image generation system and information storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070202

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080820

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081020

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20081224

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090106

R150 Certificate of patent or registration of utility model

Ref document number: 4245356

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120116

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120116

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120116

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130116

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130116

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140116

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees