JP4052843B2 - Image generation system, program, and information storage medium - Google Patents

Image generation system, program, and information storage medium Download PDF

Info

Publication number
JP4052843B2
JP4052843B2 JP2002017600A JP2002017600A JP4052843B2 JP 4052843 B2 JP4052843 B2 JP 4052843B2 JP 2002017600 A JP2002017600 A JP 2002017600A JP 2002017600 A JP2002017600 A JP 2002017600A JP 4052843 B2 JP4052843 B2 JP 4052843B2
Authority
JP
Japan
Prior art keywords
image
information
program
changed
image generation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002017600A
Other languages
Japanese (ja)
Other versions
JP2003216967A (en
JP2003216967A5 (en
Inventor
高志 後藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Namco Ltd
Bandai Namco Entertainment Inc
Original Assignee
Namco Ltd
Namco Bandai Games Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Ltd, Namco Bandai Games Inc filed Critical Namco Ltd
Priority to JP2002017600A priority Critical patent/JP4052843B2/en
Publication of JP2003216967A publication Critical patent/JP2003216967A/en
Publication of JP2003216967A5 publication Critical patent/JP2003216967A5/ja
Application granted granted Critical
Publication of JP4052843B2 publication Critical patent/JP4052843B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Generation (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、画像生成システム、プログラム及び情報記憶媒体に関する。
【0002】
【背景技術及び発明が解決しようとする課題】
従来より、仮想的な3次元空間であるオブジェクト空間内において仮想カメラ(所与の視点)から見える画像を生成する画像生成システム(例えばゲームシステム)が知られており、いわゆる仮想現実を体験できるものとして人気が高い。
【0003】
このような画像生成システムでは、プレーヤの仮想現実感の向上のために、よりリアルな画像を生成することが重要な課題になっている。
【0004】
例えば水面に浮かぶ手漕ぎボート等の画像についても、よりリアルに表現されていることが望まれる。ここにおいて手漕ぎボートと水面の位置関係がリアルタイムに変化する場合には変化する位置関係を反映した画像をリアルタイム生成しなければならない。
【0005】
従って例えばゲーム装置等のように、限られたハードウエアを用いて入力情報に基づいたリアルタイムな画像生成を行うことが必要な画像生成システムにおいては、いかにして少ない演算負荷でリアルな画像を生成するかが重要な課題となる。
【0006】
本発明は、以上のような課題に鑑みてなされたものであり、その目的とするところは、視点から見て第1のオブジェクトの少なくとも1部より奥方向に位置する第2のオブジェクトの少なくとも1部が見える画像をより少ない処理負荷でリアルに生成することができる画像生成システム、プログラム及び情報記憶媒体を提供することにある。
【0007】
【課題を解決するための手段】
(1)本発明は、画像生成を行う画像生成システムであって、
第1のオブジェクトと少なくとも一部に凹部を含む第2のオブジェクトをオブジェクト空間内の所与の位置に配置する手段と、
第2のオブジェクトに関連づけて用意された判定用の第3のオブジェクトを、オブジェクト空間内の第2のオブジェクトに対応して与えられた位置に配置する手段と、
第1のオブジェクトと判定用の第3のオブジェクトとによって特定される交差部分について、第2のオブジェクトの凹部が見えるように、第1のオブジェクトのモデル情報を変更又はレンダリング手法を変更して、第1のオブジェクトと第2のオブジェクトを含むオブジェクト空間の画像を生成する手段と、
を含むことを特徴とする。
【0008】
また本発明に係るプログラムは、コンピュータにより実行可能なプログラム(情報記憶媒体又は搬送波に具現化されるプログラム)であって、上記手段をコンピュータに実現させる(上記手段としてコンピュータを機能させる)ことを特徴とする。また本発明に係る情報記憶媒体は、コンピュータにより読み取り可能(使用可能)な情報記憶媒体であって、上記手段をコンピュータに実現させる(上記手段としてコンピュータを機能させる)ためのプログラムを含むことを特徴としている。
【0009】
ここで、オブジェクト空間とは、例えば定義点(ポリゴンの頂点或いは自由曲面の制御点など)により形状が特定されるオブジェクトが配置される仮想的な3次元空間をいう。
【0010】
第2のオブジェクトに関連付けて用意された判定用の第3のオブジェクト(ボリュームオブジェクト)は、例えば予め見積もった第1のオブジェクトと第2のオブジェクトの重複部分と同一形状又は類似形状を有するモデルで構成してもよいし、第2のオブジェクトの少なくとも一部と同一形状または類似形状を有するモデルで構成してもよいし、第2のオブジェクトによって切り取りたい形状を有するモデルで構成してもよいし、第2のオブジェクトの凹部を切り出した形状のモデルで構成してもよいし、第2のオブジェクトの少なくとも一部を簡易化した形状のモデルで構成してもよいし、対2のオブジェクトの凸部を覆う形状のモデルで構成してもよい。判定用の第3のオブジェクトのモデルの形状は生成する画像や実現したい画像効果に応じて、適宜決定することができる。
【0011】
また判定用の第3のオブジェクトは予め用意されている場合でもよいし、リアルタイムに設定される場合でもよい。
【0012】
判定用の第3のオブジェクトは、第2のオブジェクトと同位置に配置するようにしてもよいし、第2のオブジェクトから一義的に与えられる位置に配置するようにしてもよい。
【0013】
第1のオブジェクトのモデル情報を変更するとは、例えば第1のオブジェクトにマッピングするテクスチャ情報を変更したり、第1のオブジェクトのプリミティブに付随したα値を変更する場合でもよい。
【0014】
第1のオブジェクトのレンダリング手法を変更するとは、例えば第1のオブジェクトのレンダリング時にカルバック(裏面消去)法に変更する等である。
【0015】
第1のオブジェクトと判定用の第3のオブジェクトの交差部分の検出は、ハード的に行われる場合でもよいし、ソフト的に行われる場合でもよい。
【0016】
本発明によれば、視点から見て第1のオブジェクトの少なくとも1部より奥方向に位置する第2のオブジェクトの少なくとも1部の凹部が見える画像を生成することができる。また第2のオブジェクトの位置がリアルタイムに変化する場合でも判定用の第3のオブジェクトの配置を変化させるだけで、上記画像を生成できるので便利である。
【0017】
例えばボリューム同士の交差した部分を判定する処理(たとえばシャドウボリューム処理)機能を有するハードウェアを用いて本画像生装置を構成する場合には、少ない処理負荷で視点から見て第1のオブジェクトより奥方向に位置する第2オブジェクトの凹部が見える画像を生成することができる。
【0018】
また第1のオブジェクトが例えば水、砂、マグマ、泥、流体、気体等である場合に第1のオブジェクトにのめり込んだ第2のオブジェクトの凹部が見える様子を表現するのに好適である。
【0019】
(2)本発明は、画像生成を行う画像生成システムであって、
第1のオブジェクトと第2のオブジェクトをオブジェクト空間内の所与の位置に配置する手段と、
第2のオブジェクトに関連づけて用意された判定用の第3のオブジェクトを、オブジェクト空間内の第2のオブジェクトに対応して与えられた位置に配置する手段と、
第1のオブジェクトと判定用の第3のオブジェクトとによって特定される交差部分について、第2のオブジェクトの表面が見えるように、第1のオブジェクトのモデル情報を変更又はレンダリング手法を変更して、第1のオブジェクトと第2のオブジェクトを含むオブジェクト空間の画像を生成する手段と、
を含むことを特徴とする。
【0020】
また本発明に係るプログラムは、コンピュータにより実行可能なプログラム(情報記憶媒体又は搬送波に具現化されるプログラム)であって、上記手段をコンピュータに実現させる(上記手段としてコンピュータを機能させる)ことを特徴とする。また本発明に係る情報記憶媒体は、コンピュータにより読み取り可能(使用可能)な情報記憶媒体であって、上記手段をコンピュータに実現させる(上記手段としてコンピュータを機能させる)ためのプログラムを含むことを特徴としている。
【0021】
ここで、オブジェクト空間とは、例えば定義点(ポリゴンの頂点或いは自由曲面の制御点など)により形状が特定されるオブジェクトが配置される仮想的な3次元空間をいう。
【0022】
第2のオブジェクトに関連付けて用意された判定用の第3のオブジェクト(ボリュームオブジェクト)は、例えば予め見積もった第1のオブジェクトと第2のオブジェクトの重複部分と同一形状又は類似形状を有するモデルで構成してもよいし、第2のオブジェクトの少なくとも一部と同一形状または類似形状を有するモデルで構成してもよいし、第2のオブジェクトによって切り取りたい形状を有するモデルで構成してもよいし、第2のオブジェクトの少なくとも一部を簡易化した形状のモデルで構成してもよいし、対2のオブジェクトの凸部を覆う形状のモデルで構成してもよい。判定用の第3のオブジェクトのモデルの形状は生成する画像や実現したい画像効果に応じて、適宜決定することができる。
【0023】
また判定用の第3のオブジェクトは予め用意されている場合でもよいし、リアルタイムに設定される場合でもよい。
【0024】
判定用の第3のオブジェクトは、第2のオブジェクトと同位置に配置するようにしてもよいし、第2のオブジェクトから一義的に与えられる位置に配置するようにしてもよい。
【0025】
第1のオブジェクトのモデル情報を変更するとは、例えば第1のオブジェクトにマッピングするテクスチャ情報を変更したり、第1のオブジェクトのプリミティブに付随したα値を変更する場合でもよい。
【0026】
第1のオブジェクトのレンダリング手法を変更するとは、例えば第1のオブジェクトのレンダリング時に裏面消去法を用いる場合に表裏の判定を逆にする等である。
【0027】
第1のオブジェクトと判定用の第3のオブジェクトの交差部分の検出は、ハード的に行われる場合でもよいし、ソフト的に行われる場合でもよい。
【0028】
本発明によれば、視点から見て第1のオブジェクトの少なくとも1部より奥方向に位置する第2のオブジェクトの少なくとも1部の表面が見える画像を生成することができる。また第2のオブジェクトの位置がリアルタイムに変化する場合でも判定用の第3のオブジェクトの配置を変化させるだけで、上記画像を生成できるので便利である。
【0029】
例えばボリューム同士の交差した部分を判定する処理(シャドウボリューム処理)機能を有するハードウェアを用いて本画像生装置を構成する場合には、少ない処理負荷で視点から見て第1のオブジェクトより奥方向に位置する第2オブジェクトの表面が見える画像を生成することができる。
【0030】
また第1のオブジェクトが例えば水、砂、マグマ、泥、流体、気体等である場合に第1のオブジェクトにのめり込んだ第2のオブジェクトの凹部が見える様子を表現するのに好適である。
(3)また本発明に係る画像生成システム、プログラム及び情報記憶媒体は、
第1のオブジェクトの前記交差部分に対応する部分にマッピングするテクスチャを透明なテクスチャに変更することを特徴とする。
【0031】
本発明によれば第1のオブジェクトの交差部分に対応する部分に透明なテクスチャがマッピングされるので、視点から見て第1のオブジェクトの少なくとも1部より奥方向に位置する第2のオブジェクトの少なくとも1部が見える画像を生成することができる。
(4)また本発明に係る画像生成システム、プログラム及び情報記憶媒体は、
第1のオブジェクトの前記交差部分に対応する部分の半透明情報を、第1のオブジェクトが透明になるように変更して、半透明合成処理を行うことを特徴とする。
【0032】
ここで半透明情報とは、透明度情報と等価で、画像単位若しくは各画素の関連付けられて記憶される情報であって、オブジェクトの定義点毎に設定され、例えば色情報以外のプラスアルファの情報(α値)としての透明度(不透明度或いは半透明度と等価)を示す情報をいう。半透明情報が、例えばプラスアルファ情報として透明度情報を示す場合、例えば半透明情報を用いた半透明ブレンディング(αブレンディング)、半透明情報を用いた加算半透明(α加算)、半透明情報を用いた減算半透明(α減算)などの合成処理方法がある。
【0033】
例えばαブレンディングである場合には、次のような半透明情報(α)を用いた合成処理が行われる。
【0034】
RQ=(1−α)×R1+α×R2
GQ=(1−α)×G1+α×G2
BQ=(1−α)×B1+α×B2
ここで、R1、G1、B1は、描画バッファに既に描画されているジオメトリ処理後の画像の色(輝度)のR、G、B成分であり、R2、G2、B2は、描画画像の色のR、G、B成分である。また、RQ、GQ、BQは、αブレンディングにより生成される画像の色のR、G、B成分である。なお、ここでは、α値として、ジオメトリ処理後の所与の画像のα値を用いてもよいし、描画された元画像のα値を使用するようにしてもよい。
【0035】
本発明によれば第1のオブジェクトの前記交差部分に対応する部分の半透明情報を、第1のオブジェクトが透明になるように変更して、半透明合成処理を行うので、視点から見て第1のオブジェクトの少なくとも1部より奥方向に位置する第2のオブジェクトの少なくとも1部が見える画像を生成することができる。
(5)また本発明に係る画像生成システム、プログラム及び情報記憶媒体は、
第1のオブジェクトは流体を表現するためのオブジェクトであり、第2のオブジェクトは流体面に浮かぶオブジェクトであり、視点からみて流体面より奥方向に位置する第2のオブジェクトが見えるように第1のオブジェクトのモデル情報又はレンダリング手法を変更することを特徴とする。
【0036】
例えば第1のオブジェクトは水を表すオブジェクトであり、第2のオブジェクトは水面面に浮かぶ船オブジェクトであり、水面以下に位置する船オブジェクトの凹部が見えるようにモデル情報を変更することもできる。
【0037】
【発明の実施の形態】
以下、本発明の好適な実施形態について図面を用いて説明する。
【0038】
なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を何ら限定するものではない。また本実施形態で説明される構成の全てが本発明の解決手段として必須であるとは限らない。
【0039】
1. 構成
図1に、本実施形態の画像生成システム(例えばゲームシステム)の機能ブロック図の一例を示す。
【0040】
なお同図において本実施形態は、少なくとも処理部100を含めばよく(或いは処理部100と記憶部170、或いは処理部100と記憶部170と情報記憶媒体180を含めばよく)、それ以外のブロック(例えば操作部160、表示部190、音出力部192、携帯型情報記憶装置194、通信部196)については、任意の構成要素とすることができる。
【0041】
ここで処理部100は、システム全体の制御、システム内の各ブロックへの命令の指示、ゲーム処理、画像処理、又は音処理などの各種の処理を行うものであり、その機能は、各種プロセッサ(CPU、DSP等)、或いはASIC(ゲートアレイ等)などのハードウェアや、所与のプログラム(ゲームプログラム)により実現できる。
【0042】
操作部160は、プレーヤが操作データを入力するためのものであり、その機能は、レバー、ボタン、筐体などのハードウェアにより実現できる。
【0043】
記憶部170は、メインメモリ(主記憶部等)172やフレームバッファ(描画バッファ等)174等を含み、処理部100や通信部196などのワーク領域となるもので、その機能はRAMなどのハードウェアにより実現できる。
【0044】
情報記憶媒体(コンピュータにより使用可能な記憶媒体)180は、プログラムやデータなどの情報を格納するものであり、その機能は、光ディスク(CD、DVD)、光磁気ディスク(MO)、磁気ディスク、ハードディスク、磁気テープ、或いはメモリ(ROM)などのハードウェアにより実現できる。処理部100は、この情報記憶媒体180に格納される情報に基づいて本発明(本実施形態)の種々の処理を行う。即ち情報記憶媒体180には、本発明(本実施形態)の手段(特に処理部100に含まれるブロック)を実行するための情報(プログラム或いはデータ)が格納される。
【0045】
なお、情報記憶媒体180に格納される情報の一部又は全部は、システムへの電源投入時等に記憶部170に転送されることになる。また情報記憶媒体180に記憶される情報は、本発明の処理を行うためのプログラム、画像データ、音データ、表示物の形状データ、テーブルデータ、リストデータ、本発明の処理を指示するための情報、その指示に従って処理を行うための情報等の少なくとも1つを含むものである。
【0046】
表示部190は、本実施形態により生成された画像を出力するものであり、その機能は、CRT、LCD、或いはHMD(ヘッドマウントディスプレイ)などのハードウェアにより実現できる。
【0047】
音出力部192は、本実施形態により生成された音を出力するものであり、その機能は、スピーカなどのハードウェアにより実現できる。
【0048】
携帯型情報記憶装置194は、プレーヤの個人データやセーブデータなどが記憶されるものであり、この携帯型情報記憶装置194としては、メモリカードや携帯型ゲーム装置などを考えることができる。
【0049】
通信部196は、外部(例えばホスト装置や他の画像生成システム)との間で通信を行うための各種の制御を行うものであり、その機能は、各種プロセッサ、或いは通信用ASICなどのハードウェアや、プログラムなどにより実現できる。
【0050】
なお本発明(本実施形態)の手段を実行するためのプログラム或いはデータは、ホスト装置(サーバ)が有する情報記憶媒体からネットワーク及び通信部196を介して情報記憶媒体180に配信するようにしてもよい。このようなホスト装置(サーバ)の情報記憶媒体の使用も本発明の範囲内に含まれる。
【0051】
処理部100は、ゲーム処理部110、交差部分検出処理部(シャドーボリューム処理部)120、画像生成部130、音生成部150を含む。
【0052】
ここでゲーム処理部110は、コイン(代価)の受け付け処理、各種モードの設定処理、ゲームの進行処理、選択画面の設定処理、オブジェクト(1又は複数のプリミティブ面)の位置や回転角度(X、Y又はZ軸回りの回転角度)を求める処理、オブジェクトを動作させる処理(モーション処理)、視点の位置(仮想カメラの位置)や視線角度(仮想カメラの回転角度)を求める処理、マップオブジェクトなどのオブジェクトをオブジェクト空間へ配置する処理、ヒットチェック処理、ゲーム結果(成果、成績)を演算する処理、複数のプレーヤが共通のゲーム空間でプレイするための処理、或いはゲームオーバ処理などの種々のゲーム処理を、操作部160からの操作データや、携帯型情報記憶装置194からの個人データ、保存データや、ゲームプログラムなどに基づいて行う。
【0053】
ゲーム処理部は交差部分検出用設定処理部112を含む。交差部分検出用設定処理部112は、交差部分についてモデル情報やレンダリング手法が変更されるオブジェクト(ボリュームオブジェクトの影響を受けるオブジェクト)を指定する処理や、交差部分についてのモデル情報やレンダリング手法の変更内容の指定や第2のオブジェクトに関連づけて用意された判定用の第3のオブジェクトを、オブジェクト空間内の第2のオブジェクトに対応して与えられた位置に配置する処理等を行う。
【0054】
交差部分検出処理部(シャドーボリューム処理部)120は、ボリュームオブジェクトとボリュームオブジェクトによって影響を受けるように設定された所与のオブジェクトとの交差部分(重複部分)を判定し、交差部分(重複部分)について、予め設定された変更情報に基づき、所与のオブジェクトのモデル情報を変更する処理を行う。
【0055】
画像生成部130は、ゲーム処理部110からの指示等にしたがって各種の画像処理を行い、例えばオブジェクト空間内で仮想カメラ(視点)から見える画像を生成して、表示部190に出力する。
【0056】
音生成部150は、ゲーム処理部110からの指示等にしたがって各種の音処理を行い、BGM、効果音、又は音声などの音を生成し、音出力部192に出力する。
【0057】
なお、ゲーム処理部110、交差部分検出処理部(シャドーボリューム処理部)120、画像生成部130、音生成部150の機能は、その全てをハードウェアにより実現してもよいし、その全てをプログラムにより実現してもよい。或いは、ハードウェアとプログラムの両方により実現してもよい。
【0058】
画像生成部130は、ジオメトリ処理部(3次元演算部)132、描画部(レンダリング部)140を含む。
【0059】
ここで、ジオメトリ処理部132は、座標変換、クリッピング処理、透視変換、或いは光源計算などの種々のジオメトリ処理(3次元演算)を行う。そして、本実施形態では、ジオメトリ処理後(透視変換後)のオブジェクトデータ(オブジェクトの頂点座標、頂点テクスチャ座標、或いは輝度データ等)は、記憶部170の主記憶部172に格納されて、保存される。
【0060】
描画部140は、ジオメトリ処理後(透視変換後)のオブジェクトデータと、記憶部170に記憶されるテクスチャとに基づいて、オブジェクトを描画バッファ174に描画する。これにより、オブジェクトが移動するオブジェクト空間において、仮想カメラ(視点)から見える画像が描画(生成)されるようになる。
【0061】
なお描画部140では、ボリュームオブジェクトによって影響を受けるように設定された所与のオブジェクトとの交差部分(重複部分)については、交差部分検出処理によって変更された内容のモデル情報を用いて、又は交差部分検出処理によって変更された内容のレンダリング手法によって、レンダリング処理が行われる。
【0062】
なお、本実施形態の画像生成システムは、1人のプレーヤのみがプレイできるシングルプレーヤモード専用のシステムにしてもよいし、このようなシングルプレーヤモードのみならず、複数のプレーヤがプレイできるマルチプレーヤモードも備えるシステムにしてもよい。
【0063】
また複数のプレーヤがプレイする場合に、これらの複数のプレーヤに提供するゲーム画像やゲーム音を、1つの端末を用いて生成してもよいし、ネットワーク(伝送ライン、通信回線)などで接続された複数の端末を用いて生成してもよい。
【0064】
2. 本実施形態の特徴
以下では、水面(第1のオブジェクト)を移動するボート(第2のオブジェクト)の画像を生成する場合を例にとり説明するが、他のケースにも適用することができる。
【0065】
図2に、本実施の形態における水面(第1のオブジェクト)を移動するボート(第2のオブジェクト)の画像の一例を示す。
【0066】
ボート220は船底222が見える凹形状をしている。このように水面に例えば図2に示すボートのような凹部を有するオブジェクトが浮かんでいる場合、例えば図2のようなアングルにおいては、凹部である船底222がみえる。
【0067】
図3はボートモデルを用いて生成したボートオブジェクトの画像の一例であり、図4は水面モデルを用いて生成した水面オブジェクトの画像の一例である。
【0068】
また図5はボートモデルとボートが浮かんでいない状態の水面モデル(図4の画像を生成する際に使用したモデル)をオブジェクト空間に配置して、これらのモデルが本来有している奥行き情報に基づいて生成した画像の一例である。
【0069】
ここでボートは移動オブジェクトであるため、その位置は各フレーム毎にリアルタイムに与えられるようにしてもよい。また水面は移動しないオブジェクトとして取り扱い固定の位置情報を与えるようにしてもよい。
【0070】
そしてあたえられた位置情報に基づき、ボートモデルと水面モデルをオブジェクト空間に配置し、これらの位置情報とモデル情報に基づき与えられる各モデルのプリミティブ(例えばポリゴン面や頂点等)の奥行き情報に基づき陰面消去を行うと図5に示すような画像が生成されることになる。
【0071】
ここで水面モデルはボートが浮かんでいない状態のものを使用しているため、ボートが浮かんだ部分も浮かんだボートによる変形のないフラット状態である。
【0072】
従ってボートの凹部にあたる船底は、仮想カメラ(視点)からみて水面(水の表面)より奥に位置することになるため、図5に示すようにボードの水面より高い部分のみが見えた画像が生成されてしまう。
【0073】
ここでボートが浮かんだことにる変形を反映させた水面モデルを用いれば係る不具合は生じない。しかし、例えば入力情報にもとづきリアルタイムに移動するボードを反映させて水面オブジェクトを変形させると処理負荷が増大する。
【0074】
本実施の形態の特徴は、少なくとも一部に凹部を含む第2のオブジェクト(例えばボート)に対応する判定用の第3のオブジェクト(ボリュームオブジェクト)を、第1のオブジェクト(例えば水面)と共にオブジェクト空間に配置し、第1のオブジェクト(例えば水面)と判定用の第3のオブジェクト(ボリュームオブジェクト)によって特定される交差部分を検出し、第2のオブジェクト(例えばボート)の凹部が見えるように、検出された交差部分に対応する第1のオブジェクト(例えば水面)のモデル情報を変更又はレンダリング手法を変更して、第1のオブジェクト(例えば水面)と第2のオブジェクト(例えばボート)を含むオブジェクト空間の画像を生成する点にある。
【0075】
このようにすることにより本実施の形態では、ボートモデルとボートが浮かんでいない状態の水面モデルを用いて、ボートの船底が見える画像を生成することができる。
【0076】
図6は、本実施の形態で使用するボリュームオブジェクト(判定用の第3のオブジェクト)の一例について説明するための図である。
【0077】
同図に示すボリュームオブジェクト230は、ボートオブジェクト(第2のオブジェクト)とボートが浮かんでいない状態の水面オブジェクト(第1のオブジェクト)とによって特定される交差部分を検出するためにボートオブジェクト(第2のオブジェクト)に対応して設けられた判定用の第3のオブジェクトである。
【0078】
同図に示すようにボリュームオブジェクト230は、水面下(ボートを浮かべていない状態の水面下)に位置するボートの凹部の空間を切り出した形状をしており、ボートの凹部と水面(ボートを浮かべていない状態)とによって特定される(切り取られる)凸型のボリュームとして構成することができる。ボートの位置が変化してもこのボリュームオブジェクトに対応するモデルは、同じモデルを使用可能である。
【0079】
なお、凸型のオブジェクトとは、例えば視線方向に重なるプリミティブ面が2枚以上ないオブジェクトをいう。
【0080】
図7(A)(B)は、第1のオブジェクト(例えば水面)と判定用の第3のオブジェクト(ボリュームオブジェクト)によって特定される交差部分の検出について説明するための図である。
【0081】
図7(A)は、画像生成時にボートオブジェクト320と水面オブジェクト310をオブジェクト空間に配置する様子を表しており、図7(B)は、交差部分検出時にボリュームオブジェクト330と水面オブジェクト310をオブジェクト空間に配置する様子を表している。
【0082】
交差部分検出時には、ボリュームオブジェクト330をオブジェクト空間のボートオブジェクト320と同じ位置に配置する。ここにおいてオブジェクトの位置とは例えばオブジェクトの代表点を配置する位置(ワールド座標系における位置座標)である。
【0083】
例えば、シャドーボリューム機能を有するハードウエアを用いて交差部分検出処理を行う場合には、水面オブジェクトの画像を生成するために使用するモデル情報と配置位置及びボリュームオブジェクトのモデル情報と配置位置を指定してハードウエアのボリューム同士の交差した部分を判定する処理を行うとよい。
【0084】
これにより、水面オブジェクトとボリュームオブジェクトとの交差部分(図7(B)の斜線部分)を判定することができる。そしてボートオブジェクトの船底(凹部)が見えるように、検出された交差部分に対応する水面オブジェクトのモデル情報を変更又はレンダリング手法を変更する。
【0085】
例えば交差部分について水面オブジェクトにマッピングするテクスチャ情報を変更したり、水面オブジェクトのプリミティブに付随したα値を変更するようにしてもよい。また交差部分について水面オブジェクトのレンダリング手法でたとえば裏面消去法を用いる場合において表裏の判定を逆にするようにしてもよい。
【0086】
図8は、交差部分が切り取られた水面オブジェクトの画像である。交差部分350以外の水面については、水面テクスチャがマッピングされている。ここで例えば交差部分350について透明テクスチャをマッピングするようにモデル情報を変更することができる。このようにすると交差部分350については、水面より奥方向に位置するボートの船底部分が見える画像(図2参照)を生成することができる。
【0087】
3. 本実施形態の処理例
次に、本実施形態の処理の詳細例について、図9のフローチャートを用いて説明する。
【0088】
各フレーム毎に以下のステップS10〜S50の処理を繰り返す。
【0089】
まずボリュームオブジェクト(例えばシャドーボリューム)の影響を受けるオブジェクトにおいてボリュームオブジェクト(例えばシャドーボリューム)の内側の部分のテクスチャを透明なものに差し替えるように設定する(ステップS10)。
【0090】
次に水面オブジェクトの画像を生成するための水面モデルをボリュームオブジェクト(例えばシャドーボリューム)の影響を受ける状態でオブジェクト空間に配置する(ステップS20)。ここでボリュームオブジェクト(例えばシャドーボリューム)の影響を受ける状態とは、水面オブジェクトがステップS10の設定でレンダリングが行われる状態等におくことである。例えば水面オブジェクトがボリュームオブジェクト(例えばシャドーボリューム)の影響を受けることを示すための設定をONにするような場合でもよい。
【0091】
次にボートオブジェクトの画像を生成するためのボートモデルをボリュームオブジェクト(例えばシャドーボリューム)の影響を受ける状態でオブジェクト空間に配置する(ステップS30)。
【0092】
次にボートに関連付けて用意されている判定用ボリュームをボリュームオブジェクト(例えばシャドーボリューム)として、オブジェクト空間内のボートオブジェクトと同じ座標に配置する(ステップS40)。
【0093】
そして水面オブジェクトとボートオブジェクトを含むオブジェクト空間のレンダリング処理を行う(ステップS50)。このレンダリング処理を行うさいに、ステップS10においてボリュームオブジェクト(例えばシャドーボリューム)の影響を受けるように設定されているオブジェクト(例えば水面オブジェクト)におけるボリュームオブジェクト(例えばシャドーボリューム)の内側にあたる部分(ボリュームオブジェクトとの交差部分)のテクスチャを透明なものに差し替える処理を行う。
【0094】
なおボリュームオブジェクト(例えばシャドーボリューム)の影響を受けるように設定されているオブジェクトとボリュームオブジェクト(例えばシャドーボリューム)との交差部分の判定については、ハードが行うようにしてもよいし、プログラムで行うようにしてもよい。
【0095】
またプログラムで行う場合にはステップS40の後に、ボリュームオブジェクト(例えばシャドーボリューム)の影響を受けるように設定されているオブジェクトとボリュームオブジェクト(例えばシャドーボリューム)との交差部分の判定処理を行うようにしてもよい。
【0096】
4. ハードウェア構成
次に、本実施形態を実現できるハードウェアの構成の一例について図10を用いて説明する。
【0097】
メインプロセッサ900は、CD982(情報記憶媒体)に格納されたプログラム、通信インターフェース990を介して転送されたプログラム、或いはROM950(情報記憶媒体の1つ)に格納されたプログラムなどに基づき動作し、ゲーム処理、画像処理、音処理などの種々の処理を実行する。
【0098】
コプロセッサ902は、メインプロセッサ900の処理を補助するものであり、高速並列演算が可能な積和算器や除算器を有し、マトリクス演算(ベクトル演算)を高速に実行する。例えば、オブジェクトを移動させたり動作(モーション)させるための物理シミュレーションに、マトリクス演算などの処理が必要な場合には、メインプロセッサ900上で動作するプログラムが、その処理をコプロセッサ902に指示(依頼)する。
【0099】
ジオメトリプロセッサ904は、座標変換、透視変換、光源計算、曲面生成などのジオメトリ処理を行うものであり、高速並列演算が可能な積和算器や除算器を有し、マトリクス演算(ベクトル演算)を高速に実行する。例えば、座標変換、透視変換、光源計算などの処理を行う場合には、メインプロセッサ900で動作するプログラムが、その処理をジオメトリプロセッサ904に指示する。
【0100】
データ伸張プロセッサ906は、圧縮された画像データや音データを伸張するデコード処理を行ったり、メインプロセッサ900のデコード処理をアクセレートする処理を行う。これにより、オープニング画面、インターミッション画面、エンディング画面、或いはゲーム画面などにおいて、MPEG方式等で圧縮された動画像を表示できるようになる。なお、デコード処理の対象となる画像データや音データは、ROM950、CD982に格納されたり、或いは通信インターフェース990を介して外部から転送される。
【0101】
描画プロセッサ910は、ポリゴンや曲面などのプリミティブ(プリミティブ面)で構成されるオブジェクトの描画(レンダリング)処理を高速に実行するものである。オブジェクトの描画の際には、メインプロセッサ900は、DMAコントローラ970の機能を利用して、オブジェクトデータを描画プロセッサ910に渡すとともに、必要であればテクスチャ記憶部924にテクスチャを転送する。すると、描画プロセッサ910は、これらのオブジェクトデータやテクスチャに基づいて、Zバッファなどを利用した隠面消去を行いながら、オブジェクトをフレームバッファ922に高速に描画する。また、描画プロセッサ910は、αブレンディング(半透明処理)、デプスキューイング、ミップマッピング、フォグ処理、バイリニア・フィルタリング、トライリニア・フィルタリング、アンチエリアシング、シェーディング処理なども行うことができる。そして、1フレーム分の画像がフレームバッファ922に書き込まれると、その画像はディスプレイ912に表示される。
【0102】
サウンドプロセッサ930は、多チャンネルのADPCM音源などを内蔵し、BGM、効果音、音声などの高品位のゲーム音を生成する。生成されたゲーム音は、スピーカ932から出力される。
【0103】
ゲームコントローラ942(レバー、ボタン、筺体、パッド型コントローラ又はガン型コントローラ等)からの操作データや、メモリカード944からのセーブデータ、個人データは、シリアルインターフェース940を介してデータ転送される。
【0104】
ROM950にはシステムプログラムなどが格納される。なお、業務用ゲームシステムの場合には、ROM950が情報記憶媒体として機能し、ROM950に各種プログラムが格納されることになる。なお、ROM950の代わりにハードディスクを利用するようにしてもよい。
【0105】
RAM960は、各種プロセッサの作業領域として用いられる。
【0106】
DMAコントローラ970は、プロセッサ、メモリ(RAM、VRAM、ROM等)間でのDMA転送を制御するものである。
【0107】
CDドライブ980は、プログラム、画像データ、或いは音データなどが格納されるCD982(情報記憶媒体)を駆動し、これらのプログラム、データへのアクセスを可能にする。
【0108】
通信インターフェース990は、ネットワークを介して外部との間でデータ転送を行うためのインターフェースである。この場合に、通信インターフェース990に接続されるネットワークとしては、通信回線(アナログ電話回線、ISDN)、高速シリアルバスなどを考えることができる。そして、通信回線を利用することでインターネットを介したデータ転送が可能になる。また、高速シリアルバスを利用することで、他の画像生成システムとの間でのデータ転送が可能になる。
【0109】
なお、本発明の各手段は、その全てを、ハードウェアのみにより実現(実行)してもよいし、情報記憶媒体に格納されるプログラムや通信インターフェースを介して配信されるプログラムのみにより実現してもよい。或いは、ハードウェアとプログラムの両方により実現してもよい。
【0110】
そして、本発明の各手段をハードウェアとプログラムの両方により実現する場合には、情報記憶媒体には、本発明の各手段をハードウェアを利用して実現するためのプログラムが格納されることになる。より具体的には、上記プログラムが、ハードウェアである各プロセッサ902、904、906、910、930等に処理を指示するとともに、必要であればデータを渡す。そして、各プロセッサ902、904、906、910、930等は、その指示と渡されたデータとに基づいて、本発明の各手段を実現することになる。
【0111】
図11(A)に、本実施形態を業務用ゲームシステムに適用した場合の例を示す。プレーヤは、ディスプレイ1100上に映し出されたゲーム画像を見ながら、レバー1102、ボタン1104等を操作してゲームを楽しむ。内蔵されるシステムボード(サーキットボード)1106には、各種プロセッサ、各種メモリなどが実装される。そして、本発明の各手段を実行するための情報(プログラム或いはデータ)は、システムボード1106上の情報記憶媒体であるメモリ1108に格納される。以下、この情報を格納情報と呼ぶ。
【0112】
図11(B)に、本実施形態を家庭用のゲームシステムに適用した場合の例を示す。プレーヤはディスプレイ1200に映し出されたゲーム画像を見ながら、ゲームコントローラ1202、1204を操作してゲームを楽しむ。この場合、上記格納情報は、本体システムに着脱自在な情報記憶媒体であるCD1206、或いはメモリカード1208、1209等に格納されている。
【0113】
図11(C)に、ホスト装置1300と、このホスト装置1300とネットワーク1302(LANのような小規模ネットワークや、インターネットのような広域ネットワーク)を介して接続される端末1304-1〜1304-nとを含むシステムに本実施形態を適用した場合の例を示す。この場合、上記格納情報は、例えばホスト装置1300が制御可能な磁気ディスク装置、磁気テープ装置、メモリ等の情報記憶媒体1306に格納されている。端末1304-1〜1304-nが、スタンドアロンでゲーム画像、ゲーム音を生成できるものである場合には、ホスト装置1300からは、ゲーム画像、ゲーム音を生成するためのゲームプログラム等が端末1304-1〜1304-nに配送される。一方、スタンドアロンで生成できない場合には、ホスト装置1300がゲーム画像、ゲーム音を生成し、これを端末1304-1〜1304-nに伝送し端末において出力することになる。
【0114】
なお、図11(C)の構成の場合に、本発明の各手段を、ホスト装置(サーバ)と端末とで分散して実行するようにしてもよい。また、本発明の各手段を実行するための上記格納情報を、ホスト装置(サーバ)の情報記憶媒体と端末の情報記憶媒体に分散して格納するようにしてもよい。
【0115】
またネットワークに接続する端末は、家庭用ゲームシステムであってもよいし業務用ゲームシステムであってもよい。そして、業務用ゲームシステムをネットワークに接続する場合には、業務用ゲームシステムとの間で情報のやり取りが可能であるとともに家庭用ゲームシステムとの間でも情報のやり取りが可能な携帯型情報記憶装置(メモリカード、携帯型ゲーム装置)を用いることが望ましい。
【0116】
なお本発明は、上記実施形態で説明したものに限らず、種々の変形実施が可能である。
【0117】
また、本発明のうち従属請求項に係る発明においては、従属先の請求項の構成要件の一部を省略する構成とすることもできる。また、本発明の1の独立請求項に係る発明の要部を、他の独立請求項に従属させることもできる。
【0118】
たとえは、本実施の形態では第1のオブジェクトを水面オブジェクトとして、第2のオブジェクトをボートオブジェクトとして、水面に浮かぶボートの船底の画像が生成される場合を例にとり説明したがこれに限られない。
【0119】
例えば流体や気体(第1のオブジェクト)に浮かび、凹部を有する他のオブジェクト(第2のオブジェクト)について、視点から見て第1のオブジェクトの少なくとも1部より奥方向に位置する第2のオブジェクトの少なくとも1部が見える画像を生成する場合でもよい。
【0120】
また第2のオブジェクトが凹部を有していない場合に、視点から見て第1のオブジェクトの少なくとも1部より奥方向に位置する第2のオブジェクトの少なくとも1部の表面が見える画像を生成する場合でもよい。
【0121】
また、本発明は種々のゲーム(格闘ゲーム、シューティングゲーム、ロボット対戦ゲーム、スポーツゲーム、競争ゲーム、ロールプレイングゲーム、音楽演奏ゲーム、ダンスゲーム等)に適用できる。
【0122】
また本発明は、業務用ゲームシステム、家庭用ゲームシステム、多数のプレーヤが参加する大型アトラクションシステム、シミュレータ、マルチメディア端末、ゲーム画像を生成するシステムボード等の種々の画像生成システム(ゲームシステム)に適用できる。
【図面の簡単な説明】
【図1】本実施形態の画像生成システムの機能ブロック図の一例である。
【図2】本実施の形態における水面(第1のオブジェクト)を移動するボート(第2のオブジェクト)の画像の一例を示す。
【図3】ボートモデルを用いて生成したボートオブジェクトの画像の一例である。
【図4】水面モデルを用いて生成した水面オブジェクトの画像の一例である。
【図5】水面モデルを用いて生成した水面オブジェクトの画像の一例である。
【図6】本実施の形態で使用するボリュームオブジェクト(判定用の第3のオブジェクト)の一例について説明するための図である。
【図7】図7(A)(B)は、第1のオブジェクト(例えば水面)と判定用の第3のオブジェクト(ボリュームオブジェクト)によって特定される交差部分の検出について説明するための図である。
【図8】交差部分が切り取られた水面オブジェクトの画像である。
【図9】本実施形態の処理の詳細例を説明するためのフローチャート図である。
【図10】本実施形態を実現できるハードウェアの構成の一例を示す図である。
【図11】図11(A)、(B)、(C)は、本実施形態が適用される種々の形態のシステムの例を示す図である。
【符号の説明】
100 処理部
110 ゲーム処理部
112 交差部分検出用設定処理部
120 交差部分検出処理部(シャドーボリューム処理部)
130 画像生成部
132 ジオメトリ処理部
140 描画部
150 音生成部
160 操作部
170 記憶部
172 メインメモリ(主記憶部)
174 フレームバッファ(描画バッファ)
180 情報記憶媒体
190 表示部
192 音出力部
194 携帯型情報記憶装置
196 通信部
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image generation system, a program, and an information storage medium.
[0002]
[Background Art and Problems to be Solved by the Invention]
Conventionally, there has been known an image generation system (for example, a game system) that generates an image that can be viewed from a virtual camera (a given viewpoint) in an object space that is a virtual three-dimensional space. As popular.
[0003]
In such an image generation system, it is an important issue to generate a more realistic image in order to improve the virtual reality of the player.
[0004]
For example, it is desired that an image of a rowing boat or the like floating on the water surface is expressed more realistically. Here, when the positional relationship between the rowing boat and the water surface changes in real time, an image reflecting the changing positional relationship must be generated in real time.
[0005]
Therefore, in an image generation system that requires real-time image generation based on input information using limited hardware, such as a game device, a real image can be generated with a small calculation load. It will be an important issue.
[0006]
The present invention has been made in view of the above-described problems, and an object of the present invention is to provide at least one second object positioned deeper than at least one part of the first object as viewed from the viewpoint. It is an object to provide an image generation system, a program, and an information storage medium that can realistically generate an image in which a part can be seen with less processing load.
[0007]
[Means for Solving the Problems]
(1) The present invention is an image generation system for generating an image,
Means for disposing a first object and a second object at least partially including a recess at a given position in the object space;
Means for arranging a third object for determination prepared in association with the second object at a given position corresponding to the second object in the object space;
For the intersection specified by the first object and the third object for determination, the model information of the first object is changed or the rendering method is changed so that the concave portion of the second object can be seen. Means for generating an image of an object space including one object and a second object;
It is characterized by including.
[0008]
Further, the program according to the present invention is a program executable by a computer (a program embodied in an information storage medium or a carrier wave), and causes the computer to realize the above means (makes the computer function as the above means). And An information storage medium according to the present invention is an information storage medium readable (usable) by a computer, and includes a program for causing the computer to realize the above means (functioning the computer as the above means). It is said.
[0009]
Here, the object space refers to a virtual three-dimensional space in which an object whose shape is specified by a definition point (such as a vertex of a polygon or a control point of a free-form surface) is arranged.
[0010]
The third object for determination (volume object) prepared in association with the second object is constituted by a model having the same shape or a similar shape, for example, with the overlapping portion of the first object and the second object estimated in advance. It may be configured by a model having the same shape or similar shape as at least a part of the second object, or may be configured by a model having a shape to be cut by the second object, The shape of the second object may be a cut-out shape model, or at least a part of the second object may be formed of a simplified shape model. You may comprise with the model of the shape which covers. The shape of the model of the third object for determination can be appropriately determined according to the image to be generated and the image effect to be realized.
[0011]
The third object for determination may be prepared in advance or may be set in real time.
[0012]
The third object for determination may be arranged at the same position as the second object, or may be arranged at a position uniquely given from the second object.
[0013]
Changing the model information of the first object may be, for example, changing the texture information mapped to the first object or changing the α value associated with the primitive of the first object.
[0014]
Changing the rendering method of the first object is, for example, changing to the cullback (reverse surface erasing) method when rendering the first object.
[0015]
Detection of the intersection between the first object and the third object for determination may be performed in hardware or may be performed in software.
[0016]
According to the present invention, it is possible to generate an image in which at least one concave portion of the second object located in the depth direction from at least one portion of the first object as viewed from the viewpoint can be seen. Further, even when the position of the second object changes in real time, it is convenient because the image can be generated only by changing the arrangement of the third object for determination.
[0017]
For example, in the case where the present image production apparatus is configured using hardware having a processing function (for example, shadow volume processing) for determining a portion where volumes intersect with each other, it is deeper than the first object when viewed from the viewpoint with a small processing load. An image in which the concave portion of the second object positioned in the direction can be seen can be generated.
[0018]
In addition, it is suitable for expressing a state in which the concave portion of the second object embedded in the first object is visible when the first object is, for example, water, sand, magma, mud, fluid, gas, or the like.
[0019]
(2) The present invention is an image generation system for generating an image,
Means for placing the first object and the second object at a given position in the object space;
Means for arranging a third object for determination prepared in association with the second object at a given position corresponding to the second object in the object space;
For the intersection specified by the first object and the third object for determination, the model information of the first object is changed or the rendering method is changed so that the surface of the second object can be seen. Means for generating an image of an object space including one object and a second object;
It is characterized by including.
[0020]
Further, the program according to the present invention is a program executable by a computer (a program embodied in an information storage medium or a carrier wave), and causes the computer to realize the above means (makes the computer function as the above means). And An information storage medium according to the present invention is an information storage medium readable (usable) by a computer, and includes a program for causing the computer to realize the above means (functioning the computer as the above means). It is said.
[0021]
Here, the object space refers to a virtual three-dimensional space in which an object whose shape is specified by a definition point (such as a vertex of a polygon or a control point of a free-form surface) is arranged.
[0022]
The third object for determination (volume object) prepared in association with the second object is constituted by a model having the same shape or a similar shape, for example, with the overlapping portion of the first object and the second object estimated in advance. It may be configured by a model having the same shape or similar shape as at least a part of the second object, or may be configured by a model having a shape to be cut by the second object, At least a part of the second object may be configured with a simplified shape model, or may be configured with a shape model that covers the convex portions of the paired 2 objects. The shape of the model of the third object for determination can be appropriately determined according to the image to be generated and the image effect to be realized.
[0023]
The third object for determination may be prepared in advance or may be set in real time.
[0024]
The third object for determination may be arranged at the same position as the second object, or may be arranged at a position uniquely given from the second object.
[0025]
Changing the model information of the first object may be, for example, changing the texture information mapped to the first object or changing the α value associated with the primitive of the first object.
[0026]
Changing the rendering method of the first object means, for example, reversing the front / back determination when using the back surface erasing method when rendering the first object.
[0027]
Detection of the intersection between the first object and the third object for determination may be performed in hardware or may be performed in software.
[0028]
According to the present invention, it is possible to generate an image in which the surface of at least one part of the second object located in the depth direction from at least one part of the first object as viewed from the viewpoint can be seen. Further, even when the position of the second object changes in real time, it is convenient because the image can be generated only by changing the arrangement of the third object for determination.
[0029]
For example, in the case where the present image production apparatus is configured using hardware having a processing (shadow volume processing) function for determining a portion where volumes intersect with each other, the rearward direction from the first object as viewed from the viewpoint with a small processing load An image in which the surface of the second object located at can be seen can be generated.
[0030]
In addition, it is suitable for expressing a state in which the concave portion of the second object embedded in the first object is visible when the first object is, for example, water, sand, magma, mud, fluid, gas, or the like.
(3) Further, an image generation system, a program, and an information storage medium according to the present invention are:
The texture mapped to the portion corresponding to the intersecting portion of the first object is changed to a transparent texture.
[0031]
According to the present invention, since the transparent texture is mapped to the portion corresponding to the intersecting portion of the first object, at least the second object positioned in the back direction from at least one part of the first object as viewed from the viewpoint. An image in which one part can be seen can be generated.
(4) Further, an image generation system, a program, and an information storage medium according to the present invention are:
The translucent information of a portion corresponding to the intersecting portion of the first object is changed so that the first object becomes transparent, and translucent composition processing is performed.
[0032]
Here, the translucent information is equivalent to the transparency information and is information stored in association with each image unit or each pixel, and is set for each definition point of the object, for example, plus alpha information other than color information ( Information indicating transparency (equivalent to opacity or translucency) as (α value). When the translucent information indicates transparency information as, for example, plus alpha information, for example, translucent blending using the translucent information (α blending), addition translucent using the translucent information (α addition), and translucent information are used. There are composite processing methods such as subtractive translucency (α subtraction).
[0033]
For example, in the case of α blending, the following synthesis processing using translucent information (α) is performed.
[0034]
RQ = (1-α) × R1 + α × R2
GQ = (1-α) × G1 + α × G2
BQ = (1-α) × B1 + α × B2
Here, R1, G1, and B1 are R, G, and B components of the color (luminance) of the image after geometry processing already drawn in the drawing buffer, and R2, G2, and B2 are the colors of the drawn image. R, G and B components. RQ, GQ, and BQ are R, G, and B components of the color of the image generated by α blending. Here, as the α value, the α value of a given image after the geometry processing may be used, or the α value of the drawn original image may be used.
[0035]
According to the present invention, the translucent information of the portion corresponding to the intersecting portion of the first object is changed so that the first object becomes transparent and the translucent composition processing is performed. It is possible to generate an image in which at least one part of the second object located in the depth direction from at least one part of the one object can be seen.
(5) An image generation system, a program, and an information storage medium according to the present invention include
The first object is an object for expressing the fluid, the second object is an object floating on the fluid surface, and the first object is located so that the second object located deeper than the fluid surface can be seen from the viewpoint. It is characterized by changing the model information or rendering method of the object.
[0036]
For example, the first object is an object representing water, the second object is a ship object floating on the water surface, and the model information can be changed so that the concave portion of the ship object located below the water surface can be seen.
[0037]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings.
[0038]
In addition, this embodiment demonstrated below does not limit the content of this invention described in the claim at all. Further, not all of the configurations described in the present embodiment are essential as a solution means of the present invention.
[0039]
1. Constitution
FIG. 1 shows an example of a functional block diagram of an image generation system (for example, a game system) of the present embodiment.
[0040]
In this figure, the present embodiment may include at least the processing unit 100 (or may include the processing unit 100 and the storage unit 170, or the processing unit 100, the storage unit 170, and the information storage medium 180), and other blocks. (For example, the operation unit 160, the display unit 190, the sound output unit 192, the portable information storage device 194, and the communication unit 196) can be arbitrary constituent elements.
[0041]
Here, the processing unit 100 performs various processing such as control of the entire system, instruction instruction to each block in the system, game processing, image processing, or sound processing, and functions thereof are various processors ( CPU, DSP, etc.) or hardware such as ASIC (gate array, etc.) or a given program (game program).
[0042]
The operation unit 160 is for a player to input operation data, and the function can be realized by hardware such as a lever, a button, and a housing.
[0043]
The storage unit 170 includes a main memory (main storage unit and the like) 172, a frame buffer (drawing buffer and the like) 174, and the like, and serves as a work area such as the processing unit 100 and the communication unit 196. It can be realized by hardware.
[0044]
An information storage medium (storage medium usable by a computer) 180 stores information such as programs and data, and functions thereof are an optical disk (CD, DVD), a magneto-optical disk (MO), a magnetic disk, and a hard disk. It can be realized by hardware such as a magnetic tape or a memory (ROM). The processing unit 100 performs various processes of the present invention (this embodiment) based on information stored in the information storage medium 180. That is, the information storage medium 180 stores information (program or data) for executing the means of the present invention (this embodiment) (particularly, the blocks included in the processing unit 100).
[0045]
Part or all of the information stored in the information storage medium 180 is transferred to the storage unit 170 when the system is powered on. Information stored in the information storage medium 180 includes a program for performing the processing of the present invention, image data, sound data, shape data of display objects, table data, list data, and information for instructing the processing of the present invention. And at least one piece of information for performing processing in accordance with the instruction.
[0046]
The display unit 190 outputs an image generated according to the present embodiment, and the function thereof can be realized by hardware such as a CRT, LCD, or HMD (head mounted display).
[0047]
The sound output unit 192 outputs the sound generated by the present embodiment, and its function can be realized by hardware such as a speaker.
[0048]
The portable information storage device 194 stores player personal data, save data, and the like. As the portable information storage device 194, a memory card, a portable game device, and the like can be considered.
[0049]
The communication unit 196 performs various controls for communicating with the outside (for example, a host device or other image generation system), and functions as hardware such as various processors or a communication ASIC. Or by a program.
[0050]
The program or data for executing the means of the present invention (this embodiment) may be distributed from the information storage medium of the host device (server) to the information storage medium 180 via the network and the communication unit 196. Good. Use of such an information storage medium of the host device (server) is also included in the scope of the present invention.
[0051]
The processing unit 100 includes a game processing unit 110, an intersection detection processing unit (shadow volume processing unit) 120, an image generation unit 130, and a sound generation unit 150.
[0052]
Here, the game processing unit 110 receives a coin (price) reception process, various mode setting processes, a game progress process, a selection screen setting process, the position and rotation angle (X, Processing for obtaining the rotation angle around the Y or Z axis), processing for moving the object (motion processing), processing for obtaining the viewpoint position (virtual camera position) and line-of-sight angle (virtual camera rotation angle), map object, etc. Various game processes such as a process for placing objects in the object space, a hit check process, a process for calculating game results (results, results), a process for multiple players to play in a common game space, or a game over process Operation data from the operation unit 160, personal data from the portable information storage device 194, storage data , Carried out on the basis of a game program.
[0053]
The game processing unit includes an intersecting part detection setting processing unit 112. The intersection detection setting processing unit 112 performs processing for specifying an object (an object affected by a volume object) whose model information and rendering method are changed for the intersection, and changes in model information and rendering method for the intersection. The third object for determination prepared in association with the second object or the second object is placed at a position corresponding to the second object in the object space.
[0054]
An intersection detection processing unit (shadow volume processing unit) 120 determines an intersection (overlapping part) between a volume object and a given object set to be affected by the volume object, and intersects (overlapping part). For, the model information of a given object is changed based on change information set in advance.
[0055]
The image generation unit 130 performs various types of image processing in accordance with instructions from the game processing unit 110, for example, generates an image that can be seen from a virtual camera (viewpoint) in the object space, and outputs the generated image to the display unit 190.
[0056]
The sound generation unit 150 performs various types of sound processing in accordance with instructions from the game processing unit 110, generates a sound such as BGM, sound effect, or sound, and outputs the sound to the sound output unit 192.
[0057]
Note that all of the functions of the game processing unit 110, the intersection detection processing unit (shadow volume processing unit) 120, the image generation unit 130, and the sound generation unit 150 may be realized by hardware, or all of them may be programmed. May be realized. Alternatively, it may be realized by both hardware and a program.
[0058]
The image generation unit 130 includes a geometry processing unit (three-dimensional calculation unit) 132 and a drawing unit (rendering unit) 140.
[0059]
Here, the geometry processing unit 132 performs various types of geometry processing (three-dimensional calculation) such as coordinate transformation, clipping processing, perspective transformation, or light source calculation. In this embodiment, the object data (after the perspective transformation) after the geometry processing (object vertex coordinates, vertex texture coordinates, luminance data, etc.) is stored in the main storage unit 172 of the storage unit 170 and saved. The
[0060]
The drawing unit 140 draws an object in the drawing buffer 174 based on the object data after geometry processing (after perspective transformation) and the texture stored in the storage unit 170. As a result, an image viewed from the virtual camera (viewpoint) is drawn (generated) in the object space in which the object moves.
[0061]
Note that the drawing unit 140 uses the model information of the contents changed by the intersection detection process for the intersection (overlapping part) with a given object set to be affected by the volume object, or the intersection The rendering process is performed by the rendering technique of the content changed by the partial detection process.
[0062]
Note that the image generation system of the present embodiment may be a system dedicated to the single player mode in which only one player can play, or not only the single player mode but also a multiplayer mode in which a plurality of players can play. The system may also be provided.
[0063]
Further, when a plurality of players play, game images and game sounds to be provided to the plurality of players may be generated using one terminal, or connected via a network (transmission line, communication line) or the like. Alternatively, it may be generated using a plurality of terminals.
[0064]
2. Features of this embodiment
In the following, the case of generating an image of a boat (second object) moving on the water surface (first object) will be described as an example, but the present invention can be applied to other cases.
[0065]
FIG. 2 shows an example of an image of a boat (second object) moving on the water surface (first object) in the present embodiment.
[0066]
boat 220 Is the bottom of the ship 222 A concave shape is visible. In this way, when an object having a concave portion such as a boat shown in FIG. 2 is floating on the water surface, for example, in the angle as shown in FIG. 222 I can see.
[0067]
FIG. 3 is an example of an image of a boat object generated using a boat model, and FIG. 4 is an example of an image of a water surface object generated using a water surface model.
[0068]
FIG. 5 shows a boat model and a water surface model in a state where the boat is not floating (the model used when generating the image of FIG. 4) in the object space. It is an example of the image produced | generated based on.
[0069]
Here, since the boat is a moving object, its position may be given in real time for each frame. Also, the water surface may be treated as a non-moving object and fixed position information may be given.
[0070]
Based on the given position information, the boat model and the water surface model are arranged in the object space, and the hidden surface is based on the depth information of the primitives (for example, polygonal surface and vertex) of each model given based on the position information and the model information. When erasure is performed, an image as shown in FIG. 5 is generated.
[0071]
Here, since the water surface model is in a state where the boat is not floating, the portion where the boat is floating is a flat state without deformation due to the boat where the boat is floating.
[0072]
Therefore, since the bottom of the boat corresponding to the concave portion of the boat is located behind the water surface (water surface) when viewed from the virtual camera (viewpoint), an image in which only a portion higher than the water surface of the board is visible as shown in FIG. 5 is generated. Will be.
[0073]
Here, if a water surface model reflecting the deformation caused by the boat floating is used, such a problem does not occur. However, for example, if a water surface object is deformed by reflecting a board that moves in real time based on input information, the processing load increases.
[0074]
A feature of the present embodiment is that a third object (volume object) for determination corresponding to a second object (for example, a boat) that includes at least a part of a recess, together with the first object (for example, the water surface) is an object space. Is detected so that the concave portion of the second object (for example, boat) can be seen by detecting the intersection specified by the first object (for example, water surface) and the third object for determination (volume object). The model information of the first object (for example, the water surface) corresponding to the intersected portion is changed or the rendering method is changed, and the object space including the first object (for example, the water surface) and the second object (for example, the boat) is changed. The point is to generate an image.
[0075]
By doing in this way, in this Embodiment, the image which can see the bottom of a boat can be produced | generated using the water model in the state where the boat model and the boat are not floating.
[0076]
FIG. 6 is a diagram for describing an example of a volume object (a third object for determination) used in the present embodiment.
[0077]
The volume object 230 shown in the figure is used to detect a crossing part specified by a boat object (second object) and a water surface object (first object) in a state where the boat is not floating. Is a third object for determination provided corresponding to the object.
[0078]
As shown in the figure, the volume object 230 has a shape obtained by cutting out the concave space of the boat located below the water surface (under the water surface where the boat is not floated). (A state that is not) and can be configured as a convex volume specified (cut). Even if the position of the boat changes, the same model can be used as the model corresponding to this volume object.
[0079]
Note that a convex object refers to an object having no two or more primitive surfaces overlapping in the line-of-sight direction, for example.
[0080]
FIGS. 7A and 7B are diagrams for explaining the detection of the intersection specified by the first object (for example, the water surface) and the third object for determination (volume object).
[0081]
FIG. 7A shows a state in which the boat object 320 and the water surface object 310 are arranged in the object space at the time of image generation. FIG. 7B shows the volume object 330 and the water surface object 310 in the object space when the intersection is detected. It shows a state of arranging to.
[0082]
When detecting the intersection, the volume object 330 is arranged at the same position as the boat object 320 in the object space. Here, the position of the object is, for example, the position (position coordinate in the world coordinate system) where the representative point of the object is arranged.
[0083]
For example, when performing intersection detection using hardware that has a shadow volume function, specify the model information and placement position used to generate the image of the water surface object, and the model information and placement location of the volume object. Then, it is preferable to perform a process of determining the intersecting portion of the hardware volumes.
[0084]
Thereby, it is possible to determine the intersection (the shaded area in FIG. 7B) between the water surface object and the volume object. Then, the model information of the water surface object corresponding to the detected intersection is changed or the rendering method is changed so that the bottom (concave portion) of the boat object can be seen.
[0085]
For example, the texture information mapped to the water surface object may be changed for the intersection, or the α value associated with the primitive of the water surface object may be changed. Further, for example, when the back surface erasing method is used in the water surface object rendering method for the intersecting portion, the front / back determination may be reversed.
[0086]
FIG. 8 is an image of the water surface object from which the intersection is cut off. For the water surface other than the intersecting portion 350, the water surface texture is mapped. Here, for example, the model information can be changed so as to map the transparent texture with respect to the intersecting portion 350. This way the intersection 350 As for, an image (see FIG. 2) can be generated in which the bottom portion of the boat located deeper than the water surface can be seen.
[0087]
3. Processing example of this embodiment
Next, a detailed example of the processing of this embodiment will be described with reference to the flowchart of FIG.
[0088]
The following steps S10 to S50 are repeated for each frame.
[0089]
First, in the object affected by the volume object (for example, shadow volume), the texture inside the volume object (for example, shadow volume) is set to be replaced with a transparent one (step S10).
[0090]
Next, a water surface model for generating an image of the water surface object is placed in the object space in a state where it is affected by the volume object (for example, shadow volume) (step S20). Here, the state affected by the volume object (for example, shadow volume) means that the water surface object is in a state where rendering is performed with the setting in step S10. For example, a setting for indicating that a water surface object is affected by a volume object (for example, a shadow volume) may be turned on.
[0091]
Next, a boat model for generating an image of the boat object is arranged in the object space under the influence of the volume object (for example, shadow volume) (step S30).
[0092]
Next, the determination volume prepared in association with the boat is arranged as a volume object (for example, a shadow volume) at the same coordinates as the boat object in the object space (step S40).
[0093]
Then, rendering processing of the object space including the water surface object and the boat object is performed (step S50). When this rendering process is performed, a portion (such as a volume object) inside the volume object (eg, shadow volume) in the object (eg, water surface object) set to be affected by the volume object (eg, shadow volume) in step S10. The process of replacing the texture at the intersection) with a transparent one is performed.
[0094]
Note that the determination of the intersection between an object set to be affected by a volume object (eg, shadow volume) and a volume object (eg, shadow volume) may be performed by hardware or by a program. It may be.
[0095]
In the case of performing by a program, after step S40, determination processing of an intersection between an object set to be affected by a volume object (for example, shadow volume) and a volume object (for example, shadow volume) is performed. Also good.
[0096]
4). Hardware configuration
Next, an example of a hardware configuration capable of realizing the present embodiment will be described with reference to FIG.
[0097]
The main processor 900 operates based on a program stored in the CD 982 (information storage medium), a program transferred via the communication interface 990, or a program stored in the ROM 950 (one of information storage media). Various processes such as processing, image processing, and sound processing are executed.
[0098]
The coprocessor 902 assists the processing of the main processor 900, has a product-sum calculator and a divider capable of high-speed parallel calculation, and executes matrix calculation (vector calculation) at high speed. For example, when processing such as matrix calculation is necessary for physical simulation for moving or moving an object, a program operating on the main processor 900 instructs (requests) the processing to the coprocessor 902. )
[0099]
The geometry processor 904 performs geometry processing such as coordinate transformation, perspective transformation, light source calculation, and curved surface generation. Run fast. For example, when processing such as coordinate transformation, perspective transformation, and light source calculation is performed, a program operating on the main processor 900 instructs the geometry processor 904 to perform the processing.
[0100]
The data decompression processor 906 performs a decoding process for decompressing the compressed image data and sound data, and a process for accelerating the decoding process of the main processor 900. As a result, a moving image compressed by the MPEG method or the like can be displayed on the opening screen, the intermission screen, the ending screen, or the game screen. Note that the image data and sound data to be decoded are stored in the ROM 950 and the CD 982 or transferred from the outside via the communication interface 990.
[0101]
The drawing processor 910 performs drawing (rendering) processing of an object composed of primitives (primitive surfaces) such as polygons and curved surfaces at high speed. When drawing an object, the main processor 900 uses the function of the DMA controller 970 to pass the object data to the drawing processor 910 and transfer the texture to the texture storage unit 924 if necessary. Then, the drawing processor 910 draws the object in the frame buffer 922 at high speed while performing hidden surface removal using a Z buffer or the like based on the object data and texture. The drawing processor 910 can also perform α blending (translucent processing), depth cueing, mip mapping, fog processing, bilinear filtering, trilinear filtering, anti-aliasing, shading processing, and the like. When an image for one frame is written into the frame buffer 922, the image is displayed on the display 912.
[0102]
The sound processor 930 includes a multi-channel ADPCM sound source and the like, and generates high-quality game sounds such as BGM, sound effects, and sounds. The generated game sound is output from the speaker 932.
[0103]
Operation data from the game controller 942 (lever, button, chassis, pad type controller, gun type controller, etc.), save data from the memory card 944, and personal data are transferred via the serial interface 940.
[0104]
The ROM 950 stores system programs and the like. In the case of an arcade game system, the ROM 950 functions as an information storage medium, and various programs are stored in the ROM 950. A hard disk may be used instead of the ROM 950.
[0105]
The RAM 960 is used as a work area for various processors.
[0106]
The DMA controller 970 controls DMA transfer between the processor and memory (RAM, VRAM, ROM, etc.).
[0107]
The CD drive 980 drives a CD 982 (information storage medium) in which programs, image data, sound data, and the like are stored, and enables access to these programs and data.
[0108]
The communication interface 990 is an interface for transferring data to and from the outside via a network. In this case, as a network connected to the communication interface 990, a communication line (analog telephone line, ISDN), a high-speed serial bus, or the like can be considered. By using a communication line, data transfer via the Internet becomes possible. Further, by using the high-speed serial bus, data transfer with other image generation systems becomes possible.
[0109]
Each means of the present invention may be realized (executed) only by hardware, or only by a program stored in an information storage medium or a program distributed via a communication interface. Also good. Alternatively, it may be realized by both hardware and a program.
[0110]
When each means of the present invention is realized by both hardware and a program, a program for realizing each means of the present invention using hardware is stored in the information storage medium. Become. More specifically, the program instructs each processor 902, 904, 906, 910, 930, etc., which is hardware, and passes data if necessary. Each of the processors 902, 904, 906, 910, 930 and the like implements each unit of the present invention based on the instruction and the passed data.
[0111]
FIG. 11A shows an example in which the present embodiment is applied to an arcade game system. The player enjoys the game by operating the lever 1102, the button 1104, and the like while viewing the game image displayed on the display 1100. Various processors and various memories are mounted on the built-in system board (circuit board) 1106. Information (program or data) for executing each means of the present invention is stored in a memory 1108 which is an information storage medium on the system board 1106. Hereinafter, this information is referred to as storage information.
[0112]
FIG. 11B shows an example in which this embodiment is applied to a home game system. The player enjoys the game by operating the game controllers 1202 and 1204 while viewing the game image displayed on the display 1200. In this case, the stored information is stored in the CD 1206, which is an information storage medium that is detachable from the main system, or in the memory cards 1208, 1209, and the like.
[0113]
FIG. 11C shows a host device 1300 and terminals 1304-1 to 1304-n connected to the host device 1300 via a network 1302 (a small-scale network such as a LAN or a wide area network such as the Internet). An example of applying this embodiment to a system including In this case, the stored information is stored in an information storage medium 1306 such as a magnetic disk device, a magnetic tape device, or a memory that can be controlled by the host device 1300, for example. When the terminals 1304-1 to 1304-n can generate game images and game sounds stand-alone, the host device 1300 receives a game program and the like for generating game images and game sounds from the terminal 1304-. 1 to 1304-n. On the other hand, if it cannot be generated stand-alone, the host device 1300 generates a game image and a game sound, which is transmitted to the terminals 1304-1 to 1304-n and output at the terminal.
[0114]
In the case of the configuration shown in FIG. 11C, each unit of the present invention may be executed in a distributed manner between the host device (server) and the terminal. Further, the storage information for executing each means of the present invention may be distributed and stored in the information storage medium of the host device (server) and the information storage medium of the terminal.
[0115]
The terminal connected to the network may be a home game system or an arcade game system. A portable information storage device capable of exchanging information with the arcade game system and exchanging information with the arcade game system when the arcade game system is connected to the network. It is desirable to use (memory card, portable game device).
[0116]
The present invention is not limited to that described in the above embodiment, and various modifications can be made.
[0117]
In the invention according to the dependent claims of the present invention, a part of the constituent features of the dependent claims can be omitted. Moreover, the principal part of the invention according to one independent claim of the present invention may be made dependent on another independent claim.
[0118]
For example, in the present embodiment, the first object is a water surface object, the second object is a boat object, and the case where an image of the bottom of a boat floating on the water surface is generated is described as an example. .
[0119]
For example, regarding another object (second object) that floats in a fluid or gas (first object) and has a concave portion, the second object positioned in the back direction from at least one part of the first object as viewed from the viewpoint. It is also possible to generate an image in which at least one part can be seen.
[0120]
Also, when the second object does not have a recess, an image is generated in which the surface of at least one part of the second object located deeper than at least one part of the first object can be seen from the viewpoint. But you can.
[0121]
The present invention can also be applied to various games (such as fighting games, shooting games, robot battle games, sports games, competitive games, role playing games, music playing games, dance games, etc.).
[0122]
The present invention is also applicable to various image generation systems (game systems) such as a business game system, a home game system, a large attraction system in which a large number of players participate, a simulator, a multimedia terminal, and a system board for generating game images. Applicable.
[Brief description of the drawings]
FIG. 1 is an example of a functional block diagram of an image generation system according to an embodiment.
FIG. 2 shows an example of an image of a boat (second object) moving on the water surface (first object) in the present embodiment.
FIG. 3 is an example of an image of a boat object generated using a boat model.
FIG. 4 is an example of an image of a water surface object generated using a water surface model.
FIG. 5 is an example of an image of a water surface object generated using a water surface model.
FIG. 6 is a diagram for explaining an example of a volume object (a third object for determination) used in the present embodiment.
FIGS. 7A and 7B are diagrams for explaining detection of an intersection portion specified by a first object (for example, a water surface) and a third object for determination (volume object); .
FIG. 8 is an image of a water surface object with a crossing portion cut out.
FIG. 9 is a flowchart for explaining a detailed example of processing of the present embodiment;
FIG. 10 is a diagram illustrating an example of a hardware configuration capable of realizing the present embodiment.
11A, 11B, and 11C are diagrams illustrating examples of various types of systems to which the present embodiment is applied.
[Explanation of symbols]
100 processor
110 Game processor
112 Intersection detection setting processing unit
120 Intersection detection processing unit (shadow volume processing unit)
130 Image generator
132 Geometry processing part
140 Drawing part
150 sound generator
160 Operation unit
170 Storage unit
172 Main memory (main memory)
174 Frame buffer (drawing buffer)
180 Information storage medium
190 Display
192 sound output section
194 Portable information storage device
196 Communication Department

Claims (9)

画像生成を行う画像生成システムであって、
第1のオブジェクトと少なくとも一部に凹部を含む第2のオブジェクトをオブジェクト空間内の所与の位置に配置する手段と、
第2のオブジェクトに関連づけて用意された判定用の第3のオブジェクトを、オブジェクト空間内の第2のオブジェクトに対応して与えられた位置に配置する手段と、
第1のオブジェクトと判定用の第3のオブジェクトとによって特定される交差部分について、第2のオブジェクトの凹部が見えるように、第1のオブジェクトのモデル情報を変更又はレンダリング手法を変更して、第1のオブジェクトと第2のオブジェクトを含むオブジェクト空間の画像を生成する手段と、
を含むことを特徴とする画像生成システム。
An image generation system for generating an image,
Means for disposing a first object and a second object at least partially including a recess at a given position in the object space;
Means for arranging a third object for determination prepared in association with the second object at a given position corresponding to the second object in the object space;
For the intersection specified by the first object and the third object for determination, the model information of the first object is changed or the rendering method is changed so that the concave portion of the second object can be seen. Means for generating an image of an object space including one object and a second object;
An image generation system comprising:
請求項において、
第1のオブジェクトの前記交差部分に対応する部分にマッピングするテクスチャを透明なテクスチャに変更することを特徴とする画像生成システム。
In claim 1 ,
An image generation system, wherein a texture mapped to a portion corresponding to the intersecting portion of the first object is changed to a transparent texture.
請求項において、
第1のオブジェクトの前記交差部分に対応する部分の半透明情報を、第1のオブジェクトが透明になるように変更して、半透明合成処理を行うことを特徴とする画像生成システム。
In claim 1 ,
An image generation system, wherein translucent information of a portion corresponding to the intersecting portion of the first object is changed so that the first object becomes transparent, and translucent synthesis processing is performed.
請求項1乃至のいずれかにおいて、
第1のオブジェクトは流体を表現するためのオブジェクトであり、第2のオブジェクトは流体面に浮かぶオブジェクトであり、視点からみて流体面より奥方向に位置する第2のオブジェクトが見えるように第1のオブジェクトのモデル情報又はレンダリング手法を変更することを特徴とする画像生成システム。
In any one of Claims 1 thru | or 3 ,
The first object is an object for expressing the fluid, the second object is an object floating on the fluid surface, and the first object is located so that the second object located deeper than the fluid surface can be seen from the viewpoint. An image generation system characterized by changing model information or a rendering method of an object.
コンピュータが実行可能なプログラムであって、
第1のオブジェクトと少なくとも一部に凹部を含む第2のオブジェクトをオブジェクト空間内の所与の位置に配置する手段と、
第2のオブジェクトに関連づけて用意された判定用の第3のオブジェクトを、オブジェクト空間内の第2のオブジェクトに対応して与えられた位置に配置する手段と、
第1のオブジェクトと判定用の第3のオブジェクトとによって特定される交差部分について、第2のオブジェクトの凹部が見えるように、第1のオブジェクトのモデル情報を変更又はレンダリング手法を変更して、第1のオブジェクトと第2のオブジェクトを含むオブジェクト空間の画像を生成する手段と、
をコンピュータに実現させることを特徴とするプログラム。
A computer executable program,
Means for disposing a first object and a second object at least partially including a recess at a given position in the object space;
Means for arranging a third object for determination prepared in association with the second object at a given position corresponding to the second object in the object space;
For the intersection specified by the first object and the third object for determination, the model information of the first object is changed or the rendering method is changed so that the concave portion of the second object can be seen. Means for generating an image of an object space including one object and a second object;
A program characterized by causing a computer to realize.
請求項において、
第1のオブジェクトの前記交差部分に対応する部分にマッピングするテクスチャを透明なテクスチャに変更することを特徴とするプログラム。
In claim 5 ,
The program which changes the texture mapped to the part corresponding to the said intersection part of a 1st object to a transparent texture.
請求項において、
第1のオブジェクトの前記交差部分に対応する部分の半透明情報を、第1のオブジェクトが透明になるように変更して、半透明合成処理を行うことを特徴とするプログラム。
In claim 5 ,
A program characterized in that translucent information of a portion corresponding to the intersecting portion of a first object is changed so that the first object becomes transparent, and a translucent synthesis process is performed.
請求項5乃至7のいずれかにおいて、
第1のオブジェクトは流体を表現するためのオブジェクトであり、第2のオブジェクトは流体面に浮かぶオブジェクトであり、視点からみて流体面より奥方向に位置する第2のオブジェクトが見えるように第1のオブジェクトのモデル情報又はレンダリング手法を変更することを特徴とするプログラム。
In any of claims 5 to 7 ,
The first object is an object for expressing the fluid, the second object is an object floating on the fluid surface, and the first object is located so that the second object located deeper than the fluid surface can be seen from the viewpoint. A program characterized by changing model information or a rendering method of an object.
コンピュータにより読みとり可能な情報記憶媒体であって、請求項5乃至8のいずれかに記載のプログラムを記憶することを特徴とする情報記憶媒体。An information storage medium readable by a computer, wherein the program according to any one of claims 5 to 8 is stored.
JP2002017600A 2002-01-25 2002-01-25 Image generation system, program, and information storage medium Expired - Fee Related JP4052843B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002017600A JP4052843B2 (en) 2002-01-25 2002-01-25 Image generation system, program, and information storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002017600A JP4052843B2 (en) 2002-01-25 2002-01-25 Image generation system, program, and information storage medium

Publications (3)

Publication Number Publication Date
JP2003216967A JP2003216967A (en) 2003-07-31
JP2003216967A5 JP2003216967A5 (en) 2005-08-04
JP4052843B2 true JP4052843B2 (en) 2008-02-27

Family

ID=27653233

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002017600A Expired - Fee Related JP4052843B2 (en) 2002-01-25 2002-01-25 Image generation system, program, and information storage medium

Country Status (1)

Country Link
JP (1) JP4052843B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1732043A4 (en) 2004-03-31 2010-02-10 Pioneer Corp Plotting method, plotting program, and plotting equipment

Also Published As

Publication number Publication date
JP2003216967A (en) 2003-07-31

Similar Documents

Publication Publication Date Title
JP3249955B2 (en) Image generation system and information storage medium
JP3777288B2 (en) GAME SYSTEM AND INFORMATION STORAGE MEDIUM
JP3280355B2 (en) Image generation system and information storage medium
JP3656012B2 (en) GAME SYSTEM AND INFORMATION STORAGE MEDIUM
JP4167358B2 (en) Image generation system and information storage medium
JP4229319B2 (en) Image generation system, program, and information storage medium
JP2001229403A (en) Game system and information storage medium
JP3297410B2 (en) Image generation system and information storage medium
JP4245356B2 (en) GAME SYSTEM AND INFORMATION STORAGE MEDIUM
JP2001325605A (en) Game system and information storage medium
JP4574058B2 (en) Image generation system, program, and information storage medium
JP4577968B2 (en) GAME SYSTEM AND INFORMATION STORAGE MEDIUM
JP2005209217A (en) Game system and information storage medium
JP4707078B2 (en) Image generation system, program, and information storage medium
JP3254195B2 (en) Image generation system and information storage medium
JP4052843B2 (en) Image generation system, program, and information storage medium
JP4704615B2 (en) Image generation system, program, and information storage medium
JP4394211B2 (en) Image generation system and information storage medium
JP4803909B2 (en) Image generation system, program, and information storage medium
JP2003162734A (en) Game system and information storage medium
JP4632530B2 (en) GAME SYSTEM, PROGRAM, AND INFORMATION STORAGE MEDIUM
JP4610729B2 (en) GAME SYSTEM, PROGRAM, AND INFORMATION STORAGE MEDIUM
JP4391633B2 (en) Image generation system and information storage medium
JP4728510B2 (en) Image generation system, program, and information storage medium
JP4827217B2 (en) Image generation system, program, and information storage medium

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050113

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070829

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070905

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071029

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20071121

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20071204

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101214

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4052843

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101214

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101214

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111214

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111214

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121214

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121214

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131214

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees