JP3737784B2 - 3D image processing program, 3D image processing method, and video game apparatus - Google Patents

3D image processing program, 3D image processing method, and video game apparatus Download PDF

Info

Publication number
JP3737784B2
JP3737784B2 JP2002192476A JP2002192476A JP3737784B2 JP 3737784 B2 JP3737784 B2 JP 3737784B2 JP 2002192476 A JP2002192476 A JP 2002192476A JP 2002192476 A JP2002192476 A JP 2002192476A JP 3737784 B2 JP3737784 B2 JP 3737784B2
Authority
JP
Japan
Prior art keywords
transparency
model
texture
region
vertex
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002192476A
Other languages
Japanese (ja)
Other versions
JP2004038398A (en
Inventor
慶明 松宮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konami Corp
Original Assignee
Konami Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konami Corp filed Critical Konami Corp
Priority to JP2002192476A priority Critical patent/JP3737784B2/en
Publication of JP2004038398A publication Critical patent/JP2004038398A/en
Application granted granted Critical
Publication of JP3737784B2 publication Critical patent/JP3737784B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/663Methods for processing data by generating or executing the game program for rendering three dimensional images for simulating liquid objects, e.g. water, gas, fog, snow, clouds

Description

【0001】
【発明の属する技術分野】
本発明は、複数のポリゴンで構成されるモデルを描画するための3次元画像処理プログラム、3次元画像処理方法及びビデオゲーム装置に関するものである。
【0002】
【従来の技術】
従来、ビデオゲームなどの仮想3次元空間内における池、湖及び海などの水面を表現する方法としては、水面の透過性を重視する方法と、水面の反射性を重視する方法とがある。透過性を重視する方法は、水面を構成するポリゴンに貼り付けられるテクスチャを半透明にして水底が見えるようにする。
【0003】
図6は、従来の透過性を重視する方法によって水面モデルを描画したゲーム画面の一例を示す画面図である。図6に示すゲーム画面500には、画面の上方に背景としての陸地502が表示され、陸地502の下方に湖の水面501が表示されており、便宜上水面501上にキャラクタ503が立っているように表示されている。水面501には、水底を構成する地形の一部である岩506及び水面と水底との間に配置される魚507が透過して表示されている。仮想3次元空間内の任意の位置に設けられた仮想カメラ視点は水面501を俯瞰する位置に設けられている。透過性を重視する方法では、水面を構成するポリゴンに貼り付けられるテクスチャとして、例えば水色の画像が用いられ、ポリゴンが半透明となるように透明度が一定に設定されている。このような、透過性を重視する方法では、仮想カメラ視点に近い画面手前側の領域504における水面501及び仮想カメラ視点から遠い画面奥側の領域505における水面501はいずれも水面501を透過して岩506及び魚507が表示されている。
【0004】
また、反射性を重視する方法は、水面に映りこむ水上にあるモデルを上下反転させた画像をテクスチャとして水面を構成するポリゴンに貼り付ける。
【0005】
図7は、従来の反射性を重視する方法によって水面モデルを描画したゲーム画面の一例を示す画面図である。図7に示すゲーム画面600には、上方に背景としての陸地602及び空603が表示され、陸地602の下方に湖の水面601が表示されており、便宜上水面601上にキャラクタ604が立っているように表示されている。仮想3次元空間内の任意の位置に設けられた仮想カメラ視点は水面601を俯瞰する位置に設けられている。反射性を重視する方法では、水面を構成するポリゴンに貼り付けられるテクスチャとしては、例えば背景を上下反転させた画像が用いられ、ポリゴンも全反射するように透明度が一定に設定されている。このような、反射性を重視する方法では、仮想カメラ視点に近い画面手前側の領域605における水面601及び仮想カメラ視点から遠い画面奥側の領域606における水面601はいずれも反射して背景である陸地602及び空603が表示されている。
【0006】
【発明が解決しようとする課題】
しかしながら、実際には、水面を真上から見た場合、水中が透過して見えるが、水面を横から見た場合、周りの環境が反射して水面に映って見える。このように、屈折率が異なる物質の境界面の見え方が観測者の見る角度によって変化することをフレネル効果という。観測者の視線と水面との角度が大きい場合、水面が透過して見え、角度が小さい場合、水面が反射して見える。
【0007】
ここで、上記従来の方法を見てみると、透過性を重視する方法は、図6に示すように水面501を構成するポリゴンが全て透過して表示されるため、仮想カメラ視点から近い水面501(画面手前側の領域504)だけでなく、仮想カメラ視点から遠い水面501(画面奥側の領域505)も透過して表示される。また、反射性を重視する方法は、図7に示すように水面601を構成するポリゴンが全て反射して表示されるため、仮想カメラ視点から遠い水面601(画面奥側の領域606)だけでなく、仮想カメラ視点から近い水面601(画面手前側の領域605)も反射して表示される。したがって、従来の方法では、近景と遠景とが同様に表示され、現実世界のフレネル効果が実現されないため、リアル感に欠けるという問題を有していた。
【0008】
本発明は、上記の問題を解決するためになされたもので、フレネル効果を擬似的に実現し、リアル感のあるビデオゲームを実現することができる3次元画像処理プログラム、3次元画像処理方法及びビデオゲーム装置を提供することを目的とするものである。
【0009】
【課題を解決するための手段】
請求項1に記載の本発明は、複数のポリゴンで構成されるモデルを描画するための3次元画像処理プログラムであって、
仮想3次元空間内における仮想カメラ視点に基づいて設定される所定の領域内の前記モデルの透明度を変化させる透明度変化手段と、
前記透明度変化手段によって透明度が変化された前記モデルにテクスチャを貼り付けるテクスチャ貼付手段と、
前記テクスチャ貼付手段によってテクスチャが貼り付けられた前記モデルを描画する描画手段としてビデオゲーム装置を機能させ、
前記透明度変化手段は、前記所定の領域内の前記モデルを構成する複数のポリゴンの各頂点の透明度を算出し、
前記テクスチャ貼付手段は、前記透明度変化手段によって算出された各頂点の透明度に応じてテクスチャの透明度を設定し、各頂点間のテクスチャの透明度を補完して設定し、
前記領域は、前記仮想カメラ視点から前記領域を含む平面への垂線と当該平面との交点を中心点とし、
前記透明度変化手段は、前記中心点から前記領域の外縁に向かって透明度を低くし、前記中心点から前記領域の外縁までの距離の二乗値と、前記中心点から前記領域内の前記モデルを構成する複数のポリゴンの各頂点までの距離の二乗値との比率に基づいて前記各頂点の透明度を算出することを特徴とする。
【0010】
請求項1に記載の本発明に従えば、複数のポリゴンで構成されるモデルを描画するための3次元画像処理プログラムは、透明度変化手段によって、仮想3次元空間内における仮想カメラ視点に基づいて設定される所定の領域内のモデルの透明度を変化させ、テクスチャ貼付手段によって、透明度変化手段によって透明度が変化されたモデルにテクスチャを貼り付け、描画手段によって、テクスチャ貼付手段によってテクスチャが貼り付けられたモデルを描画する。
【0011】
すなわち、仮想3次元空間内における仮想カメラ視点に基づいて設定される所定の領域内のモデルの透明度が変化され、透明度が変化されたモデルにテクスチャが貼り付けられ、テクスチャが貼り付けられたモデルが描画される。
【0012】
例えば、所定の領域内のモデルの透明度が変化して描画されるため、仮想カメラ視点に近い位置にあるポリゴンの透明度を高くし、仮想カメラ視点から離れるにしたがってポリゴンの透明度を低くすることによってフレネル効果を擬似的に実現することができ、リアル感のあるビデオゲームを実現することができる。
【0013】
また、仮想3次元空間内における仮想カメラ視点に基づいて設定される所定の領域は、仮想カメラ視点から領域が含まれる平面への垂線と当該平面との交点を中心点とし、透明度変化手段は、中心点から領域の外縁に向かって透明度を低くする。
【0014】
すなわち、仮想3次元空間内における仮想カメラ視点から領域を含む平面に対して垂直に降ろした交点を中心点とし、当該中心点から放射状にモデルの透明度が低くされる。そのため、仮想カメラ視点に近い位置にあるポリゴンは透明度を高くして描画することができ、仮想カメラ視点から遠い位置にあるポリゴンは透明度を低くして描画することができ、フレネル効果を擬似的に実現することができ、リアル感のあるビデオゲームを実現することができる。
【0015】
さらに、透明度変化手段は、仮想3次元空間内における仮想カメラ視点からモデルに垂直に降ろした点を中心点とする領域の中心点から外縁までの距離の二乗値と、領域の中心点から領域内のモデルを構成する複数のポリゴンの各頂点までの距離の二乗値との比率に基づいて各頂点における透明度を算出する。
【0016】
すなわち、仮想3次元空間内における仮想カメラ視点からモデルに垂直に降ろした点を中心点とする領域の中心点から外縁までの距離の二乗値と、領域の中心点から領域内のモデルを構成する複数のポリゴンの各頂点までの距離の二乗値との比率に基づいて各頂点の透明度が算出されるため、領域の中心点からの距離に応じて領域内のモデルの透明度を変化させることができる。また、領域の中心点から領域内のモデルを構成する複数のポリゴンの各頂点までの距離は任意の頂点を表す座標値によって平方根で表されるが、領域の中心点から外縁までの距離の二乗値と領域の中心点から領域内のモデルを構成する複数のポリゴンの各頂点までの距離の二乗値との比率を算出することによって等価的に領域の中心点から外縁までの距離と領域の中心点から領域内のモデルを構成する複数のポリゴンの各頂点までの距離との比率を求めることができ、平方根の演算処理を行う必要がなく、演算処理に要する時間を短縮することができる。
【0017】
請求項に記載の本発明は、前記テクスチャ貼付手段は、前記モデルの周囲に配置された背景モデルを描画させて上下反転させた画像をテクスチャとして前記領域に位置する前記モデルに貼り付けることを特徴とする。
【0018】
請求項に記載の本発明に従えば、テクスチャ貼付手段は、複数のポリゴンで構成されるモデルの周囲に配置された背景モデルを描画させて上下反転させた画像をテクスチャとして所定の領域に位置する当該モデルに貼り付ける。
【0019】
すなわち、複数のポリゴンで構成されるモデルの周囲に配置された背景モデルが描画され、描画された画像を上下反転させた画像がテクスチャとして所定の領域に位置するモデルに貼り付けられるため、仮想3次元空間内に設けられたモデルに周囲の背景を映りこませることが可能となる。また、近景は透明にし、遠景は背景を写しこむことによって、擬似的にフレネル効果を実現することができ、リアル感が増すこととなる。
【0020】
請求項に記載の本発明は、前記領域は、前記モデルの透明度を変化させ得る透明度変化領域と、前記モデルを不透明にさせ得る不透明領域とを含み、
前記テクスチャ貼付手段は、前記モデルの周囲に配置された背景モデルを描画させて上下反転させた画像をテクスチャとして前記不透明領域に位置する前記モデルに貼り付けることを特徴とする。
【0021】
請求項に記載の本発明に従えば、仮想3次元空間内における仮想カメラ視点に基づいて設定される所定の領域は、モデルの透明度を変化させ得る透明度変化領域と、モデルを不透明にさせ得る不透明領域とを含み、テクスチャ貼付手段は、モデルの周囲に配置された背景モデルを描画させて上下反転させた画像をテクスチャとして不透明領域に位置するモデルに貼り付ける。
【0022】
すなわち、モデルの透明度を変化させ得る透明度変化領域とモデルを不透明にさせ得る不透明領域とを含む領域のうち、透明度変化領域では透明度を変化させ、透明度変化領域外の不透明領域では透明度を変化させずに不透明にして背景モデルを描画して上下反転させた画像をテクスチャとして貼り付けることができる。そのため、仮想カメラ視点から離れた位置にあるモデルに周囲の背景をはっきりと映りこませることができ、擬似的にフレネル効果を実現することができ、リアル感が増すこととなる。
【0023】
また、本発明は、前記モデルとして水面を表すモデルを用いることが可能である。
【0024】
この構成によれば、水面を複数のポリゴンで構成されるモデルで表し、例えば、仮想カメラ視点に近いモデルの透過性が高くなり、仮想カメラ視点から遠いモデルの透過性が低くなるように水面を表すモデルの透明度を変化させることによって、擬似的にフレネル効果を実現することができ、水面をリアルに表現することができる。
【0025】
請求項に記載の本発明は、複数のポリゴンで構成されるモデルを描画する3次元画像処理方法であって、
ビデオゲーム装置が、仮想3次元空間内における仮想カメラ視点に基づいて設定される所定の領域内の前記モデルの透明度を変化させる透明度変化ステップと、
ビデオゲーム装置が、前記透明度変化ステップにおいて透明度が変化された前記モデルにテクスチャを貼り付けるテクスチャ貼付ステップと、
ビデオゲーム装置が、前記テクスチャ貼付ステップにおいてテクスチャが貼り付けられた前記モデルを描画する描画ステップとを含み、
前記透明度変化ステップは、前記所定の領域内の前記モデルを構成する複数のポリゴンの各頂点の透明度を算出し、
前記テクスチャ貼付ステップは、前記透明度変化ステップにおいて算出された各頂点の透明度に応じてテクスチャの透明度を設定し、各頂点間のテクスチャの透明度を補完して設定し、
前記領域は、前記仮想カメラ視点から前記領域を含む平面への垂線と当該平面との交点を中心点とし、
前記透明度変化ステップは、前記中心点から前記領域の外縁に向かって透明度を低くし、前記中心点から前記領域の外縁までの距離の二乗値と、前記中心点から前記領域内の前記モデルを構成する複数のポリゴンの各頂点までの距離の二乗値との比率に基づいて前記 各頂点の透明度を算出することを特徴とする。
【0026】
請求項に記載の本発明に従えば、複数のポリゴンで構成されるモデルを描画する3次元画像処理方法は、ビデオゲーム装置が、透明度変化ステップにおいて、仮想3次元空間内における仮想カメラ視点に基づいて設定される所定の領域内のモデルの透明度を変化させ、ビデオゲーム装置が、テクスチャ貼付ステップにおいて、透明度変化ステップにおいて透明度が変化されたモデルにテクスチャを貼り付け、ビデオゲーム装置が、描画ステップにおいて、テクスチャ貼付ステップにおいてテクスチャが貼り付けられたモデルを描画する。
【0027】
すなわち、仮想3次元空間内における仮想カメラ視点に基づいて設定される所定の領域内のモデルの透明度が変化され、透明度が変化されたモデルにテクスチャが貼り付けられ、テクスチャが貼り付けられたモデルが描画される。
【0028】
例えば、所定の領域内のモデルの透明度が変化して描画されるため、仮想カメラ視点に近い位置にあるポリゴンの透明度を高くし、仮想カメラ視点から離れるにしたがってポリゴンの透明度を低くすることによってフレネル効果を擬似的に実現することができ、リアル感のあるビデオゲームを実現することができる。
【0029】
請求項に記載の本発明は、複数のポリゴンで構成されるモデルを描画するビデオゲーム装置であって、
仮想3次元空間内における仮想カメラ視点に基づいて設定される所定の領域内の前記モデルの透明度を変化させる透明度変化手段と、
前記透明度変化手段によって透明度が変化された前記モデルにテクスチャを貼り付けるテクスチャ貼付手段と、
前記テクスチャ貼付手段によってテクスチャが貼り付けられた前記モデルを描画する描画手段と、
前記描画手段によって描画された前記モデルを表示する表示手段とを備え、
前記透明度変化手段は、前記所定の領域内の前記モデルを構成する複数のポリゴンの各頂点の透明度を算出し、
前記テクスチャ貼付手段は、前記透明度変化手段によって算出された各頂点の透明度に応じてテクスチャの透明度を設定し、各頂点間のテクスチャの透明度を補完して設定し、
前記領域は、前記仮想カメラ視点から前記領域を含む平面への垂線と当該平面との交点を中心点とし、
前記透明度変化手段は、前記中心点から前記領域の外縁に向かって透明度を低くし、前記中心点から前記領域の外縁までの距離の二乗値と、前記中心点から前記領域内の前記モデルを構成する複数のポリゴンの各頂点までの距離の二乗値との比率に基づいて前記各頂点の透明度を算出することを特徴とする。
【0030】
請求項に記載の本発明に従えば、複数のポリゴンで構成されるモデルを描画するビデオゲーム装置は、透明度変化手段によって、仮想3次元空間内における仮想カメラ視点に基づいて設定される所定の領域内のモデルの透明度を変化させ、テクスチャ貼付手段によって、透明度変化手段によって透明度が変化されたモデルにテクスチャを貼り付け、描画手段によって、テクスチャ貼付手段によってテクスチャが貼り付けられたモデルを描画し、表示手段によって、描画手段によって描画されたモデルを表示する。
【0031】
すなわち、仮想3次元空間内における仮想カメラ視点に基づいて設定される所定の領域内のモデルの透明度が変化され、透明度が変化されたモデルにテクスチャが貼り付けられ、テクスチャが貼り付けられたモデルが描画され、描画されたモデルが表示される。
【0032】
例えば、所定の領域内のモデルの透明度が変化して描画されるため、仮想カメラ視点に近い位置にあるポリゴンの透明度を高くし、仮想カメラ視点から離れるにしたがってポリゴンの透明度を低くすることによってフレネル効果を擬似的に実現することができ、リアル感のあるビデオゲームを実現することができる。
【0033】
【発明の実施の形態】
以下、本発明の一実施の形態によるビデオゲーム装置について図面を参照しながら説明する。
【0034】
図1は本発明の一実施の形態のビデオゲーム装置の構成を示すブロック図である。なお、以下の説明では、ビデオゲーム装置の一例として家庭用ビデオゲーム機を家庭用テレビジョンに接続することによって構成される家庭用ビデオゲーム装置について説明するが、本発明はこの例に特に限定されず、モニタが一体に構成された業務用ビデオゲーム装置、ビデオゲームプログラムを実行することによってビデオゲーム装置として機能するパーソナルコンピュータ等にも同様に適用することができる。
【0035】
図1に示すビデオゲーム装置は家庭用ゲーム機100及び家庭用テレビジョン200を備える。家庭用ゲーム機100には、ビデオゲームプログラム及びゲームデータが記録されたコンピュータ読み出し可能な記録媒体300が装填され、ビデオゲームプログラム及びゲームデータが適宜読み出されてゲームが実行される。
【0036】
家庭用ゲーム機100は、CPU(Central Processing Unit)1、バスライン2、グラフィックスデータ生成プロセッサ3、インターフェース回路(I/F)4、メインメモリ5、ROM(Read Only Memory)6、伸張回路7、パラレルポート8、シリアルポート9、描画プロセッサ10、音声プロセッサ11、デコーダ12、インターフェース回路13、バッファ14〜16、記録媒体ドライブ17、メモリ18及びコントローラ19を含む。家庭用テレビジョン200はテレビジョンモニタ21、増幅回路22及びスピーカ23を含む。
【0037】
CPU1はバスライン2およびグラフィックスデータ生成プロセッサ3に接続されている。バスライン2はアドレスバス、データバス及びコントロールバス等を含み、CPU1、インターフェース回路4、メインメモリ5、ROM6、伸張回路7、パラレルポート8、シリアルポート9、描画プロセッサ10、音声プロセッサ11、デコーダ12及びインターフェース回路13を相互に接続している。
【0038】
描画プロセッサ10はバッファ14に接続される。音声プロセッサ11はバッファ15及び増幅回路22に接続される。デコーダ12はバッファ16及び記録媒体ドライブ17に接続される。インターフェース回路13はメモリ18及びコントローラ19に接続される。
【0039】
家庭用テレビジョン200のテレビジョンモニタ21は描画プロセッサ10に接続される。スピーカ23は増幅回路22に接続される。なお、業務用ビデオゲーム装置の場合、テレビジョンモニタ21、増幅回路22及びスピーカ23は、家庭用ゲーム機100を構成する各ブロックとともに1つの筺体に収納される場合がある。
【0040】
また、ビデオゲーム装置がパーソナルコンピュータやワークステーション等を核として構成されている場合、テレビジョンモニタ21等はコンピュータ用のディスプレイに対応する。また、伸張回路7、描画プロセッサ10及び音声プロセッサ11等は、それぞれ記録媒体300に記録されているプログラムデータの一部又はコンピュータの拡張スロットに搭載される拡張ボード上のハードウエアに対応する。また、インターフェース回路4、パラレルポート8、シリアルポート9及びインターフェース回路13は、コンピュータの拡張スロットに搭載される拡張ボード上のハードウエアに対応する。また、バッファ14〜16はそれぞれメインメモリ5又は拡張メモリの各記憶エリアに対応する。
【0041】
次に、図1に示す各構成要素について説明する。グラフィックスデータ生成プロセッサ3はCPU1のいわばコプロセッサとしての役割を果たす。すなわち、グラフィックスデータ生成プロセッサ3は座標変換や光源計算、例えば固定小数点形式の行列やベクトルの演算を並列処理によって行う。
【0042】
グラフィックスデータ生成プロセッサ3が行う主な処理としては、CPU1から供給される画像データの2次元又は仮想3次元空間内における各頂点の座標データ、移動量データ、回転量データ等に基づいて、所定の表示エリア上における処理対象画像のアドレスデータを求めてCPU1に返す処理、仮想的に設定された光源からの距離に応じて画像の輝度を計算する処理等がある。
【0043】
インターフェース回路4は周辺デバイス、例えばマウスやトラックボール等のポインティングデバイス等のインターフェース用に用いられる。メインメモリ5はRAM(RandomAccess Memory)等で構成される。ROM6にはビデオゲーム装置のオペレーティングシステムとなるプログラムデータが記憶されている。このプログラムはパーソナルコンピュータのBIOS(Basic Input Output System)に相当する。
【0044】
伸張回路7は動画に対するMPEG(Moving Picture Experts Group)規格や静止画に対するJPEG(Joint Photographic Experts Group)規格に準拠したイントラ符号化によって圧縮された圧縮画像に対して伸張処理を施す。伸張処理はデコード処理(VLC:VariableLength Codeによってエンコードされたデータのデコード)、逆量子化処理、IDCT(Inverse Discrete Cosine Transform)処理、イントラ画像の復元処理等を含む。
【0045】
描画プロセッサ10は所定時間T(例えば、1フレームでT=1/60秒)ごとにCPU1が発行する描画命令に基づいてバッファ14に対する描画処理を行う。
【0046】
バッファ14は例えばRAMで構成され、表示エリア(フレームバッファ)と非表示エリアとに分けられる。表示エリアはテレビジョンモニタ21の表示面上に表示するデータの展開エリアで構成される。非表示エリアはスケルトンを定義するデータ、ポリゴンを定義するモデルデータ、モデルに動きを行わせるアニメーションデータ、各アニメーションの内容を示すパターンデータ、テクスチャデータ及びカラーパレットデータ等の記憶エリアで構成される。
【0047】
ここで、テクスチャデータは2次元の画像データである。カラーパレットデータはテクスチャデータ等の色を指定するためのデータである。CPU1は、これらのデータを記録媒体300から一度に又はゲームの進行状況に応じて複数回に分けて、予めバッファ14の非表示エリアに記録する。
【0048】
また、描画命令としては、ポリゴンを用いて立体的な画像を描画するための描画命令、通常の2次元画像を描画するための描画命令がある。ここで、ポリゴンは多角形の2次元仮想図形であり、例えば、三角形や四角形が用いられる。
【0049】
ポリゴンを用いて立体的な画像を描画するための描画命令は、ポリゴン頂点座標データのバッファ14の表示エリア上における記憶位置を示すポリゴン頂点アドレスデータ、ポリゴンに貼り付けるテクスチャのバッファ14上における記憶位置を示すテクスチャアドレスデータ、テクスチャの色を示すカラーパレットデータのバッファ14上における記憶位置を示すカラーパレットアドレスデータ及びテクスチャの輝度を示す輝度データのそれぞれに対して行われるものである。
【0050】
上記のデータのうち表示エリア上のポリゴン頂点アドレスデータは、グラフィックスデータ生成プロセッサ3がCPU1からの仮想3次元空間上におけるポリゴン頂点座標データを移動量データ及び回転量データに基づいて座標変換することによって2次元上でのポリゴン頂点座標データに置換されたものである。輝度データはCPU1からの上記座標変換後のポリゴン頂点座標データによって示される位置から仮想的に配置された光源までの距離に基づいてグラフィックスデータ生成プロセッサ3によって決定される。
【0051】
ポリゴン頂点アドレスデータはバッファ14の表示エリア上のアドレスを示す。描画プロセッサ10は3個のポリゴン頂点アドレスデータで示されるバッファ14の表示エリアの範囲に対応するテクスチャデータを書き込む処理を行う。
【0052】
ゲーム空間内におけるキャラクタ等の物体は、複数のポリゴンで構成される。CPU1は各ポリゴンの仮想3次元空間上の座標データを対応するスケルトンのベクトルデータと関連させてバッファ14に記憶する。そして、後述するコントローラ19の操作によって、テレビジョンモニタ21の表示画面上でキャラクタを移動させる等の場合において、キャラクタの動きを表現したり、キャラクタを見ている視点位置を変えるときに、以下の処理が行われる。
【0053】
すなわち、CPU1はグラフィックスデータ生成プロセッサ3に対してバッファ14の非表示エリア内に保持している各ポリゴンの頂点の3次元座標データと、スケルトンの座標及びその回転量のデータから求められた各ポリゴンの移動量データ及び回転量データとを与える。
【0054】
グラフィックスデータ生成プロセッサ3は各ポリゴンの頂点の3次元座標データと各ポリゴンの移動量データ及び回転量データとに基づいて各ポリゴンの移動後及び回転後の3次元座標データを順次求める。
【0055】
このようにして求められた各ポリゴンの3次元座標データのうち水平及び垂直方向の座標データは、バッファ14の表示エリア上のアドレスデータ、すなわちポリゴン頂点アドレスデータとして描画プロセッサ10に供給される。
【0056】
描画プロセッサ10は3個のポリゴン頂点アドレスデータによって示されるバッファ14の表示エリア上に予め割り当てられているテクスチャアドレスデータによって示されるテクスチャデータを書き込む。これによって、テレビジョンモニタ21の表示画面上には、多数のポリゴンにテクスチャの貼り付けられた物体が表示される。
【0057】
通常の2次元画像を描画するための描画命令は、頂点アドレスデータ、テクスチャアドレスデータ、テクスチャデータの色を示すカラーパレットデータのバッファ14上における記憶位置を示すカラーパレットアドレスデータ及びテクスチャの輝度を示す輝度データに対して行われる。これらのデータのうち頂点アドレスデータは、CPU1からの2次元平面上における頂点座標データをCPU1からの移動量データ及び回転量データに基づいてグラフィックスデータ生成プロセッサ3が座標変換することによって得られる。
【0058】
音声プロセッサ11は記録媒体300から読み出されたADPCM(Adaptive Differential Pulse Code Modulation)データをバッファ15に記憶させ、バッファ15に記憶されたADPCMデータが音源となる。
【0059】
また、音声プロセッサ11は、例えば、周波数44.1kHzのクロック信号に基づき、バッファ15からADPCMデータを読み出す。音声プロセッサ11は、読み出したADPCMデータに対してピッチの変換、ノイズの付加、エンベロープの設定、レベルの設定及びリバーブの付加等の処理を施す。
【0060】
記録媒体300から読み出される音声データがCD−DA(Compact Disk Digital Audio)等のPCM(Pulse Code Modulation)データの場合、音声プロセッサ11はこの音声データをADPCMデータに変換する。また、PCMデータに対するプログラムによる処理は、メインメモリ5上において直接行われる。メインメモリ5上において処理されたPCMデータは、音声プロセッサ11に供給されてADPCMデータに変換される。その後、上述した各種処理が施され、音声がスピーカ23から出力される。
【0061】
記録媒体ドライブ17としては、例えば、DVD−ROMドライブ、CD−ROMドライブ、ハードディスクドライブ、光ディスクドライブ、フレキシブルディスクドライブ、シリコンディスクドライブ、カセット媒体読み取り機等が用いられる。この場合、記録媒体300としては、DVD−ROM、CD−ROM、ハードディスク、光ディスク、フレキシブルディスク、半導体メモリ等が用いられる。
【0062】
記録媒体ドライブ17は記録媒体300から画像データ、音声データ及びプログラムデータを読み出し、読み出したデータをデコーダ12に供給する。デコーダ12は記録媒体ドライブ17からの再生したデータに対してECC(Error Correction Code)によるエラー訂正処理を施し、エラー訂正処理を施したデータをメインメモリ5又は音声プロセッサ11に供給する。
【0063】
メモリ18としては、例えばカード型のメモリが用いられる。カード型のメモリは、例えばゲームを中断した場合において中断時点での状態を保持する等のように、中断時点での各種ゲームパラメータを保持するため等に用いられる。
【0064】
コントローラ19はユーザが種々の操作指令を入力するために使用する操作装置であり、ユーザの操作に応じた操作信号をCPU1に送出する。コントローラ19には、第1ボタン19a、第2ボタン19b、第3ボタン19c、第4ボタン19d、上方向キー19U、下方向キー19D、左方向キー19L、右方向キー19R、L1ボタン19L1、L2ボタン19L2、R1ボタン19R1、R2ボタン19R2、スタートボタン19e、セレクトボタン19f、左スティック19SL及び右スティック19SRが設けられている。
【0065】
上方向キー19U、下方向キー19D、左方向キー19L及び右方向キー19Rは、例えば、キャラクタやカーソルをテレビジョンモニタ21の画面上で上下左右に移動させるコマンドをCPU1に与えるために使用される。
【0066】
スタートボタン19eは記録媒体300からゲームプログラムをロードするようにCPU1に指示するため等に使用される。セレクトボタン19fは記録媒体300からメインメモリ5にロードされるゲームプログラムに関する各種選択をCPU1に指示するため等に使用される。
【0067】
左スティック19SL及び右スティック19SRを除くコントローラ19の各ボタン及び各キーは、外部からの押圧力によって中立位置から押圧されるとオンになり、押圧力が解除されると上記中立位置に復帰してオフになるオンオフスイッチで構成される。
【0068】
左スティック19SL及び右スティック19SRは、いわゆるジョイスティックとほぼ同一構成のスティック型コントローラである。このスティック型コントローラは直立したスティックを有し、このスティックの所定位置を支点として前後左右を含む360°方向に亘って傾倒可能な構成になっている。左スティック19SL及び右スティック19SRは、スティックの傾倒方向及び傾倒角度に応じて、直立位置を原点とする左右方向のx座標及び前後方向のy座標の値を操作信号としてインターフェース回路13を介してCPU1に送出する。
【0069】
なお、第1ボタン19a、第2ボタン19b、第3ボタン19c、第4ボタン19d、L1ボタン19L1、L2ボタン19L2、R1ボタン19R1及びR2ボタン19R2は、記録媒体300からロードされるゲームプログラムに応じて種々の機能に使用される。
【0070】
次に、上記のビデオゲーム装置の概略動作について説明する。記録媒体300が記録媒体ドライブ17に装填されている場合、電源スイッチ(図示省略)がオンされてビデオゲーム装置に電源が投入されると、ROM6に記憶されているオペレーティングシステムに基づいて、記録媒体300からゲームプログラムを読み出すように、CPU1は記録媒体ドライブ17に指示する。これによって、記録媒体ドライブ17は記録媒体300から画像データ、音声データ及びプログラムデータを読み出す。読み出された画像データ、音声データ及びプログラムデータはデコーダ12に供給され、デコーダ12によってエラー訂正処理が各データに施される。
【0071】
デコーダ12によってエラー訂正処理が施された画像データは、バスライン2を介して伸張回路7に供給される。伸張回路7によって上述した伸張処理が行われた画像データは描画プロセッサ10に供給され、描画プロセッサ10によってバッファ14の非表示エリアに書き込まれる。デコーダ12によってエラー訂正処理が施された音声データは、メインメモリ5又は音声プロセッサ11を介してバッファ15に書き込まれる。デコーダ12によってエラー訂正処理が施されたプログラムデータはメインメモリ5に書き込まれる。
【0072】
以降、CPU1は、メインメモリ5に記憶されているゲームプログラム及びユーザがコントローラ19を用いて指示する内容に基づいてビデオゲームを進行させる。すなわち、ユーザがコントローラ19を用いて指示する内容に基づいて、CPU1は画像処理の制御、音声処理の制御及び内部処理の制御等を適宜行う。
【0073】
画像処理の制御として、例えば、キャラクタに指示されるアニメーションに該当するパターンデータから各スケルトンの座標の計算又はポリゴンの頂点座標データの計算、得られた3次元座標データや視点位置データのグラフィックスデータ生成プロセッサ3への供給、グラフィックスデータ生成プロセッサ3が求めたバッファ14の表示エリア上のアドレスデータや輝度データを含む描画命令の発行等が行われる。
【0074】
音声処理の制御として、例えば、音声プロセッサ11に対する音声出力コマンドの発行、レベル、リバーブ等の指定が行われる。内部処理の制御として、例えばコントローラ19の操作に応じた演算等が行われる。
【0075】
次に、記録媒体300に記録されているゲームプログラムに基づいて実行されるビデオゲームについて説明する。本実施の形態におけるビデオゲームは、釣りを題材としたものである。ユーザによって操作される釣り人を模したキャラクタが仮想3次元空間内に設けられた釣り場で釣りをすることによってビデオゲームが進行する。釣りを題材とするビデオゲームでは、池、湖及び海等が再現される。本実施の形態における3次元画像処理は、池、湖及び海等の水面をリアルに再現することによって、ユーザに実際の釣り場で釣りをしているかのような臨場感を与えることを目的としている。
【0076】
図2は図1に示すビデオゲーム装置の主要機能を示すブロック図である。図2に示すように、ビデオゲーム装置は、機能的には、プログラム実行部31、データ記憶部32、プログラム記憶部33、描画処理部34、表示部35及び操作部36を含む。
【0077】
データ記憶部32は、バッファ14等で構成され、モデルデータ記憶部47を含む。モデルデータ記憶部47は、水面モデル記憶部471及び背景モデル記憶部472を含む。
【0078】
水面モデル記憶部471は、仮想3次元空間内に再現される池、湖及び海等の水面を表す水面モデルの各データを記憶する。水面モデルは複数のポリゴンで構成される。水面モデル記憶部471が記憶する水面モデルの各データは、水面モデルを構成するポリゴンを定義するモデルデータ、水面モデルに動きを行わせるアニメーションデータ、各アニメーションの内容を示すパターンデータ、テクスチャデータ及びカラーパレットデータ等を記憶する。なお、水面モデルは必ずしも動きを行わせる必要はなく、水面モデルを動かさない場合、アニメーションデータ等は不要となる。
【0079】
背景モデル記憶部472は、仮想3次元空間内に再現される池、湖及び海等の水面の周囲に配置される背景を表す背景モデルの各データを記憶する。背景モデルは複数のポリゴンで構成される。なお、背景モデルには、水面モデルの周囲に配置された陸地を表すモデル、木を表すモデル、橋を表すモデル及び空を表すモデル等が含まれる。背景モデル記憶部472が記憶する背景モデルの各データは、背景モデルを構成するポリゴンを定義するモデルデータ、背景モデルに動きを行わせるアニメーションデータ、各アニメーションの内容を示すパターンデータ、テクスチャデータ及びカラーパレットデータ等を記憶する。なお、背景モデルは必ずしも動きを行わせる必要はなく、背景モデルを動かさない場合、アニメーションデータ等は不要となる。また、背景モデル記憶部472は、仮想3次元空間内において水面モデルの下側に配置され、水底の地形を表す水底モデルを記憶する。
【0080】
プログラム実行部31はCPU1等で構成され、CPU1等がメインメモリ5に記憶されている3次元画像処理プログラムを実行することによって、ゲーム進行処理部41、反転画像作成部42、透明度変化部43、テクスチャ貼付部44、描画指示部45及び表示制御部46として機能する。
【0081】
ゲーム進行処理部41は、ユーザによるコントローラ19の操作を受け付けて操作部36から出力される操作信号に基づいて通常の釣りゲームの進行処理を行う。つまり、ユーザはコントローラ19を操作することによってキャラクタを移動させたり、所定の釣り動作を行わせる。
【0082】
反転画像作成部42は、背景モデル記憶部472に記憶されている背景モデルを描画して上下反転させた画像を反転画像として作成し、データ記憶部32に一時的に記憶させる。
【0083】
透明度変化部43は、仮想3次元空間内における仮想カメラ視点に基づいて設定される所定の透明度変化領域内の水面モデルの透明度を変化させる。なお、透明度変化領域については図3を用いて後述する。また、ここでの透明度とは光が物質を透過する割合を表し、物質は気体、液体及び固体のいずれでもよい。透明度が高くなると光が透過され、透明度が低くなると光が反射される。
【0084】
テクスチャ貼付部44は、透明度変化部43によって透明度が変化された水面モデルにテクスチャを貼り付ける。ここで、水面モデルに貼り付けられるテクスチャは、反転画像作成部42によって作成された反転画像であり、テクスチャ貼付部44は、データ記憶部32に一時的に記憶されている反転画像を読み出してテクスチャとして水面モデルに貼り付ける。
【0085】
描画指示部45は、テクスチャ貼付部44によってテクスチャが貼り付けられた水面モデルを背景画像上に描画するための描画命令を描画処理部34に発行する。
【0086】
表示制御部46は、描画処理部34によって描画された水面モデルを表示部34に表示する。
【0087】
プログラム記憶部33は記録媒体ドライブ17等から構成され、コンピュータ読み取り可能な記録媒体48を含む。記録媒体48は記録媒体300から構成され、ビデオゲームプログラムとして画像表示プログラムを記憶している。また、ビデオゲームプログラムは、キャラクタの動作を制御するための制御プログラム及び表示されるキャラクタ及びオブジェクトに関する表示データを含む。なお、記録媒体48から画像表示プログラムが読み取られ、当該プログラムがメインメモリ5に記録されている場合、メインメモリ5がプログラム記憶部33として機能する。
【0088】
描画処理部34は、描画プロセッサ10等で構成され、描画指示部45から発行される描画命令に基づいて所定の画像を描画する。表示部35はテレビジョンモニタ21等で構成される。操作部36はコントローラ19等で構成される。
【0089】
なお、本実施の形態において、透明度変化部43は透明度変化手段に相当し、反転画像作成部42及びテクスチャ貼付部44はテクスチャ貼付手段に相当し、描画指示部45及び描画処理部34は描画手段に相当する。
【0090】
図3は、透明度変化領域について説明するための模式図である。本実施の形態における仮想3次元空間は、透明度変化領域TR、不透明領域FR及び背景領域HRで構成される。水面モデルの透明度を変化させ得る透明度変化領域TRは、仮想カメラ視点C(Cx,Cy,Cz)から水面モデルを構成するポリゴンの任意の頂点W(Wx,Wy,Wz)を含む平面に垂直に降ろした点を中心点O(Cx,Wy,Cz)とする円形状である。透明度変化領域TRの中心点Oから外縁Lまでの距離である半径aは、下記の(1)式によって求めることができる。
a=(Cy−Wy)/tanθ・・・・(1)
ただし、aは透明度変化領域TRの半径を表し、Cyは仮想カメラ視点Cのy座標を表し、Wyは透明度変化領域TRの中心点Oのy座標(水面モデルを構成するポリゴンの任意の頂点Wのy座標)を表し、θは仮想カメラ視点Cと、透明度変化領域TRの外縁Lのx軸上の点Pと、透明度変化領域TRの中心点Oとがなす角度を表す。なお、角度θは全反射する視線の角度である。
【0091】
また、透明度変化領域TRの中心点Oから水面モデルを構成するポリゴンの任意の頂点Wまでの距離bは、下記の(2)式によって求めることができる。
b={(Cx−Wx)+(Cz−Wz)1/2・・・・(2)
ただし、bは透明度変化領域TRの中心点Oから水面モデルを構成するポリゴンの任意の頂点Wまでの距離を表し、Cxは仮想カメラ視点Cのx座標を表し、Wxは水面モデルを構成するポリゴンの任意の頂点Wのx座標を表し、Czは仮想カメラ視点Cのz座標を表し、Wzは水面モデルを構成するポリゴンの任意の頂点Wのz座標を表す。
【0092】
透明度変化領域TRの半径aと、透明度変化領域TRの中心点Oから水面モデルを構成するポリゴンの任意の頂点Wまでの距離bとの比率b/aを透明係数α’として設定する。透明係数α’は、0.0≦α’≦1.0に設定されており、α’=0.0の場合に透明となり、α’=1.0の場合に不透明となる。なお、本実施の形態における透明係数α’とは、水等の物質の透明度を表す値であり、透明係数α’が小さい場合にポリゴンモデルは透明となり、値が大きい場合にポリゴンモデルは不透明となる。したがって、透明度が高くなると透明係数α’は小さくなり、透明度が低くなると透明係数α’は大きくなる。また、透明係数α’=0.0の場合に不透明とし、透明係数α’=1.0の場合に透明としてもよい。
【0093】
水面モデルを不透明にさせ得る不透明領域FRは、仮想カメラ視点C(Cx,Cy,Cz)から水面モデルを構成するポリゴンの任意の頂点W(Wx,Wy,Wz)を含む平面に垂直に降ろした点を中心点O(Cx,Wy,Cz)とする円形状から透明度変化領域TRを除いたドーナツ形状であり、透明性は不透明となり、反射するように(つまり、α’=1.0)設定される。
【0094】
背景領域HRは、仮想カメラ視点C(Cx,Cy,Cz)から水面モデルを構成するポリゴンの任意の頂点W(Wx,Wy,Wz)を含む平面に垂直に降ろした点を中心点O(Cx,Wy,Cz)とする円形状から透明度変化領域TR及び不透明領域FRを除いたドーナツ形状であり、背景モデルが含まれる領域である。透明度変化領域TR及び不透明領域FR内の水面モデルを構成するポリゴンにテクスチャが貼り付けられる。
【0095】
なお、不透明領域FR及び背景領域HRは、図3に示すように円形状でなくてもよく、背景モデルを構成するポリゴン及び水面モデルを構成するポリゴンの形状に応じた形状でもよい。
【0096】
また、本実施の形態では、水面モデルに透明度変化領域TR及び不透明領域FRが含まれるが、本発明は特にこれに限定されず、水面モデルは不透明領域FRを含まず、透明度変化領域TRのみを含む態様でもよい。この場合、水面モデルの形状と、透明度変化領域TRの形状とを同じにする。
【0097】
ここで、距離bは、上記(2)式に示すように平方根を含んでいる。平方根を含む演算は処理に時間がかかるため、リアルタイムに画像を生成することが困難になる場合がある。そのため、本実施の形態では、下記の(3)式に示すように距離bの二乗値をBとして設定し、下記の(4)式に示すように透明度変化領域TRの半径aの二乗値Aと、透明度変化領域TRの中心点Oから水面モデルを構成するポリゴンの任意の頂点Wまでの距離bの二乗値Bとの比率B/Aを透明係数αとして設定することで、上記(2)式に示す平方根演算を用いることなく演算する。
【0098】
B=b=(Cx−Wx)+(Cz−Wz)・・・・(3)
ただし、Bは透明度変化領域TRの中心点Oから水面モデルを構成するポリゴンの任意の頂点Wまでの距離bの二乗値を表し、Cxは仮想カメラ視点Cのx座標を表し、Wxは水面モデルを構成するポリゴンの任意の頂点Wのx座標を表し、Czは仮想カメラ視点Cのz座標を表し、Wzは水面モデルを構成するポリゴンの任意の頂点Wのz座標を表す。
【0099】
α=B/A={(Cx−Wx)+(Cz−Wz)}/{(Cy−Wy)/tanθ}・・・・(4)
ただし、αは水面モデルを構成するポリゴンモデルの頂点の透明度を表す値であり、Bは透明度変化領域TRの中心点Oから水面モデルを構成するポリゴンの任意の頂点Wまでの距離bの二乗値を表し、Aは透明度変化領域TRの半径aの二乗値を表す。また、透明係数αは、0.0≦α≦1.0に設定されており、α=0.0の場合に透明となり、α=1.0の場合に不透明となる。
【0100】
なお、本実施の形態における透明係数αとは、水等の物質の透明度を表す値であり、透明係数αが小さい場合にポリゴンモデルは透明となり、値が大きい場合にポリゴンモデルは不透明となる。したがって、透明度が高くなると透明係数αは小さくなり、透明度が低くなると透明係数αは大きくなる。また、透明係数α=0.0の場合に不透明とし、透明係数α=1.0の場合に透明としてもよい。
【0101】
仮想3次元空間内における仮想カメラ視点Cから水面モデルを構成するポリゴンの任意の頂点Wを含む平面に垂直に降ろした点を中心点Oとする円形状の透明度変化領域TRを設定する。そして、中心点Oから透明度変化領域TRの外縁に向けて水面モデルを構成するポリゴンの頂点の透明度を低くする。このようにして、中心点Oから透明度変化領域TRの外縁に向けて放射状に水面モデルを構成するポリゴンの頂点の透明係数αが大きくなるため、仮想カメラ視点Cに近い位置にあるポリゴンの頂点は透明係数αが小さくなり、水面モデルを透過して描画することができ、仮想カメラ視点Cから遠い位置にあるポリゴンの頂点は透明係数αが大きくなり、水面モデルを透過せずに反射して描画することができる。
【0102】
また、フレネル効果は、フレネルの公式によって実現することが可能であるが、フレネルの公式を用いて演算した場合、式が複雑なため、演算処理に時間がかかり、演算処理装置にかかる負荷が大きくなってしまう。そこで、仮想3次元空間内における仮想カメラ視点から水面モデルを含む平面に垂直に降ろした点を中心点Oとする透明度変化領域TRの外縁までの距離aの二乗値Aと、水面モデルを構成するポリゴンの任意の頂点と透明度変化領域TRの中心点Oとの距離bの二乗値Bとの比率B/Aに基づいて透明度を算出する。このようにして、透明度変化領域TRの中心点Oからの距離に応じて透明度変化領域TR内の水面モデルの透明度を変化させることによって、擬似的にフレネル効果を実現することができる。
【0103】
さらに、透明度変化領域TR内の任意の点Wと透明度変化領域TRの中心点Oとの距離bは任意の点Wを表す座標値によって平方根で表されるが、距離bの二乗値Bと距離aの二乗値Aとの比率B/Aを算出することによって等価的にb/a(bは平方根を含む)を求めることができ、平方根の演算処理を行う必要がなく、演算処理に要する時間を短縮することができ、演算処理装置にかかる負荷を軽減することができる。
【0104】
図4は、図1に示すビデオゲーム装置による3次元画像処理の一例を示すフローチャートである。なお、図4に示す3次元画像処理は、CPU1等が記録媒体300に記憶されている3次元画像処理プログラム等を実行することによって行われる処理である。
【0105】
ステップS1において、CPU1は、水面モデルの周囲に配置された背景モデルを上下反転させて描画するための描画命令を描画プロセッサ10に発行し、描画プロセッサ10は、背景モデルを上下反転させた反転画像を描画する。
【0106】
ステップS2において、CPU1は、描画した反転画像をテクスチャデータとしてバッファ14の非表示エリアに一時的に記憶する。
【0107】
ステップS3において、CPU1は、背景モデルを描画するための描画命令を描画プロセッサ10に発行し、描画プロセッサ10は背景モデルを描画し、バッファ14の表示エリアに展開する。
【0108】
ステップS4において、CPU1は、仮想3次元空間において水面モデルの下側に配置される水底モデルを描画するための描画命令を描画プロセッサ10に発行し、描画プロセッサ10は水底モデルを描画し、バッファ14の表示エリアに展開する。
【0109】
ステップS5において、CPU1は、水面モデルを構成するポリゴンの描画する順番に応じて各ポリゴンの頂点の透明係数αを算出する。透明係数αは、透明度変化領域TRの半径aの二乗値Aと、透明度変化領域TRの中心点Oから水面モデルを構成するポリゴンの任意の頂点Wまでの距離bの二乗値Bとの比率B/Aを求めることによって算出される。
【0110】
ステップS6において、CPU1は、水面モデルを構成するポリゴンの全ての頂点に関して透明係数αを設定したか否かを判断する。ここで、全ての頂点に関して透明係数αを設定したと判断されると(ステップS6でYES)、ステップS7に移行する。全ての頂点に関して透明係数αを設定いていないと判断されると(ステップS6でNO)、ステップS5に戻る。
【0111】
ステップS7において、CPU1は、バッファ14に記憶しているテクスチャデータ(背景モデルの上下反転画像)を読み出し、水面モデルのテクスチャとして貼り付ける。この際、ステップS5において算出された水面モデルを構成するポリゴンの各頂点の透明係数αに応じてテクスチャの透明度が設定され、各頂点間の透明度は補間されて設定される。
【0112】
ステップS8において、CPU1は、背景モデルの上下反転画像が貼り付けられた水面モデルを背景画像上に合成して描画するための描画指示を描画プロセッサ10に発行し、描画プロセッサ10は、水面モデル、背景モデル及び水底モデルを合成した画像を描画し、バッファ14の表示エリアに展開する。
【0113】
ステップS9において、CPU1は、バッファ14の表示エリアに展開された水面モデル、背景モデル及び水底モデルを合成した画像を表示するようにテレビジョンモニタ21を制御し、テレビジョンモニタ21は、水面モデルと背景画像とを合成した画像を表示する。
【0114】
このように、水面モデルの透明度が高い部分(透明係数αが小さい部分)では貼り付けられたテクスチャが透過して表示され、透明度が低い部分(透明係数αが大きい部分)では貼り付けられたテクスチャが反射して表示される。つまり、水面モデルを構成するポリゴンの透明度は仮想カメラ視点からの距離に応じて変化し、仮想カメラ視点に近い水面モデルのポリゴンは透明係数α(=B/A)が0.0に近くなり、水面を透過して水底が表示される。一方、仮想カメラ視点から離れるにつれて水面モデルのポリゴンは透明係数αが1.0に近くなり、上下反転した背景が徐々に反射して表示され、水底が表示されなくなる。そのため、仮想カメラ視点に近い位置にあるポリゴンの透明度を高くし、仮想カメラ視点から離れるにしたがって透明度を低くすることによって、フレネル効果を擬似的に実現することができ、リアル感のあるビデオゲームを実現することができる。
【0115】
また、複数のポリゴンで構成される水面モデルの周囲に配置された背景モデルが描画され、描画された画像を上下反転させた画像がテクスチャとして水面モデルに貼り付けられるため、仮想3次元空間内に設けられた水面モデルに周囲の背景を映りこませることが可能となる。
【0116】
さらに、上下反転させた画像を水面モデルのテクスチャとして用いているため、水面モデルを構成するポリゴンをアニメーションデータに基づいて動かすことで水面の揺らぎなどを容易に表現することができる。
【0117】
図5は、本実施の形態における3次元画像処理で水面モデルを描画したゲーム画面の一例を示す画面図である。図5に示すゲーム画面400には、上方に背景としての陸地402が表示され、陸地402の下方に湖の水面401が表示されており、便宜上水面401上にキャラクタ403が立っているように表示されている。水面401には、水底モデルを構成する地形の一部である水草406及び岩407が透過して表示されている。仮想3次元空間内の任意の位置に設けられた仮想カメラ視点Cは水面401を俯瞰する位置に設けられている。図5に示すように、水面401の画面手前側の領域404では、水面モデルを構成するポリゴンの透明度が高い(透明係数αが小さい)ため、水面401が透過して水底の水草406及び岩407が表示されている。水面401の画面手前側の領域404から画面奥側の領域405にいくにしたがって水面モデルを構成するポリゴンの透明度は徐々に低くなっており、水面401の画面奥側の領域405の水面モデルを構成するポリゴンの透明度が低い(透明係数αが大きい)ため、背景である陸地402及び空(図示なし)が反射して表示されている。水面401の画面手前側の領域404から画面奥側の領域405における透明性は、透明、半透明、不透明の順に移行する。
【0118】
このように、仮想カメラ視点から見て近景のポリゴンは透過して表示され、遠景のポリゴンは背景が反射して表示され、擬似的にフレネル効果を実現することができ、ユーザはリアル感のあるビデオゲームをプレイすることができるようになる。
【0119】
なお、本実施の形態では、水面モデルの透明度変化領域TR及び不透明領域FRに背景モデルを上下反転させた反転画像をテクスチャとして貼り付けるとしたが、本発明は特にこれに限定されず、透明度変化領域TR及び不透明領域FRのそれぞれに異なるテクスチャを貼り付けてもよい。透明度変化領域TRに所定のテクスチャを貼り付け、不透明領域FRに背景モデルを上下反転させた反転画像をテクスチャとして貼り付けてもよい。この場合、所定のテクスチャは、例えば水色などの水を表す画像にする。
【0120】
また、本実施の形態では、透明度変化領域TRを円形状として説明したが、本発明は特にこれに限定されず、例えば、楕円形状、四角形状などの多角形状など任意の形状であってもよい。透明度変化領域TRが楕円形状の場合、楕円の長手方向の半径を中心点から外縁までの距離aとして透明係数αを算出する。また、透明度変化領域TRが多角形状の場合、中心点から最も距離の長い頂点までの距離を中心点から外縁までの距離aとして透明係数αを算出する。
【0121】
また、本実施の形態では、複数のポリゴンで構成されるモデルを水面を表す水面モデルとして説明したが、本発明は特にこれに限定されず、透過と反射を同時に起こすような透明な物質を表すモデルであれば、例えば、ガラスを表すモデル、宝石を表すモデルなどでもよい。つまり、モデルを構成するポリゴンとは、現実世界において透明な物質を仮想3次元空間内において表現するために使用されるポリゴンである。
【0122】
また、本実施の形態では、透明度変化部43は、透明度変化領域TRの中心点からの距離に応じて透明度を変化させるとしたが、本発明は特にこれに限定されず、透明係数αが所定の値になった時点で透明度を変化させてもよい。例えば、透明係数αが0.5より小さい値(0.0≦α<0.5)となる頂点Wは全てα=0.0に設定し、透明係数αが0.5以上の値(0.5≦α≦1.0)となる頂点Wについて透明度を変化させる。この場合、近景の水面を透過して水底がさらに広範囲に表示されるため、ユーザは水底の様子を知ることができ、釣りを題材としたビデオゲームに好適である。
【0123】
また、本実施の形態では、釣りを題材としたビデオゲームとして説明したが、本発明は特にこれに限定されず、他のスポーツゲーム、アクションゲーム、シミュレーションゲーム、シューティングゲーム、ロールプレイングゲーム及び格闘ゲーム等の他のビデオゲームにも適用することができる。
【0124】
【発明の効果】
請求項1に記載の本発明によれば、所定の領域内のモデルの透明度が変化して描画されるため、仮想カメラ視点に近い位置にあるポリゴンの透明度を高くし、仮想カメラ視点から離れるにしたがって透明度を低くすることによってフレネル効果を擬似的に実現することができ、リアル感のあるビデオゲームを実現することができる。
【0125】
また、仮想3次元空間内における仮想カメラ視点から領域を含む平面に対して垂直に降ろした交点を中心点とし、当該中心点から放射状にモデルの透明度が低くされる。そのため、仮想カメラ視点に近い位置にあるポリゴンは透明度を高くして描画することができ、仮想カメラ視点から遠い位置にあるポリゴンは透明度を低くして描画することができ、フレネル効果を擬似的に実現することができ、リアル感のあるビデオゲームを実現することができる。
【0126】
さらに、仮想3次元空間内における仮想カメラ視点からモデルに垂直に降ろした点を中心点とする領域の中心点から外縁までの距離の二乗値と、領域の中心点から領域内のモデルを構成する複数のポリゴンの各頂点までの距離の二乗値との比率に基づいて各頂点の透明度が算出されるため、領域の中心点からの距離に応じて領域内のモデルの透明度を変化させることができる。また、領域の中心点から領域内のモデルを構成する複数のポリゴンの各頂点までの距離は任意の点を表す座標値によって平方根で表されるが、領域の中心点から外縁までの距離の二乗値と領域の中心点から領域内のモデルを構成する複数のポリゴンの各頂点までの距離の二乗値との比率を算出することによって等価的に領域の中心点から外縁までの距離と領域の中心点から領域内のモデルを構成する複数のポリゴンの各頂点までの距離との比率を求めることができ、平方根の演算処理を行う必要がなく、演算処理に要する時間を短縮することができる。
【0127】
請求項に記載の本発明によれば、複数のポリゴンで構成されるモデルの周囲に配置された背景モデルが描画され、描画された画像を上下反転させた画像がテクスチャとして所定の領域に位置するモデルに貼り付けられるため、仮想3次元空間内に設けられたモデルに周囲の背景を映りこませることが可能となる。また、近景は透明にし、遠景は背景を写しこむことによって、擬似的にフレネル効果を実現することができ、リアル感が増すこととなる。
【0128】
請求項に記載の本発明によれば、モデルの透明度を変化させ得る透明度変化領域とモデルを不透明にさせ得る不透明領域とを含む領域のうち、透明度変化領域では透明度を変化させ、透明度変化領域外の不透明領域では透明度を変化させずに不透明にして背景モデルを描画して上下反転させた画像をテクスチャとして貼り付けることができる。そのため、仮想カメラ視点から離れた位置にあるモデルに周囲の背景をはっきりと映りこませることができ、擬似的にフレネル効果を実現することができ、リアル感が増すこととなる。
【0129】
請求項に記載の本発明によれば、所定の領域内のモデルの透明度が変化して描画されるため、仮想カメラ視点に近い位置にあるポリゴンの透明度を高くし、仮想カメラ視点から離れるにしたがって透明度を低くすることによってフレネル効果を擬似的に実現することができ、リアル感のあるビデオゲームを実現することができる。
【0130】
請求項に記載の本発明によれば、所定の領域内のモデルの透明度が変化して描画されるため、仮想カメラ視点に近い位置にあるポリゴンの透明度を高くし、仮想カメラ視点から離れるにしたがって透明度を低くすることによってフレネル効果を擬似的に実現することができ、リアル感のあるビデオゲームを実現することができる。
【図面の簡単な説明】
【図1】 本発明の一実施の形態のビデオゲーム装置の構成を示すブロック図である。
【図2】 図1に示すビデオゲーム装置の主要機能を示すブロック図である。
【図3】 透明度変化領域について説明するための模式図である。
【図4】 図1に示すビデオゲーム装置による3次元画像処理の一例を示すフローチャートである。
【図5】 本実施の形態における3次元画像処理で水面モデルを描画したゲーム画面の一例を示す画面図である。
【図6】 従来の透過性を重視する方法によって水面モデルを描画したゲーム画面の一例を示す画面図である。
【図7】 従来の反射性を重視する方法によって水面モデルを描画したゲーム画面の一例を示す画面図である。
【符号の説明】
1 CPU
2 バスライン
3 グラフィックスデータ生成プロセッサ
4,13 インターフェース回路
5 メインメモリ
6 ROM
7 伸張回路
8 パラレルポート
9 シリアルポート
10 描画プロセッサ
11 音声プロセッサ
12 デコーダ
14,15,16 バッファ
17 記録媒体ドライバ
18 メモリ
19 コントローラ
21 テレビジョンモニタ
31 プログラム実行部
32 データ記憶部
33 プログラム記憶部
34 描画処理部
35 表示部
36 操作部
41 ゲーム進行処理部
42 反転画像作成部
43 透明度変化部
44 テクスチャ貼付部
45 描画指示部
46 表示制御部
47 モデルデータ記憶部
48 記録媒体
471 水面モデル記憶部
472 背景モデル記憶部
[0001]
BACKGROUND OF THE INVENTION
  The present invention relates to a three-dimensional image processing program for drawing a model composed of a plurality of polygons, a three-dimensional image processing method, and a video game apparatus.
[0002]
[Prior art]
  Conventionally, methods for expressing water surfaces such as ponds, lakes, and seas in a virtual three-dimensional space such as a video game include a method that emphasizes water surface transparency and a method that emphasizes water surface reflectivity. In the method of emphasizing the transparency, the texture attached to the polygon constituting the water surface is made translucent so that the bottom of the water can be seen.
[0003]
  FIG. 6 is a screen diagram showing an example of a game screen in which a water surface model is drawn by a conventional method that places importance on transparency. In the game screen 500 shown in FIG. 6, a land 502 as a background is displayed above the screen, and a water surface 501 of the lake is displayed below the land 502, so that a character 503 stands on the water surface 501 for convenience. Is displayed. On the water surface 501, a rock 506, which is part of the topography that forms the bottom of the water, and a fish 507 arranged between the water surface and the bottom of the water are displayed. A virtual camera viewpoint provided at an arbitrary position in the virtual three-dimensional space is provided at a position overlooking the water surface 501. In a method that places importance on transparency, for example, a light blue image is used as a texture to be pasted on a polygon that forms the water surface, and the transparency is set to be constant so that the polygon is translucent. In such a method emphasizing transparency, both the water surface 501 in the area 504 on the near side of the screen close to the virtual camera viewpoint and the water surface 501 in the area 505 on the far side of the screen far from the virtual camera viewpoint pass through the water surface 501. A rock 506 and a fish 507 are displayed.
[0004]
  Further, in the method that places importance on reflectivity, an image obtained by vertically inverting a model on the water reflected on the water surface is pasted as a texture on a polygon that forms the water surface.
[0005]
  FIG. 7 is a screen diagram illustrating an example of a game screen in which a water surface model is drawn by a conventional method that places importance on reflectivity. On the game screen 600 shown in FIG. 7, a land 602 and a sky 603 as a background are displayed above, a water surface 601 of a lake is displayed below the land 602, and a character 604 stands on the water surface 601 for convenience. Is displayed. A virtual camera viewpoint provided at an arbitrary position in the virtual three-dimensional space is provided at a position overlooking the water surface 601. In the method that places importance on reflectivity, for example, an image obtained by inverting the background upside down is used as a texture to be pasted on a polygon constituting the water surface, and the transparency is set to be constant so that the polygon is also totally reflected. In such a method emphasizing reflectivity, the water surface 601 in the area 605 on the near side of the screen near the virtual camera viewpoint and the water surface 601 in the area 606 on the far side of the screen far from the virtual camera viewpoint are both reflected and background. The land 602 and the sky 603 are displayed.
[0006]
[Problems to be solved by the invention]
  However, in reality, when the water surface is viewed from directly above, the water appears to pass through, but when the water surface is viewed from the side, the surrounding environment is reflected and reflected on the water surface. In this way, the fact that the appearance of the boundary surface of materials having different refractive indexes changes depending on the angle viewed by the observer is called the Fresnel effect. When the angle between the observer's line of sight and the water surface is large, the water surface appears to be transmitted, and when the angle is small, the water surface appears to be reflected.
[0007]
  Here, looking at the conventional method described above, the method that places importance on transparency is that the polygons that make up the water surface 501 are all transmitted and displayed as shown in FIG. Not only (the area 504 on the near side of the screen) but also the water surface 501 (the area 505 on the far side of the screen) far from the virtual camera viewpoint is transmitted and displayed. Further, in the method of emphasizing reflectivity, since all the polygons constituting the water surface 601 are reflected and displayed as shown in FIG. 7, not only the water surface 601 (region 606 on the back side of the screen) far from the virtual camera viewpoint. The water surface 601 (region 605 on the near side of the screen) near the virtual camera viewpoint is also reflected and displayed. Therefore, the conventional method has a problem that the near-field and the far-field are displayed in the same manner, and the real-world Fresnel effect is not realized, resulting in lack of realism.
[0008]
  The present invention has been made in order to solve the above-described problem. A three-dimensional image processing program, a three-dimensional image processing method, and a three-dimensional image processing method capable of realizing a video game with a real feeling by realizing the Fresnel effect in a pseudo manner. An object of the present invention is to provide a video game device.
[0009]
[Means for Solving the Problems]
  The present invention according to claim 1 is a three-dimensional image processing program for drawing a model composed of a plurality of polygons,
  Transparency changing means for changing the transparency of the model in a predetermined area set based on a virtual camera viewpoint in a virtual three-dimensional space;
  Texture pasting means for pasting a texture to the model whose transparency has been changed by the transparency changing means;
  A video game device is caused to function as a drawing unit that draws the model with the texture pasted by the texture pasting unit,
  The transparency changing means calculates transparency of each vertex of a plurality of polygons constituting the model in the predetermined area;
  The texture pasting means sets the texture transparency according to the transparency of each vertex calculated by the transparency changing means, and complements the texture transparency between the vertices.And
The region is centered on the intersection of a perpendicular line from the virtual camera viewpoint to the plane including the region and the plane,
The transparency changing means lowers the transparency from the center point toward the outer edge of the region, and constitutes the square value of the distance from the center point to the outer edge of the region, and the model in the region from the center point The transparency of each vertex is calculated based on the ratio to the square value of the distance to each vertex of the plurality of polygonsIt is characterized by that.
[0010]
  According to the first aspect of the present invention, a 3D image processing program for drawing a model composed of a plurality of polygons is set based on a virtual camera viewpoint in a virtual 3D space by a transparency changing unit. The model in which the transparency of the model in the predetermined region is changed, the texture is pasted on the model whose transparency is changed by the transparency changing means by the texture pasting means, and the texture is pasted by the texture pasting means by the drawing means Draw.
[0011]
  That is, the transparency of the model in a predetermined region set based on the virtual camera viewpoint in the virtual three-dimensional space is changed, the texture is pasted on the model with the changed transparency, and the model on which the texture is pasted is Drawn.
[0012]
  For example, since the transparency of a model in a predetermined area is changed and rendered, the transparency of the polygon near the virtual camera viewpoint is increased, and the polygon transparency is decreased as the distance from the virtual camera viewpoint is increased. The effect can be realized in a pseudo manner, and a realistic video game can be realized.
[0013]
  Also,The predetermined area set based on the virtual camera viewpoint in the virtual three-dimensional space is centered on the intersection of the perpendicular line from the virtual camera viewpoint to the plane including the area and the plane, and the transparency changing means Decrease the transparency from to the outer edge of the area.
[0014]
  That is, the intersection of the virtual camera viewpoint in the virtual three-dimensional space, which is perpendicular to the plane including the region, is set as the center point, and the transparency of the model is lowered radially from the center point. Therefore, polygons close to the virtual camera viewpoint can be drawn with high transparency, and polygons far from the virtual camera viewpoint can be drawn with low transparency, which simulates the Fresnel effect. It can be realized, and a realistic video game can be realized.
[0015]
  furtherThe transparency changing means is the square value of the distance from the center point of the region centered on the point perpendicular to the model from the viewpoint of the virtual camera in the virtual three-dimensional space, and the center point of the region to the inside of the region. Transparency at each vertex is calculated based on the ratio to the square value of the distance to each vertex of a plurality of polygons constituting the model.
[0016]
  In other words, a square value of the distance from the center point to the outer edge of the region centered on a point that is perpendicular to the model from the virtual camera viewpoint in the virtual three-dimensional space, and the model in the region from the center point of the region Since the transparency of each vertex is calculated based on the ratio of the distance to the vertex of each of the polygons, the transparency of the model in the region can be changed according to the distance from the center point of the region. . In addition, the distance from the center point of the area to each vertex of the polygons that make up the model in the area is expressed as a square root by the coordinate value representing the arbitrary vertex, but the square of the distance from the center point of the area to the outer edge The distance from the center point of the region to the outer edge and the center of the region equivalently by calculating the ratio of the value and the square value of the distance from the center point of the region to the vertices of the polygons that make up the model in the region The ratio of the distance from each point to the vertices of a plurality of polygons constituting the model in the region can be obtained, so that it is not necessary to perform the square root calculation process, and the time required for the calculation process can be shortened.
[0017]
  Claim2According to the present invention, the texture pasting means pastes an image obtained by drawing a background model arranged around the model and flipped upside down as a texture to the model located in the region. .
[0018]
  Claim2According to the present invention described in the above, the texture pasting unit is configured to draw a background model arranged around a model made up of a plurality of polygons and to place the model upside down as a texture in the predetermined area. Paste to.
[0019]
  That is, a background model arranged around a model composed of a plurality of polygons is drawn, and an image obtained by vertically flipping the drawn image is pasted to a model located in a predetermined region as a texture. The surrounding background can be reflected in the model provided in the dimensional space. In addition, by making the near view transparent and capturing the background in the distant view, a pseudo Fresnel effect can be realized, and the realism increases.
[0020]
  Claim3According to the present invention, the region includes a transparency changing region that can change the transparency of the model, and an opaque region that can make the model opaque.
  The texture pasting means pastes an image obtained by drawing a background model arranged around the model and flipped upside down as a texture onto the model located in the opaque region.
[0021]
  Claim3In accordance with the present invention, the predetermined area set based on the virtual camera viewpoint in the virtual three-dimensional space includes a transparency changing area that can change the transparency of the model, and an opaque area that can make the model opaque. The texture pasting means pastes an image obtained by drawing a background model arranged around the model and flipped upside down as a texture to the model located in the opaque region.
[0022]
  That is, among the areas including the transparency changing area that can change the transparency of the model and the opaque area that can make the model opaque, the transparency is changed in the transparency changing area, and the transparency is not changed in the opaque area outside the transparency changing area. It is possible to paste an image that is rendered opaque and drawn upside down and turned upside down as a texture. Therefore, it is possible to clearly reflect the surrounding background on the model located away from the viewpoint of the virtual camera, to realize a pseudo Fresnel effect, and to increase the realism.
[0023]
  In the present invention, a model representing a water surface can be used as the model.
[0024]
  According to this configuration, the water surface is represented by a model composed of a plurality of polygons. For example, the water surface is designed so that the model near the virtual camera viewpoint has high transparency and the model far from the virtual camera viewpoint has low transparency. By changing the transparency of the model to be represented, a pseudo Fresnel effect can be realized, and the water surface can be represented realistically.
[0025]
  Claim4The present invention described in 3 is a three-dimensional image processing method for drawing a model composed of a plurality of polygons,
  A transparency changing step in which the video game device changes the transparency of the model in a predetermined area set based on a virtual camera viewpoint in a virtual three-dimensional space;
  A texture pasting step in which the video game device pastes a texture on the model whose transparency has been changed in the transparency changing step;
  A video game device including a drawing step of drawing the model to which a texture is pasted in the texture pasting step;
  The transparency changing step calculates transparency of each vertex of a plurality of polygons constituting the model in the predetermined region,
  The texture pasting step sets the transparency of the texture according to the transparency of each vertex calculated in the transparency changing step, and is set by complementing the transparency of the texture between the vertices.And
The region is centered on the intersection of a perpendicular line from the virtual camera viewpoint to the plane including the region and the plane,
In the transparency changing step, the transparency is lowered from the center point toward the outer edge of the region, and the square value of the distance from the center point to the outer edge of the region and the model in the region from the center point are configured. Based on the ratio to the square value of the distance to each vertex of a plurality of polygons Calculate the transparency of each vertexIt is characterized by that.
[0026]
  Claim4According to the present invention described in the above, a 3D image processing method for drawing a model composed of a plurality of polygons is set based on a virtual camera viewpoint in a virtual 3D space by a video game device in a transparency changing step. The video game device changes the transparency of the model in the predetermined region, and the video game device pastes the texture to the model whose transparency has been changed in the transparency change step in the texture pasting step. The model to which the texture is pasted in the pasting step is drawn.
[0027]
  That is, the transparency of the model in a predetermined region set based on the virtual camera viewpoint in the virtual three-dimensional space is changed, the texture is pasted on the model with the changed transparency, and the model on which the texture is pasted is Drawn.
[0028]
  For example, since the transparency of a model in a predetermined area is changed and rendered, the transparency of the polygon near the virtual camera viewpoint is increased, and the polygon transparency is decreased as the distance from the virtual camera viewpoint is increased. The effect can be realized in a pseudo manner, and a realistic video game can be realized.
[0029]
  Claim5The present invention described in the above is a video game apparatus for drawing a model composed of a plurality of polygons,
  Transparency changing means for changing the transparency of the model in a predetermined area set based on a virtual camera viewpoint in a virtual three-dimensional space;
  Texture pasting means for pasting a texture to the model whose transparency has been changed by the transparency changing means;
  Drawing means for drawing the model with the texture pasted by the texture pasting means;
  Display means for displaying the model drawn by the drawing means,
  The transparency changing means calculates transparency of each vertex of a plurality of polygons constituting the model in the predetermined area;
  The texture pasting means sets the texture transparency according to the transparency of each vertex calculated by the transparency changing means, and complements the texture transparency between the vertices.And
The region is centered on the intersection of a perpendicular line from the virtual camera viewpoint to the plane including the region and the plane,
The transparency changing means lowers the transparency from the center point toward the outer edge of the region, and constitutes the square value of the distance from the center point to the outer edge of the region, and the model in the region from the center point The transparency of each vertex is calculated based on the ratio to the square value of the distance to each vertex of the plurality of polygonsIt is characterized by that.
[0030]
  Claim5According to the present invention described in the above, a video game apparatus that draws a model composed of a plurality of polygons is provided in a predetermined area set based on the virtual camera viewpoint in the virtual three-dimensional space by the transparency changing means. Change the transparency of the model, paste the texture to the model whose transparency has been changed by the transparency changing means by the texture pasting means, draw the model by the texture pasting means by the drawing means, draw the model by the display means, The model drawn by the drawing means is displayed.
[0031]
  That is, the transparency of the model in a predetermined area set based on the virtual camera viewpoint in the virtual three-dimensional space is changed, the texture is pasted on the model whose transparency is changed, and the model on which the texture is pasted is The drawn model is displayed.
[0032]
  For example, since the transparency of the model in a given area is changed and rendered, the transparency of the polygon near the virtual camera viewpoint is increased and the transparency of the polygon is decreased as the distance from the virtual camera viewpoint is increased. The effect can be realized in a pseudo manner, and a realistic video game can be realized.
[0033]
DETAILED DESCRIPTION OF THE INVENTION
  Hereinafter, a video game apparatus according to an embodiment of the present invention will be described with reference to the drawings.
[0034]
  FIG. 1 is a block diagram showing a configuration of a video game apparatus according to an embodiment of the present invention. In the following description, a home video game apparatus configured by connecting a home video game machine to a home television will be described as an example of the video game apparatus, but the present invention is particularly limited to this example. In addition, the present invention can be similarly applied to a professional video game apparatus with an integrated monitor, a personal computer that functions as a video game apparatus by executing a video game program, and the like.
[0035]
  The video game apparatus shown in FIG. 1 includes a home game machine 100 and a home television 200. The home-use game machine 100 is loaded with a computer-readable recording medium 300 on which a video game program and game data are recorded, and the video game program and game data are appropriately read to execute the game.
[0036]
  A consumer game machine 100 includes a CPU (Central Processing Unit) 1, a bus line 2, a graphics data generation processor 3, an interface circuit (I / F) 4, a main memory 5, a ROM (Read Only Memory) 6, and an expansion circuit 7. , Parallel port 8, serial port 9, drawing processor 10, audio processor 11, decoder 12, interface circuit 13, buffers 14 to 16, recording medium drive 17, memory 18, and controller 19. The home television 200 includes a television monitor 21, an amplifier circuit 22 and a speaker 23.
[0037]
  The CPU 1 is connected to the bus line 2 and the graphics data generation processor 3. The bus line 2 includes an address bus, a data bus, a control bus, and the like. The CPU 1, interface circuit 4, main memory 5, ROM 6, decompression circuit 7, parallel port 8, serial port 9, drawing processor 10, audio processor 11, decoder 12 And the interface circuit 13 are connected to each other.
[0038]
  The drawing processor 10 is connected to the buffer 14. The audio processor 11 is connected to the buffer 15 and the amplifier circuit 22. The decoder 12 is connected to the buffer 16 and the recording medium drive 17. The interface circuit 13 is connected to the memory 18 and the controller 19.
[0039]
  The television monitor 21 of the home television 200 is connected to the drawing processor 10. The speaker 23 is connected to the amplifier circuit 22. In the case of an arcade video game apparatus, the television monitor 21, the amplifier circuit 22, and the speaker 23 may be housed in a single casing together with each block constituting the consumer game machine 100.
[0040]
  When the video game apparatus is configured with a personal computer, a workstation, or the like as a core, the television monitor 21 or the like corresponds to a computer display. The decompression circuit 7, the drawing processor 10, the audio processor 11, and the like correspond to a part of program data recorded in the recording medium 300 or hardware on an expansion board mounted in an expansion slot of a computer. The interface circuit 4, the parallel port 8, the serial port 9, and the interface circuit 13 correspond to hardware on an expansion board mounted in an expansion slot of a computer. The buffers 14 to 16 correspond to the storage areas of the main memory 5 or the expansion memory, respectively.
[0041]
  Next, each component shown in FIG. 1 will be described. The graphics data generation processor 3 serves as a coprocessor for the CPU 1. That is, the graphics data generation processor 3 performs coordinate conversion and light source calculation, for example, calculation of a fixed point format matrix or vector by parallel processing.
[0042]
  The main processing performed by the graphics data generation processor 3 is based on the coordinate data, movement amount data, rotation amount data, etc. of each vertex in the two-dimensional or virtual three-dimensional space of the image data supplied from the CPU 1. There are processing for obtaining address data of the processing target image on the display area and returning it to the CPU 1, processing for calculating the luminance of the image according to the distance from the virtually set light source, and the like.
[0043]
  The interface circuit 4 is used for an interface of a peripheral device such as a pointing device such as a mouse or a trackball. The main memory 5 is composed of a RAM (Random Access Memory) or the like. The ROM 6 stores program data serving as an operating system for the video game apparatus. This program corresponds to a BIOS (Basic Input Output System) of a personal computer.
[0044]
  The decompression circuit 7 performs decompression processing on a compressed image compressed by intra coding conforming to the MPEG (Moving Picture Experts Group) standard for moving images and the JPEG (Joint Photographic Experts Group) standard for still images. The decompression processing includes decoding processing (decoding of data encoded by VLC: Variable Length Code), inverse quantization processing, IDCT (Inverse Discrete Cosine Transform) processing, intra image restoration processing, and the like.
[0045]
  The drawing processor 10 performs a drawing process on the buffer 14 based on a drawing command issued by the CPU 1 every predetermined time T (for example, T = 1/60 seconds in one frame).
[0046]
  The buffer 14 is constituted by a RAM, for example, and is divided into a display area (frame buffer) and a non-display area. The display area is composed of a data development area to be displayed on the display surface of the television monitor 21. The non-display area is composed of storage areas such as data for defining a skeleton, model data for defining polygons, animation data for causing the model to move, pattern data indicating the contents of each animation, texture data, and color palette data.
[0047]
  Here, the texture data is two-dimensional image data. The color palette data is data for designating a color such as texture data. The CPU 1 records these data in the non-display area of the buffer 14 in advance from the recording medium 300 at a time or divided into a plurality of times according to the progress of the game.
[0048]
  The drawing command includes a drawing command for drawing a stereoscopic image using a polygon and a drawing command for drawing a normal two-dimensional image. Here, the polygon is a polygonal two-dimensional virtual figure, and for example, a triangle or a quadrangle is used.
[0049]
  A drawing command for drawing a stereoscopic image using polygons is polygon vertex address data indicating the storage position of polygon vertex coordinate data on the display area of the buffer 14, and the storage position of the texture to be pasted on the polygon 14 on the buffer 14. Is performed on each of the color address data indicating the storage position on the buffer 14 and the color data indicating the texture brightness.
[0050]
  Among the above data, the polygon vertex address data on the display area is converted by the graphics data generation processor 3 from the polygon vertex coordinate data in the virtual three-dimensional space from the CPU 1 based on the movement amount data and the rotation amount data. Is replaced with the polygon vertex coordinate data in two dimensions. The luminance data is determined by the graphics data generation processor 3 based on the distance from the position indicated by the polygon vertex coordinate data after the coordinate conversion from the CPU 1 to the light source virtually arranged.
[0051]
  The polygon vertex address data indicates an address on the display area of the buffer 14. The drawing processor 10 performs a process of writing texture data corresponding to the display area range of the buffer 14 indicated by the three polygon vertex address data.
[0052]
  An object such as a character in the game space is composed of a plurality of polygons. The CPU 1 stores the coordinate data of each polygon in the virtual three-dimensional space in the buffer 14 in association with the corresponding skeleton vector data. When the character is moved on the display screen of the television monitor 21 by an operation of the controller 19 to be described later, when the character movement is expressed or the viewpoint position at which the character is viewed is changed, the following Processing is performed.
[0053]
  That is, the CPU 1 obtains the graphics data generation processor 3 from the three-dimensional coordinate data of the vertices of each polygon held in the non-display area of the buffer 14, the skeleton coordinates, and the rotation amount data. Polygon movement amount data and rotation amount data are given.
[0054]
  The graphics data generation processor 3 sequentially obtains the three-dimensional coordinate data after moving and rotating each polygon based on the three-dimensional coordinate data of the vertex of each polygon and the movement amount data and rotation amount data of each polygon.
[0055]
  Of the three-dimensional coordinate data of each polygon thus obtained, the coordinate data in the horizontal and vertical directions are supplied to the drawing processor 10 as address data on the display area of the buffer 14, that is, polygon vertex address data.
[0056]
  The drawing processor 10 writes the texture data indicated by the texture address data assigned in advance on the display area of the buffer 14 indicated by the three polygon vertex address data. As a result, on the display screen of the television monitor 21, an object in which textures are pasted on a large number of polygons is displayed.
[0057]
  A drawing command for drawing a normal two-dimensional image indicates vertex address data, texture address data, color palette address data indicating the storage position on the buffer 14 of color palette data indicating the color of the texture data, and luminance of the texture. This is performed on the luminance data. Among these data, the vertex address data is obtained by the coordinate conversion of the vertex coordinate data on the two-dimensional plane from the CPU 1 by the graphics data generation processor 3 based on the movement amount data and the rotation amount data from the CPU 1.
[0058]
  The audio processor 11 stores ADPCM (Adaptive Differential Pulse Code Modulation) data read from the recording medium 300 in the buffer 15, and the ADPCM data stored in the buffer 15 becomes a sound source.
[0059]
  Also, the audio processor 11 reads ADPCM data from the buffer 15 based on, for example, a clock signal having a frequency of 44.1 kHz. The audio processor 11 performs processing such as pitch conversion, noise addition, envelope setting, level setting, and reverb addition on the read ADPCM data.
[0060]
  When the audio data read from the recording medium 300 is PCM (Pulse Code Modulation) data such as CD-DA (Compact Disk Digital Audio), the audio processor 11 converts the audio data into ADPCM data. Further, the processing for the PCM data by the program is directly performed on the main memory 5. The PCM data processed on the main memory 5 is supplied to the audio processor 11 and converted into ADPCM data. Thereafter, the various processes described above are performed, and sound is output from the speaker 23.
[0061]
  As the recording medium drive 17, for example, a DVD-ROM drive, a CD-ROM drive, a hard disk drive, an optical disk drive, a flexible disk drive, a silicon disk drive, a cassette medium reader, or the like is used. In this case, as the recording medium 300, a DVD-ROM, a CD-ROM, a hard disk, an optical disk, a flexible disk, a semiconductor memory, or the like is used.
[0062]
  The recording medium drive 17 reads image data, audio data, and program data from the recording medium 300 and supplies the read data to the decoder 12. The decoder 12 performs error correction processing by ECC (Error Correction Code) on the reproduced data from the recording medium drive 17 and supplies the data subjected to the error correction processing to the main memory 5 or the audio processor 11.
[0063]
  For example, a card-type memory is used as the memory 18. The card type memory is used for holding various game parameters at the time of interruption, such as holding the state at the time of interruption when the game is interrupted.
[0064]
  The controller 19 is an operation device used by the user to input various operation commands, and sends an operation signal corresponding to the user's operation to the CPU 1. The controller 19 includes a first button 19a, a second button 19b, a third button 19c, a fourth button 19d, an up key 19U, a down key 19D, a left key 19L, a right key 19R, and L1 buttons 19L1, L2. A button 19L2, an R1 button 19R1, an R2 button 19R2, a start button 19e, a select button 19f, a left stick 19SL and a right stick 19SR are provided.
[0065]
  The up direction key 19U, the down direction key 19D, the left direction key 19L, and the right direction key 19R are used, for example, to give the CPU 1 a command for moving a character or cursor up, down, left, or right on the screen of the television monitor 21. .
[0066]
  The start button 19e is used to instruct the CPU 1 to load a game program from the recording medium 300. The select button 19f is used to instruct the CPU 1 to make various selections related to the game program loaded from the recording medium 300 to the main memory 5.
[0067]
  The buttons and keys of the controller 19 except for the left stick 19SL and the right stick 19SR are turned on when pressed from the neutral position by an external pressing force, and return to the neutral position when the pressing force is released. It consists of an on / off switch that turns off.
[0068]
  The left stick 19SL and the right stick 19SR are stick-type controllers having almost the same configuration as a so-called joystick. This stick-type controller has an upright stick, and can be tilted over a 360 ° direction including front, rear, left and right with a predetermined position of the stick as a fulcrum. The left stick 19SL and the right stick 19SR are connected to the CPU 1 via the interface circuit 13 using the values of the x-coordinate in the left-right direction and the y-coordinate in the front-rear direction as the operation signals according to the tilt direction and tilt angle of the stick. To send.
[0069]
  The first button 19a, the second button 19b, the third button 19c, the fourth button 19d, the L1 button 19L1, the L2 button 19L2, the R1 button 19R1, and the R2 button 19R2 correspond to the game program loaded from the recording medium 300. Used for various functions.
[0070]
  Next, the general operation of the video game apparatus will be described. When the recording medium 300 is loaded in the recording medium drive 17, when a power switch (not shown) is turned on and the video game apparatus is turned on, the recording medium is recorded based on the operating system stored in the ROM 6. The CPU 1 instructs the recording medium drive 17 to read the game program from 300. As a result, the recording medium drive 17 reads image data, audio data, and program data from the recording medium 300. The read image data, audio data, and program data are supplied to the decoder 12, and the decoder 12 performs error correction processing on each data.
[0071]
  The image data that has been subjected to error correction processing by the decoder 12 is supplied to the decompression circuit 7 via the bus line 2. The image data that has been subjected to the expansion processing described above by the expansion circuit 7 is supplied to the drawing processor 10, and is written into the non-display area of the buffer 14 by the drawing processor 10. The audio data that has been subjected to the error correction processing by the decoder 12 is written into the buffer 15 via the main memory 5 or the audio processor 11. Program data that has been subjected to error correction processing by the decoder 12 is written into the main memory 5.
[0072]
  Thereafter, the CPU 1 advances the video game based on the game program stored in the main memory 5 and the content that the user instructs using the controller 19. In other words, the CPU 1 appropriately performs control of image processing, control of sound processing, control of internal processing, and the like based on contents that the user instructs using the controller 19.
[0073]
  As image processing control, for example, the calculation of the coordinates of each skeleton or the calculation of the vertex coordinate data of polygons from the pattern data corresponding to the animation instructed to the character, the obtained three-dimensional coordinate data and the graphics data of the viewpoint position data Supply to the generation processor 3, issue of a rendering command including address data and luminance data on the display area of the buffer 14 obtained by the graphics data generation processor 3 are performed.
[0074]
  As control of audio processing, for example, issue of an audio output command to the audio processor 11, specification of level, reverb, etc. are performed. As control of the internal processing, for example, calculation according to the operation of the controller 19 is performed.
[0075]
  Next, a video game executed based on the game program recorded on the recording medium 300 will be described. The video game in the present embodiment is about fishing. A video game progresses when a character imitating a fisherman operated by a user fishes at a fishing spot provided in a virtual three-dimensional space. In a video game about fishing, ponds, lakes, seas, etc. are reproduced. The purpose of the three-dimensional image processing in the present embodiment is to give the user a sense of reality as if he is fishing at an actual fishing spot by realistically reproducing the water surface such as a pond, a lake, and the sea. .
[0076]
  FIG. 2 is a block diagram showing the main functions of the video game apparatus shown in FIG. As shown in FIG. 2, the video game apparatus functionally includes a program execution unit 31, a data storage unit 32, a program storage unit 33, a drawing processing unit 34, a display unit 35, and an operation unit 36.
[0077]
  The data storage unit 32 includes the buffer 14 and the like, and includes a model data storage unit 47. The model data storage unit 47 includes a water surface model storage unit 471 and a background model storage unit 472.
[0078]
  The water surface model storage unit 471 stores each data of the water surface model representing the water surface such as a pond, a lake, and the sea reproduced in the virtual three-dimensional space. The water surface model is composed of a plurality of polygons. Each data of the water surface model stored in the water surface model storage unit 471 includes model data defining polygons constituting the water surface model, animation data for causing the water surface model to move, pattern data indicating the contents of each animation, texture data, and color Stores palette data and the like. Note that the water surface model does not necessarily need to be moved, and animation data or the like is not necessary when the water surface model is not moved.
[0079]
  The background model storage unit 472 stores each data of a background model representing a background arranged around a water surface such as a pond, a lake, and the sea reproduced in a virtual three-dimensional space. The background model is composed of a plurality of polygons. Note that the background model includes a model representing land located around the water surface model, a model representing trees, a model representing bridges, a model representing sky, and the like. Each data of the background model stored in the background model storage unit 472 includes model data defining polygons constituting the background model, animation data for causing the background model to move, pattern data indicating the contents of each animation, texture data, and color Stores palette data and the like. Note that the background model does not necessarily need to be moved, and animation data or the like is not necessary when the background model is not moved. The background model storage unit 472 stores a water bottom model that is arranged below the water surface model in the virtual three-dimensional space and represents the topography of the water bottom.
[0080]
  The program execution unit 31 includes a CPU 1 and the like, and the CPU 1 and the like execute a three-dimensional image processing program stored in the main memory 5, whereby a game progress processing unit 41, a reverse image creation unit 42, a transparency changing unit 43, It functions as the texture pasting unit 44, the drawing instruction unit 45, and the display control unit 46.
[0081]
  The game progress processing unit 41 receives the operation of the controller 19 by the user and performs a normal fishing game progress process based on an operation signal output from the operation unit 36. That is, the user moves the character or performs a predetermined fishing operation by operating the controller 19.
[0082]
  The inverted image creation unit 42 creates an image obtained by drawing the background model stored in the background model storage unit 472 and vertically inverted as an inverted image, and temporarily stores it in the data storage unit 32.
[0083]
  The transparency changing unit 43 changes the transparency of the water surface model in a predetermined transparency changing region set based on the virtual camera viewpoint in the virtual three-dimensional space. The transparency changing area will be described later with reference to FIG. Moreover, transparency here represents the ratio which light permeate | transmits a substance, and a substance may be any of gas, a liquid, and solid. When the transparency is high, light is transmitted, and when the transparency is low, the light is reflected.
[0084]
  The texture pasting unit 44 pastes the texture on the water surface model whose transparency has been changed by the transparency changing unit 43. Here, the texture pasted on the water surface model is the reverse image created by the reverse image creation unit 42, and the texture pasting unit 44 reads the reverse image temporarily stored in the data storage unit 32 and reads the texture. As a paste on the water surface model.
[0085]
  The drawing instruction unit 45 issues a drawing command for drawing the water surface model with the texture attached by the texture attaching unit 44 on the background image to the drawing processing unit 34.
[0086]
  The display control unit 46 displays the water surface model drawn by the drawing processing unit 34 on the display unit 34.
[0087]
  The program storage unit 33 includes the recording medium drive 17 and the like, and includes a computer-readable recording medium 48. The recording medium 48 includes a recording medium 300 and stores an image display program as a video game program. The video game program also includes a control program for controlling the movement of the character and display data relating to the displayed character and object. When the image display program is read from the recording medium 48 and the program is recorded in the main memory 5, the main memory 5 functions as the program storage unit 33.
[0088]
  The drawing processing unit 34 includes the drawing processor 10 and the like, and draws a predetermined image based on a drawing command issued from the drawing instruction unit 45. The display unit 35 includes the television monitor 21 and the like. The operation unit 36 includes the controller 19 and the like.
[0089]
  In the present embodiment, the transparency changing unit 43 corresponds to a transparency changing unit, the inverted image creation unit 42 and the texture applying unit 44 correspond to a texture applying unit, and the drawing instruction unit 45 and the drawing processing unit 34 are drawing units. It corresponds to.
[0090]
  FIG. 3 is a schematic diagram for explaining the transparency changing region. The virtual three-dimensional space in the present embodiment includes a transparency changing region TR, an opaque region FR, and a background region HR. The transparency changing region TR that can change the transparency of the water surface model is perpendicular to a plane including an arbitrary vertex W (Wx, Wy, Wz) of the polygon constituting the water surface model from the virtual camera viewpoint C (Cx, Cy, Cz). It is a circular shape with the lowered point as the center point O (Cx, Wy, Cz). The radius a which is the distance from the center point O to the outer edge L of the transparency changing region TR can be obtained by the following equation (1).
  a = (Cy−Wy) / tan θ (1)
  Here, a represents the radius of the transparency changing region TR, Cy represents the y coordinate of the virtual camera viewpoint C, and Wy represents the y coordinate of the center point O of the transparency changing region TR (an arbitrary vertex W of the polygon constituting the water surface model). Y represents the angle formed by the virtual camera viewpoint C, the point P on the x-axis of the outer edge L of the transparency changing region TR, and the center point O of the transparency changing region TR. The angle θ is the angle of the line of sight that totally reflects.
[0091]
  Further, the distance b from the center point O of the transparency changing region TR to the arbitrary vertex W of the polygon constituting the water surface model can be obtained by the following equation (2).
  b = {(Cx−Wx)2+ (Cz-Wz)2}1/2(2)
  Here, b represents the distance from the center point O of the transparency changing region TR to an arbitrary vertex W of the polygon constituting the water surface model, Cx represents the x coordinate of the virtual camera viewpoint C, and Wx represents the polygon constituting the water surface model. Represents the x coordinate of the arbitrary vertex W of C, Cz represents the z coordinate of the virtual camera viewpoint C, and Wz represents the z coordinate of the arbitrary vertex W of the polygon constituting the water surface model.
[0092]
  A ratio b / a between the radius a of the transparency changing region TR and the distance b from the center point O of the transparency changing region TR to an arbitrary vertex W of the polygon constituting the water surface model is set as the transparency coefficient α ′. The transparency coefficient α ′ is set to 0.0 ≦ α ′ ≦ 1.0, and becomes transparent when α ′ = 0.0, and becomes opaque when α ′ = 1.0. The transparency coefficient α ′ in the present embodiment is a value that represents the transparency of a substance such as water. The polygon model is transparent when the transparency coefficient α ′ is small, and the polygon model is opaque when the value is large. Become. Accordingly, the transparency coefficient α ′ decreases as the transparency increases, and the transparency coefficient α ′ increases as the transparency decreases. Further, it may be opaque when the transparent coefficient α ′ = 0.0, and transparent when the transparent coefficient α ′ = 1.0.
[0093]
  The opaque region FR that can make the water surface model opaque is lowered vertically from the virtual camera viewpoint C (Cx, Cy, Cz) to a plane including an arbitrary vertex W (Wx, Wy, Wz) of the polygon constituting the water surface model. It is a donut shape obtained by removing the transparency changing region TR from a circular shape having a point as the center point O (Cx, Wy, Cz), and the transparency is opaque and is set to reflect (that is, α ′ = 1.0). Is done.
[0094]
  The background region HR is a center point O (Cx) that is a point that drops vertically from a virtual camera viewpoint C (Cx, Cy, Cz) to a plane that includes an arbitrary vertex W (Wx, Wy, Wz) of the polygon that forms the water surface model. , Wy, Cz) is a donut shape obtained by removing the transparency changing region TR and the opaque region FR from the circular shape, and is a region including a background model. Texture is pasted on the polygons constituting the water surface model in the transparency changing region TR and the opaque region FR.
[0095]
  Note that the opaque region FR and the background region HR do not have to be circular as shown in FIG. 3, but may have a shape corresponding to the polygons forming the background model and the polygons forming the water surface model.
[0096]
  In the present embodiment, the water surface model includes the transparency changing region TR and the opaque region FR. However, the present invention is not particularly limited to this, and the water surface model does not include the opaque region FR and includes only the transparency changing region TR. The aspect containing may be sufficient. In this case, the shape of the water surface model and the shape of the transparency changing region TR are made the same.
[0097]
  Here, the distance b includes the square root as shown in the above equation (2). Since operations including the square root take time to process, it may be difficult to generate an image in real time. For this reason, in the present embodiment, the square value of the distance b is set as B as shown in the following equation (3), and the square value A of the radius a of the transparency changing region TR as shown in the following equation (4). And the ratio B / A between the square point B of the distance b from the center point O of the transparency changing region TR to the arbitrary vertex W of the polygon constituting the water surface model as the transparency coefficient α, the above (2) The calculation is performed without using the square root calculation shown in the equation.
[0098]
  B = b2= (Cx-Wx)2+ (Cz-Wz)2.... (3)
  Where B represents the square value of the distance b from the center point O of the transparency changing region TR to an arbitrary vertex W of the polygon constituting the water surface model, Cx represents the x coordinate of the virtual camera viewpoint C, and Wx represents the water surface model. Represents the x coordinate of the arbitrary vertex W of the polygon that constitutes, Cz represents the z coordinate of the virtual camera viewpoint C, and Wz represents the z coordinate of the arbitrary vertex W of the polygon that constitutes the water surface model.
[0099]
  α = B / A = {(Cx−Wx)2+ (Cz-Wz)2} / {(Cy-Wy) / tan θ}2.... (4)
  Where α is a value representing the transparency of the vertex of the polygon model constituting the water surface model, and B is a square value of the distance b from the center point O of the transparency changing region TR to an arbitrary vertex W of the polygon constituting the water surface model. A represents the square value of the radius a of the transparency changing region TR. Further, the transparency coefficient α is set to 0.0 ≦ α ≦ 1.0, and is transparent when α = 0.0, and opaque when α = 1.0.
[0100]
  The transparency coefficient α in the present embodiment is a value representing the transparency of a substance such as water, and the polygon model is transparent when the transparency coefficient α is small, and the polygon model is opaque when the value is large. Therefore, the transparency coefficient α decreases as the transparency increases, and the transparency coefficient α increases as the transparency decreases. Further, it may be opaque when the transparency coefficient α = 0.0 and transparent when the transparency coefficient α = 1.0.
[0101]
  A circular transparency changing region TR having a center point O as a point descending from a virtual camera viewpoint C in the virtual three-dimensional space perpendicularly to a plane including an arbitrary vertex W of the polygon constituting the water surface model is set. Then, the transparency of the vertexes of the polygons constituting the water surface model is lowered from the center point O toward the outer edge of the transparency changing region TR. In this way, the transparency coefficient α of the vertices of the polygons constituting the water surface model radially from the center point O toward the outer edge of the transparency changing region TR increases, so that the vertices of the polygons near the virtual camera viewpoint C are The transparency coefficient α becomes smaller and can be drawn through the water surface model, and the vertex of the polygon far from the virtual camera viewpoint C has a larger transparency coefficient α and is reflected and drawn without passing through the water surface model. can do.
[0102]
  In addition, the Fresnel effect can be realized by the Fresnel formula. However, when the calculation is performed using the Fresnel formula, the formula is complex, so the computation processing takes time and the load on the arithmetic processing unit is large. turn into. Therefore, the water surface model is configured with the square value A of the distance a to the outer edge of the transparency changing region TR having the center point O as the point lowered from the virtual camera viewpoint in the virtual three-dimensional space to the plane including the water surface model. Transparency is calculated based on the ratio B / A of the square value B of the distance b between an arbitrary vertex of the polygon and the center point O of the transparency changing region TR. In this way, by changing the transparency of the water surface model in the transparency changing region TR in accordance with the distance from the center point O of the transparency changing region TR, a pseudo Fresnel effect can be realized.
[0103]
  Further, the distance b between the arbitrary point W in the transparency changing region TR and the center point O of the transparency changing region TR is expressed by the square root by the coordinate value representing the arbitrary point W, but the square value B of the distance b and the distance By calculating a ratio B / A of a to the square value A, b / a (b includes a square root) can be obtained equivalently, and it is not necessary to perform square root calculation processing, and time required for calculation processing Can be shortened, and the load on the arithmetic processing unit can be reduced.
[0104]
  FIG. 4 is a flowchart showing an example of three-dimensional image processing by the video game apparatus shown in FIG. Note that the 3D image processing shown in FIG. 4 is processing performed by the CPU 1 or the like executing a 3D image processing program or the like stored in the recording medium 300.
[0105]
  In step S1, the CPU 1 issues a drawing command for drawing the background model arranged around the water surface model upside down to the drawing processor 10, and the drawing processor 10 inverts the background model upside down. Draw.
[0106]
  In step S <b> 2, the CPU 1 temporarily stores the drawn reverse image as texture data in the non-display area of the buffer 14.
[0107]
  In step S <b> 3, the CPU 1 issues a drawing command for drawing the background model to the drawing processor 10, and the drawing processor 10 draws the background model and develops it in the display area of the buffer 14.
[0108]
  In step S4, the CPU 1 issues a drawing command for drawing a bottom model placed below the water surface model in the virtual three-dimensional space to the drawing processor 10, and the drawing processor 10 draws the bottom model, and the buffer 14 Expands to the display area.
[0109]
  In step S5, the CPU 1 calculates the transparency coefficient α of the vertices of each polygon according to the drawing order of the polygons constituting the water surface model. The transparency coefficient α is a ratio B between the square value A of the radius a of the transparency changing region TR and the square value B of the distance b from the center point O of the transparency changing region TR to an arbitrary vertex W of the polygon constituting the water surface model. It is calculated by obtaining / A.
[0110]
  In step S <b> 6, the CPU 1 determines whether or not the transparency coefficient α has been set for all the vertices of the polygon constituting the water surface model. If it is determined that the transparency coefficient α has been set for all vertices (YES in step S6), the process proceeds to step S7. If it is determined that the transparency coefficient α is not set for all the vertices (NO in step S6), the process returns to step S5.
[0111]
  In step S <b> 7, the CPU 1 reads the texture data (upside down image of the background model) stored in the buffer 14 and pastes it as the texture of the water surface model. At this time, the transparency of the texture is set according to the transparency coefficient α of each vertex of the polygon constituting the water surface model calculated in step S5, and the transparency between each vertex is set by interpolation.
[0112]
  In step S8, the CPU 1 issues a drawing instruction to the drawing processor 10 to synthesize and draw the water surface model to which the upside-down inverted image of the background model is pasted on the background image. An image obtained by synthesizing the background model and the water bottom model is drawn and developed in the display area of the buffer 14.
[0113]
  In step S <b> 9, the CPU 1 controls the television monitor 21 to display an image obtained by combining the water surface model, the background model, and the water bottom model developed in the display area of the buffer 14. An image synthesized with the background image is displayed.
[0114]
  In this way, the pasted texture is displayed transparently when the water surface model has a high degree of transparency (where the transparency coefficient α is small), and the pasted texture when the part where the transparency is low (the part where the transparency coefficient α is large). Is reflected and displayed. That is, the transparency of the polygon constituting the water surface model changes according to the distance from the virtual camera viewpoint, and the polygon of the water surface model near the virtual camera viewpoint has a transparency coefficient α (= B / A) close to 0.0, The bottom of the water is displayed through the water surface. On the other hand, as the distance from the virtual camera viewpoint is increased, the polygon of the water surface model has a transparency coefficient α close to 1.0, and the vertically inverted background is gradually reflected and displayed, and the water bottom is not displayed. Therefore, by increasing the transparency of polygons close to the virtual camera viewpoint and decreasing the transparency as it moves away from the virtual camera viewpoint, the Fresnel effect can be realized in a pseudo manner, creating a realistic video game. Can be realized.
[0115]
  In addition, a background model placed around a water surface model composed of a plurality of polygons is drawn, and an image obtained by inverting the drawn image upside down is pasted to the water surface model as a texture. It is possible to reflect the surrounding background in the water surface model.
[0116]
  Furthermore, since the vertically inverted image is used as the texture of the water surface model, the fluctuation of the water surface can be easily expressed by moving the polygons constituting the water surface model based on the animation data.
[0117]
  FIG. 5 is a screen diagram illustrating an example of a game screen in which a water surface model is drawn by the three-dimensional image processing in the present embodiment. On the game screen 400 shown in FIG. 5, a land 402 as a background is displayed above, a water surface 401 of a lake is displayed below the land 402, and displayed as if a character 403 is standing on the water 401 for convenience. Has been. On the water surface 401, aquatic plants 406 and rocks 407, which are part of the topography constituting the water bottom model, are transmitted and displayed. A virtual camera viewpoint C provided at an arbitrary position in the virtual three-dimensional space is provided at a position overlooking the water surface 401. As shown in FIG. 5, in the region 404 on the near side of the screen of the water surface 401, the transparency of the polygons forming the water surface model is high (transparency coefficient α is small). Is displayed. The transparency of the polygons that make up the water surface model gradually decreases from the region 404 near the screen of the water surface 401 to the region 405 at the back of the screen, and the water surface model of the region 405 at the back of the screen of the water surface 401 is formed. Since the transparency of the polygon to be displayed is low (transparency coefficient α is large), the land 402 and the sky (not shown) as the background are reflected and displayed. The transparency in the region 404 on the back side of the screen 401 from the front surface of the water surface 401 shifts in the order of transparent, translucent, and opaque.
[0118]
  In this way, the near-view polygons are displayed transparently from the viewpoint of the virtual camera, and the distant view polygons are displayed with the background reflected, so that the Fresnel effect can be realized in a pseudo manner, and the user has a realistic feeling. You will be able to play video games.
[0119]
  In the present embodiment, the inverted image obtained by inverting the background model upside down is pasted as a texture on the transparency change region TR and the opaque region FR of the water surface model. However, the present invention is not particularly limited to this, and the transparency change Different textures may be attached to the region TR and the opaque region FR, respectively. A predetermined texture may be attached to the transparency changing region TR, and an inverted image obtained by inverting the background model upside down may be attached to the opaque region FR as a texture. In this case, the predetermined texture is an image representing water such as light blue.
[0120]
  Further, in the present embodiment, the transparency changing region TR has been described as a circular shape, but the present invention is not particularly limited thereto, and may be any shape such as an elliptical shape, a polygonal shape such as a rectangular shape, for example. . When the transparency changing region TR is elliptical, the transparency coefficient α is calculated using the radius in the longitudinal direction of the ellipse as the distance a from the center point to the outer edge. When the transparency changing region TR is polygonal, the transparency coefficient α is calculated with the distance from the center point to the longest vertex as the distance a from the center point to the outer edge.
[0121]
  In this embodiment, a model composed of a plurality of polygons has been described as a water surface model representing a water surface. However, the present invention is not particularly limited to this, and represents a transparent substance that causes transmission and reflection simultaneously. As long as it is a model, for example, a model representing glass or a model representing gemstones may be used. That is, the polygon constituting the model is a polygon used for expressing a transparent material in the virtual world in the virtual three-dimensional space.
[0122]
  In the present embodiment, the transparency changing unit 43 changes the transparency according to the distance from the center point of the transparency changing region TR. However, the present invention is not particularly limited to this, and the transparency coefficient α is a predetermined value. The transparency may be changed when the value becomes. For example, all vertices W at which the transparency coefficient α is less than 0.5 (0.0 ≦ α <0.5) are set to α = 0.0, and the transparency coefficient α is a value greater than 0.5 (0 .5 ≦ α ≦ 1.0), the degree of transparency is changed. In this case, since the bottom of the water is displayed in a wider range through the water surface in the near view, the user can know the state of the bottom of the water, which is suitable for a video game on fishing.
[0123]
  In the present embodiment, the video game has been described as a fishing game. However, the present invention is not particularly limited to this, and other sports games, action games, simulation games, shooting games, role playing games, and fighting games. It can also be applied to other video games.
[0124]
【The invention's effect】
  According to the first aspect of the present invention, since the transparency of the model in the predetermined area is changed and rendered, the transparency of the polygon located at a position close to the virtual camera viewpoint is increased and the model is separated from the virtual camera viewpoint. Therefore, by reducing the transparency, the Fresnel effect can be realized in a pseudo manner, and a realistic video game can be realized.
[0125]
  AlsoThe center point is the intersection point that is perpendicular to the plane including the region from the virtual camera viewpoint in the virtual three-dimensional space, and the transparency of the model is reduced radially from the center point. Therefore, polygons close to the virtual camera viewpoint can be drawn with high transparency, and polygons far from the virtual camera viewpoint can be drawn with low transparency, which simulates the Fresnel effect. It can be realized, and a realistic video game can be realized.
[0126]
  further, The square value of the distance from the center point to the outer edge of the region centered on the point perpendicular to the model from the virtual camera viewpoint in the virtual three-dimensional space, and a plurality of the models in the region from the center point of the region Since the transparency of each vertex is calculated based on the ratio to the square value of the distance to each vertex of the polygon, the transparency of the model in the region can be changed according to the distance from the center point of the region. In addition, the distance from the center point of the area to the vertices of the polygons that make up the model in the area is expressed as a square root by the coordinate value representing an arbitrary point, but the square of the distance from the center point of the area to the outer edge The distance from the center point of the region to the outer edge and the center of the region equivalently by calculating the ratio of the value and the square value of the distance from the center point of the region to the vertices of the polygons that make up the model in the region The ratio of the distance from each point to the vertices of a plurality of polygons constituting the model in the region can be obtained, so that it is not necessary to perform the square root calculation process, and the time required for the calculation process can be shortened.
[0127]
  Claim2According to the present invention, a background model arranged around a model composed of a plurality of polygons is drawn, and an image obtained by inverting the drawn image upside down is a model positioned in a predetermined region as a texture. Since it is pasted, the surrounding background can be reflected in the model provided in the virtual three-dimensional space. In addition, by making the near view transparent and capturing the background in the distant view, a pseudo Fresnel effect can be realized, and the realism increases.
[0128]
  Claim3According to the present invention described in the above, among the regions including the transparency changing region that can change the transparency of the model and the opaque region that can make the model opaque, the transparency is changed in the transparency changing region, and the opaqueness outside the transparency changing region. In the area, it is possible to paste an image obtained by rendering the background model upside down by making it opaque without changing the transparency, as a texture. Therefore, it is possible to clearly reflect the surrounding background on the model located away from the viewpoint of the virtual camera, to realize a pseudo Fresnel effect, and to increase the realism.
[0129]
  Claim4According to the present invention described in the above, since the transparency of the model in the predetermined area is changed and rendered, the transparency of the polygon located near the virtual camera viewpoint is increased, and the transparency is increased as the distance from the virtual camera viewpoint is increased. By lowering it, the Fresnel effect can be realized in a pseudo manner, and a realistic video game can be realized.
[0130]
  Claim5According to the present invention described in the above, since the transparency of the model in the predetermined area is changed and rendered, the transparency of the polygon located near the virtual camera viewpoint is increased, and the transparency is increased as the distance from the virtual camera viewpoint is increased. By lowering it, the Fresnel effect can be realized in a pseudo manner, and a realistic video game can be realized.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of a video game apparatus according to an embodiment of the present invention.
FIG. 2 is a block diagram showing main functions of the video game apparatus shown in FIG.
FIG. 3 is a schematic diagram for explaining a transparency changing region.
4 is a flowchart showing an example of three-dimensional image processing by the video game apparatus shown in FIG.
FIG. 5 is a screen diagram showing an example of a game screen in which a water surface model is drawn by three-dimensional image processing in the present embodiment.
FIG. 6 is a screen diagram showing an example of a game screen in which a water surface model is drawn by a conventional method that places importance on transparency.
FIG. 7 is a screen diagram showing an example of a game screen in which a water surface model is drawn by a conventional method that places importance on reflectivity.
[Explanation of symbols]
  1 CPU
  2 Bus lines
  3 Graphics data generation processor
  4,13 Interface circuit
  5 Main memory
  6 ROM
  7 Stretching circuit
  8 Parallel port
  9 Serial port
  10 Drawing processor
  11 Speech processor
  12 Decoder
  14, 15, 16 buffers
  17 Recording media driver
  18 memory
  19 Controller
  21 Television monitor
  31 Program execution part
  32 Data storage unit
  33 Program storage
  34 Drawing processor
  35 Display section
  36 Operation unit
  41 Game progress processing part
  42 Reverse image creation section
  43 Transparency change part
  44 Texture pasting part
  45 Drawing instruction part
  46 Display controller
  47 Model data storage
  48 Recording media
  471 Water surface model storage unit
  472 Background Model Storage Unit

Claims (5)

複数のポリゴンで構成されるモデルを描画するための3次元画像処理プログラムであって、
仮想3次元空間内における仮想カメラ視点に基づいて設定される所定の領域内の前記モデルの透明度を変化させる透明度変化手段と、
前記透明度変化手段によって透明度が変化された前記モデルにテクスチャを貼り付けるテクスチャ貼付手段と、
前記テクスチャ貼付手段によってテクスチャが貼り付けられた前記モデルを描画する描画手段としてビデオゲーム装置を機能させ、
前記透明度変化手段は、前記所定の領域内の前記モデルを構成する複数のポリゴンの各頂点の透明度を算出し、
前記テクスチャ貼付手段は、前記透明度変化手段によって算出された各頂点の透明度に応じてテクスチャの透明度を設定し、各頂点間のテクスチャの透明度を補完して設定し、
前記領域は、前記仮想カメラ視点から前記領域を含む平面への垂線と当該平面との交点を中心点とし、
前記透明度変化手段は、前記中心点から前記領域の外縁に向かって透明度を低くし、前記中心点から前記領域の外縁までの距離の二乗値と、前記中心点から前記領域内の前記モデルを構成する複数のポリゴンの各頂点までの距離の二乗値との比率に基づいて前記各頂点の透明度を算出することを特徴とする3次元画像処理プログラム。
A three-dimensional image processing program for drawing a model composed of a plurality of polygons,
Transparency changing means for changing the transparency of the model in a predetermined area set based on a virtual camera viewpoint in a virtual three-dimensional space;
Texture pasting means for pasting a texture to the model whose transparency has been changed by the transparency changing means;
A video game device is caused to function as a drawing unit that draws the model with the texture pasted by the texture pasting unit,
The transparency changing means calculates transparency of each vertex of a plurality of polygons constituting the model in the predetermined area;
The texture pasting means sets the transparency of the texture according to the transparency of each vertex calculated by the transparency changing means, and complements and sets the transparency of the texture between the vertices ,
The region is centered on the intersection of a perpendicular line from the virtual camera viewpoint to the plane including the region and the plane,
The transparency changing means lowers the transparency from the center point toward the outer edge of the region, and constitutes the square value of the distance from the center point to the outer edge of the region, and the model in the region from the center point A three-dimensional image processing program that calculates the transparency of each vertex based on a ratio to the square value of the distance to each vertex of a plurality of polygons .
前記テクスチャ貼付手段は、前記モデルの周囲に配置された背景モデルを描画させて上下反転させた画像をテクスチャとして前記領域に位置する前記モデルに貼り付けることを特徴とする請求項記載の3次元画像処理プログラム。2. The three-dimensional image according to claim 1 , wherein the texture pasting unit pastes an image obtained by drawing a background model arranged around the model and upside down as a texture to the model located in the region. Image processing program. 前記領域は、前記モデルの透明度を変化させ得る透明度変化領域と、前記モデルを不透明にさせ得る不透明領域とを含み、
前記テクスチャ貼付手段は、前記モデルの周囲に配置された背景モデルを描画させて上下反転させた画像をテクスチャとして前記不透明領域に位置する前記モデルに貼り付けることを特徴とする請求項1記載の3次元画像処理プログラム。
The region includes a transparency changing region that can change the transparency of the model, and an opaque region that can make the model opaque,
3. The texture pasting unit pastes an image obtained by drawing a background model arranged around the model and flipped upside down as a texture onto the model located in the opaque region. Dimensional image processing program.
複数のポリゴンで構成されるモデルを描画する3次元画像処理方法であって、
ビデオゲーム装置が、仮想3次元空間内における仮想カメラ視点に基づいて設定される所定の領域内の前記モデルの透明度を変化させる透明度変化ステップと、
ビデオゲーム装置が、前記透明度変化ステップにおいて透明度が変化された前記モデルにテクスチャを貼り付けるテクスチャ貼付ステップと、
ビデオゲーム装置が、前記テクスチャ貼付ステップにおいてテクスチャが貼り付けられた前記モデルを描画する描画ステップとを含み、
前記透明度変化ステップは、前記所定の領域内の前記モデルを構成する複数のポリゴンの各頂点の透明度を算出し、
前記テクスチャ貼付ステップは、前記透明度変化ステップにおいて算出された各頂点の透明度に応じてテクスチャの透明度を設定し、各頂点間のテクスチャの透明度を補完して設定し、
前記領域は、前記仮想カメラ視点から前記領域を含む平面への垂線と当該平面との交点を中心点とし、
前記透明度変化ステップは、前記中心点から前記領域の外縁に向かって透明度を低くし、前記中心点から前記領域の外縁までの距離の二乗値と、前記中心点から前記領域内の前記モデルを構成する複数のポリゴンの各頂点までの距離の二乗値との比率に基づいて前記各頂点の透明度を算出することを特徴とする3次元画像処理方法。
A three-dimensional image processing method for drawing a model composed of a plurality of polygons,
A transparency changing step in which the video game device changes the transparency of the model in a predetermined area set based on a virtual camera viewpoint in a virtual three-dimensional space;
A texture pasting step in which the video game device pastes a texture on the model whose transparency has been changed in the transparency changing step;
A video game device including a drawing step of drawing the model to which a texture is pasted in the texture pasting step;
The transparency changing step calculates transparency of each vertex of a plurality of polygons constituting the model in the predetermined region,
The texture pasting step sets the transparency of the texture according to the transparency of each vertex calculated in the transparency changing step, sets the transparency of the texture between the vertices ,
The region is centered on the intersection of a perpendicular line from the virtual camera viewpoint to the plane including the region and the plane,
In the transparency changing step, the transparency is lowered from the center point toward the outer edge of the region, and the square value of the distance from the center point to the outer edge of the region and the model in the region from the center point are configured. A method of processing a three-dimensional image, comprising: calculating transparency of each vertex based on a ratio to a square value of a distance to each vertex of a plurality of polygons .
複数のポリゴンで構成されるモデルを描画するビデオゲーム装置であって、
仮想3次元空間内における仮想カメラ視点に基づいて設定される所定の領域内の前記モデルの透明度を変化させる透明度変化手段と、
前記透明度変化手段によって透明度が変化された前記モデルにテクスチャを貼り付けるテクスチャ貼付手段と、
前記テクスチャ貼付手段によってテクスチャが貼り付けられた前記モデルを描画する描画手段と、
前記描画手段によって描画された前記モデルを表示する表示手段とを備え、
前記透明度変化手段は、前記所定の領域内の前記モデルを構成する複数のポリゴンの各頂点の透明度を算出し、
前記テクスチャ貼付手段は、前記透明度変化手段によって算出された各頂点の透明度に応じてテクスチャの透明度を設定し、各頂点間のテクスチャの透明度を補完して設定し、
前記領域は、前記仮想カメラ視点から前記領域を含む平面への垂線と当該平面との交点を中心点とし、
前記透明度変化手段は、前記中心点から前記領域の外縁に向かって透明度を低くし、前記中心点から前記領域の外縁までの距離の二乗値と、前記中心点から前記領域内の前記モデルを構成する複数のポリゴンの各頂点までの距離の二乗値との比率に基づいて前記各頂点の透明度を算出することを特徴とするビデオゲーム装置。
A video game device for drawing a model composed of a plurality of polygons,
Transparency changing means for changing the transparency of the model in a predetermined area set based on a virtual camera viewpoint in a virtual three-dimensional space;
Texture pasting means for pasting a texture to the model whose transparency has been changed by the transparency changing means;
Drawing means for drawing the model with the texture pasted by the texture pasting means;
Display means for displaying the model drawn by the drawing means,
The transparency changing means calculates transparency of each vertex of a plurality of polygons constituting the model in the predetermined area;
The texture pasting means sets the transparency of the texture according to the transparency of each vertex calculated by the transparency changing means, and complements and sets the transparency of the texture between the vertices ,
The region is centered on the intersection of a perpendicular line from the virtual camera viewpoint to the plane including the region and the plane,
The transparency changing means lowers the transparency from the center point toward the outer edge of the region, and constitutes the square value of the distance from the center point to the outer edge of the region, and the model in the region from the center point A transparency of each vertex is calculated based on a ratio with a square value of a distance to each vertex of a plurality of polygons .
JP2002192476A 2002-07-01 2002-07-01 3D image processing program, 3D image processing method, and video game apparatus Expired - Fee Related JP3737784B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002192476A JP3737784B2 (en) 2002-07-01 2002-07-01 3D image processing program, 3D image processing method, and video game apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002192476A JP3737784B2 (en) 2002-07-01 2002-07-01 3D image processing program, 3D image processing method, and video game apparatus

Publications (2)

Publication Number Publication Date
JP2004038398A JP2004038398A (en) 2004-02-05
JP3737784B2 true JP3737784B2 (en) 2006-01-25

Family

ID=31701739

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002192476A Expired - Fee Related JP3737784B2 (en) 2002-07-01 2002-07-01 3D image processing program, 3D image processing method, and video game apparatus

Country Status (1)

Country Link
JP (1) JP3737784B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100355272C (en) * 2005-06-24 2007-12-12 清华大学 Synthesis method of virtual viewpoint in interactive multi-viewpoint video system
EP1990714B1 (en) 2006-02-28 2010-04-07 Fujitsu Limited Processing device by predicting branch from compressed address information
JP5166371B2 (en) 2008-10-31 2013-03-21 株式会社ソニー・コンピュータエンタテインメント Terminal device, image display method, and program
US20110102449A1 (en) * 2009-11-02 2011-05-05 Konami Digital Entertainment Co., Ltd. Image Display Device, Image Display Method and Computer-Readable Information Recording Medium
JP5090544B2 (en) * 2011-02-25 2012-12-05 任天堂株式会社 GAME DEVICE AND GAME PROGRAM
CN105761295B (en) * 2016-02-25 2019-03-15 中国科学院计算技术研究所 A kind of the water surface method for reconstructing and system of data-driven

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3720890B2 (en) * 1995-12-12 2005-11-30 株式会社ルネサステクノロジ Image generation device
JP3380674B2 (en) * 1996-04-10 2003-02-24 株式会社セガ Image display method and apparatus
JPH1071272A (en) * 1996-06-27 1998-03-17 Konami Co Ltd Game apparatus, display device used therefor and readable medium of computer
JP3372832B2 (en) * 1997-07-25 2003-02-04 コナミ株式会社 GAME DEVICE, GAME IMAGE PROCESSING METHOD, AND COMPUTER-READABLE RECORDING MEDIUM CONTAINING GAME IMAGE PROCESSING PROGRAM
JP3772939B2 (en) * 1998-01-15 2006-05-10 株式会社セガ Play equipment
JP4303395B2 (en) * 2000-04-07 2009-07-29 株式会社バンダイナムコゲームス GAME DEVICE AND INFORMATION STORAGE MEDIUM
JP4577968B2 (en) * 2000-09-20 2010-11-10 株式会社バンダイナムコゲームス GAME SYSTEM AND INFORMATION STORAGE MEDIUM
JP4610748B2 (en) * 2001-01-16 2011-01-12 株式会社バンダイナムコゲームス Image generation system, program, and information storage medium

Also Published As

Publication number Publication date
JP2004038398A (en) 2004-02-05

Similar Documents

Publication Publication Date Title
JP3577016B2 (en) 3D image processing program, 3D image processing method, and video game apparatus
US6317130B1 (en) Apparatus and method for generating skeleton-based dynamic picture images as well as medium storing therein program for generation of such picture images
WO2000025269A1 (en) Recording medium, image processing device, and image processing method
JP2006068138A (en) Game apparatus and image processing program
JP3625172B2 (en) Image creating apparatus, image creating method, computer-readable recording medium on which image creating program is recorded, and video game apparatus
US7075533B2 (en) System for and method of implementing refraction mapping
JP3686920B2 (en) 3D image processing program, 3D image processing method, and video game apparatus
KR100543153B1 (en) Three-dimensional image processing program, three-dimensional image processing apparatus, three-dimensional image processing method, and video game device
JP3737784B2 (en) 3D image processing program, 3D image processing method, and video game apparatus
JP2007141082A (en) Program, texture data structure, information storage medium, and image generation system
JP3597792B2 (en) 3D image processing method, apparatus, 3D image processing program, and video game apparatus
JP4229319B2 (en) Image generation system, program, and information storage medium
JP3564440B2 (en) Moving image generation program, moving image generation method and apparatus
JP4245356B2 (en) GAME SYSTEM AND INFORMATION STORAGE MEDIUM
JP2003288609A (en) Program, device, and method of 3-dimensional image processing and device for video game
JP3617960B2 (en) Three-dimensional game image processing program, three-dimensional game image processing method, and video game apparatus
JP3629453B2 (en) Game progress control program, game progress control method, and video game apparatus
JP4450535B2 (en) Image generation system and information storage medium
JP3586679B2 (en) 3D game image processing program, 3D game image processing method, and video game apparatus
JP4052843B2 (en) Image generation system, program, and information storage medium
JP4584665B2 (en) 3D game image processing program, 3D game image processing method, and video game apparatus
JP4443084B2 (en) Image generation system and information storage medium
JP2004192470A (en) Game apparatus and game program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050301

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050428

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20050428

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050621

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050810

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20051025

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20051027

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081104

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081104

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081104

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091104

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101104

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees