JP4028055B2 - Image generating apparatus and information storage medium - Google Patents

Image generating apparatus and information storage medium Download PDF

Info

Publication number
JP4028055B2
JP4028055B2 JP35213997A JP35213997A JP4028055B2 JP 4028055 B2 JP4028055 B2 JP 4028055B2 JP 35213997 A JP35213997 A JP 35213997A JP 35213997 A JP35213997 A JP 35213997A JP 4028055 B2 JP4028055 B2 JP 4028055B2
Authority
JP
Japan
Prior art keywords
texture
image
mapping
vertex
storage medium
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP35213997A
Other languages
Japanese (ja)
Other versions
JPH11175746A (en
Inventor
彰 齋藤
貢 牧野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Namco Ltd
Bandai Namco Entertainment Inc
Original Assignee
Namco Ltd
Namco Bandai Games Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Ltd, Namco Bandai Games Inc filed Critical Namco Ltd
Priority to JP35213997A priority Critical patent/JP4028055B2/en
Publication of JPH11175746A publication Critical patent/JPH11175746A/en
Application granted granted Critical
Publication of JP4028055B2 publication Critical patent/JP4028055B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Generation (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、テクスチャマッピングを用いて画像を生成する画像生成装置及び情報記憶媒体に関する。
【0002】
【背景技術及び発明が解決しようとする課題】
従来より、ゲーム装置、シミュレータなどの画像生成装置として種々のものが知られている。このような画像生成装置では、いわゆる仮想現実感の実現のために、如何にして画像を高品質化するかが大きな技術的課題となっている。そしてこのような画像高品質化技術の1つとして半透明処理と呼ばれる手法が知られている。
【0003】
半透明処理では、背景オブジェクトの色と半透明オブジェクトの色とをブレンディングするブレンド処理や、背景オブジェクトの色をフィルタリングするフィルタ処理を行うことで、各画素(ドット)の色を得る。半透明処理を行うことで半透明表現が可能となり、画像のリアリティを増すことができる。
【0004】
しかしながら、半透明処理では、各画素毎にブレンド処理やフィルタ処理などの演算処理を行わなければならない。したがって、画像生成装置にかかる処理負担が重く、画像生成装置の処理の高速化が妨げられるという問題がある。
【0005】
一方、ブレンド処理やフィルタ処理のみでは、擬似的な半透明表現は可能であるが、現実世界に忠実なリアルな半透明表現はできない。このため、これまでの半透明処理の手法では仮想現実感の実現が不十分であった。
【0006】
また半透明処理を実現するハードウェア機能を有しない画像生成装置においては、半透明表現自体が不可能であるという問題がある。
【0007】
また、よりリアルな画像を表現するためには、光の屈折や反射も表現できることが望まれるが、このような表現を実現しようとすると、画像生成装置のハードウェアが大規模化、複雑化し、画像生成装置の高コスト化を招く。
【0008】
本発明は以上のような技術的課題を達成するためになされたものであり、その目的とするところは、少ない処理負担でより、よりリアルな画像表現が可能となる画像生成装置及び情報記憶媒体を提供することにある。
【0009】
【課題を解決するための手段】
上記課題を解決するために、本発明は、テクスチャマッピングを用いて画像を生成する画像生成装置であって、第1のテクスチャと、該第1のテクスチャを原画像とする第2のテクスチャとを記憶する手段と、第1のオブジェクトに対して前記第1のテクスチャをマッピングすると共に、前記第1のオブジェクトに重なり合うように配置される第2のオブジェクトに対して前記第2のテクスチャをマッピングする手段とを含み、オブジェクトの上に該オブジェクトとは異なるマテリアルプロパティを有するオブジェクトを重ねた場合に得られる画像を生成することを特徴とする。
【0010】
本発明によれば、第1のオブジェクトに重なり合うように配置される第2のオブジェクトに、第1のオブジェクトにマッピングされる第1のテクスチャを原画像とする第2のテクスチャがマッピングされる。そして、オブジェクトの上に、該オブジェクトとは異なるマテリアルプロパティを有するオブジェクトを重ねた場合に得られる画像が生成される。即ち、このような画像を生成させる第1、第2のテクスチャが用意される。これにより、例えば、背景オブジェクトの上に半透明オブジェクトが配置された場合に見える画像等を、画像生成装置の処理負担をそれほど増加させることなく、生成できるようになる。しかも、第1、第2のテクスチャの画像を、高精細で高品質のものにすることで、通常の半透明処理等では得られないリアルな画像を生成することも可能となる。
【0011】
また本発明は、テクスチャマッピングを用いて画像を生成する画像生成装置であって、第1のテクスチャと、該第1のテクスチャを原画像とする第2のテクスチャとを記憶する手段と、第1のオブジェクトに対して前記第1のテクスチャをマッピングすると共に、前記第1のオブジェクトに重なり合うように配置される第2のオブジェクトに対して前記第2のテクスチャをマッピングする手段とを含み、オブジェクトのマテリアルプロパティを部分的に変化させた場合に得られる画像を生成することを特徴とする。
【0012】
本発明によれば、第2のオブジェクトに、第1のテクスチャを原画像とする第2のテクスチャがマッピングされ、オブジェクトのマテリアルプロパティを部分的に変化させた場合に得られる画像が生成される。即ち、このような画像を生成させる第1、第2のテクスチャが用意される。これにより、例えば、背景オブジェクトの色、輝度、半透明度、反射率、屈折率を部分的に変化させた場合に見える画像等を、画像生成装置の処理負担をそれほど増加させることなく、生成できるようになる。しかも、第1、第2のテクスチャの画像を、高精細で高品質のものにすることで、通常の処理では得られないリアルな画像を生成することも可能となる。
【0013】
また本発明は、前記マテリアルプロパティが、色、輝度、半透明度、反射率及び屈折率の少なくとも1つであることを特徴とする。このようにマテリアルプロパティとしては種々のものを考えることができる。但し、本発明におけるマテリアルプロパティはこれらに限られるものではない。
【0014】
また本発明は、前記第2のオブジェクトの位置及び形状の少なくとも一方をリアルタイムに変化させることを特徴とする。このようにすることで、例えば背景オブジェクトの上で半透明オブジェクトが動いたり、その形状が変化する等の、種々の画像を得ることが可能になる。
【0015】
また本発明は、前記第1、第2のオブジェクトの頂点の位置に基づいて前記第2のオブジェクトの頂点に与えるテクスチャ座標を求め、このテクスチャ座標に基づいて前記第2のオブジェクトに前記第2のテクスチャをマッピングすることを特徴とする。このようにすることで、第2のテクスチャを記憶手段から読み出す際に使用するテクスチャ座標を、簡易な処理で得ることが可能になる。
【0016】
【発明の実施の形態】
以下、本発明の好適な実施形態について図面を用いて説明する。なお以下では、オブジェクトが1又は複数のポリゴンにより構成される場合を例にとり説明する。しかしながら、本発明は、ポリゴン以外の曲面などのプリミティブ面で構成されるオブジェクト等、種々のオブジェクトに適用できる。
【0017】
まず本実施形態の原理について説明する。今、図1に示すように、Aの文字が描かれている背景オブジェクト300の上に、半透明オブジェクト302を重ねた場合に見える画像を考える。このような画像を生成するのに、これまでは、半透明処理と呼ばれる手法を採用していた。例えば半透明処理の1つであるブレンド処理では次式(1)のような演算処理を行う。
Q=OP1×RT+(1−OP1)×RX
Q=OP1×GT+(1−OP1)×GX (1)
Q=OP1×BT+(1−OP1)×BX
ここで、OP1はブレンド処理におけるオパシティ(不透明度)であり、RT、T、BTは半透明オブジェクトの色データ、RX、GX、BXは背景オブジェクトの色データ、RQ、GQ、BQは半透明処理で得られる色データである。なおOP1を、R、G、B毎に異ならせてもよい。
【0018】
また半透明処理の1つであるフィルタ処理では次式(2)のような演算処理を行う。
Q=OP2×FR×RX
Q=OP2×FG×GX (2)
Q=OP2×FB×BX
ここで、OP2はフィルタ処理におけるオパシティであり、FR、FG、FBは、半透明オブジェクトのフィルタ係数である。
【0019】
以上のようなブレンド処理やフィルタ処理などの半透明処理では、いずれも、各画素毎に上式(1)、(2)に示すような演算処理を行わなければならない。したがって、画像生成装置にかかる処理負担が過大になり、処理の高速化が妨げられるという問題がある。
【0020】
また上式(1)、(2)に示すような演算処理では、擬似的な半透明表現は可能であるが、現実の世界に近いリアルな半透明表現はできないという問題がある。
【0021】
このような問題を解決するために、本実施形態に係る画像生成装置は以下のような特徴を有している。即ち図2に示すように本実施形態では、まず、テクスチャ空間(U、V空間)内に、第1のテクスチャ20と、この第1のテクスチャ20を原画像とする第2のテクスチャ22を用意する。より具体的には、第1のテクスチャ20は、Aの文字が描かれる背景オブジェクトの画像を表すものである。一方、第2のテクスチャ22は、第1のテクスチャ20により表される背景オブジェクトの全面に半透明オブジェクトが重なっている場合に見える画像を表すものである。例えば半透明オブジェクトの色が青である場合には、第2のテクスチャ22は、第1のテクスチャ20を全体的に青みがかった色にした画像を表すことになる。
【0022】
そして本実施形態に係る画像生成装置では図2に示すように、第1のオブジェクト30に対して、上記の第1のテクスチャ20をマッピングする。一方、第1のオブジェクト30に重なり合うように配置される第2のオブジェクト32に対して、上記の第2のテクスチャ22をマッピングする。なお、第1、第2のオブジェクト30、32は、例えば少なくとも1つのプリミティブ面(ポリゴン、曲面等)により構成されている。
【0023】
以上のようにテクスチャマッピングを行うことで、図2のB1に示すような画像を得ることができる。即ちブレンド処理やフィルタ処理などの半透明処理を行うことなく、背景オブジェクトの上に、半透明オブジェクト(背景オブジェクトとは異なるマテリアルプロパティを有するオブジェクト)を重ねた場合に見える画像を生成できるようになる。
【0024】
この場合、第1、第2のテクスチャ20、22は、高精細で高品質な画像を生成できる能力を有するワークステーション等により予め作成され、画像生成装置内のテクスチャ記憶部(図7の130参照)に記憶されている。したがって画像生成装置は、第1、第2のテクスチャ20、22自体を生成する必要はなく、画像生成装置にかかる処理負担は、第1、第2のテクスチャ20、22のマッピングに要する処理負担だけとなる。したがって、上式(1)、(2)に示すようなブレンド処理やフィルタ処理などの半透明処理に比べて、処理負担を大幅に軽減できる。また、第1、第2のテクスチャ20、22は、高精細で高品質な画像を生成できるワークステーションなどにより作成できるため、ブレンド処理やフィルタ処理などの半透明処理により画像を生成する場合に比べて、格段にリアルな画像を生成できるようになる。
【0025】
なお、以上ではマテリアルプロパティとして半透明度(透明度)を例にとり説明したが、マテリアルプロパティとしては、これ以外にも、色、輝度、反射率(鏡面反射、拡散反射)、屈折率等、種々のものを考えることができる。即ち、本実施形態によれば、背景オブジェクトの上に、背景オブジェクトとは色、輝度、反射率、半透明度、屈折率などのマテリアルプロパティが異なるオブジェクトを重ねた場合に見える画像を生成できる。
【0026】
例えば図3に、背景オブジェクトの上に、背景オブジェクトとは異なる屈折率を有するオブジェクトを重ねた場合に見える画像の例を示す。一般的に、光の屈折や反射を表現しようとすると、画像生成装置の処理負担の増加、ハードウェアの大規模化、高コスト化を招く。これに対して、本実施形態では、光の屈折が表現されるように図2の第1、第2のテクスチャ20、22を予め作成しておくだけで、図3に示すような画像を表現できる。したがって、画像生成装置の処理負担をそれほど増加することなく、リアルな画像を生成できる。
【0027】
以上では、背景オブジェクトの上に、背景オブジェクトとはマテリアルプロパティが異なるオブジェクトを重ねた場合に見える画像を生成する例を示した。しかしながら、本実施形態によれば、背景オブジェクトのマテリアルプロパティを部分的に変化させた場合に見える画像を生成することもできる。
【0028】
即ち図4において、第2のテクスチャ22は、第1のテクスチャ20を原画像として、第1のテクスチャ20の輝度を全体的に高くした場合の画像を表すものである。そして、第1のテクスチャ20を第1のオブジェクト30にマッピングすると共に、第1のオブジェクト30に重なり合うように配置される第2のオブジェクト32に第2のテクスチャ22をマッピングする。これにより、図4のC1に示すように、背景オブジェクトの輝度(マテリアルプロパティ)を部分的に変化させた場合に得られる画像が生成されることになる。これにより、画像生成装置の処理負担をそれほど増すことなく、リアルな画像を生成できるようになる。
【0029】
なお、この場合のマテリアルプロパティとしても、色、輝度、半透明度、反射率、屈折率等、種々のものを考えることができる。
【0030】
また図5(A)では、第2のオブジェクト32の位置を、第1のオブジェクト30の上でリアルタイムに変化させている。このようにすることで、図5(B)に示すように、背景オブジェクトの上で半透明オブジェクトがリアルタイムに移動するという表現が可能になる。即ち、例えば看板の上でアメーバが自在に移動するというような表現が可能となる。
【0031】
また図6(A)では、第2のオブジェクト32の形状を、第1のオブジェクト30の上でリアルタイムに変化させている。このようにすることで、図6(B)に示すように、背景オブジェクトの上で半透明オブジェクトの形状がリアルタイムに変化して行くという表現が可能になる。即ち、例えば看板の上でアメーバが次第に大きくなったり小さくなって行くというような表現が可能となる。
【0032】
前述のブレンド処理やフィルタ処理などの半透明処理を用いて図5(B)、図6(B)に示すような表現を実現するためには、半透明処理を施す範囲をリアルタイムに変化させなければならない。したがって、処理が複雑化し処理負担が増加する。本実施形態によれば、第2のオブジェクト32の位置や形状を変化させるだけで図5(B)、図6(B)に示すような表現が可能となる。したがって、少ない処理負担で、これまでにないリアルな映像効果を得ることができるようになる。
【0033】
図7に、本実施形態の画像生成装置の機能ブロック図の一例を示す。
【0034】
処理部100は、画像生成のための種々の処理を行うものである。この処理部100の機能は、CPU(CISC型、RISC型)、DSP、カスタム(ゲートアレイ等)IC、メモリなどの種々のハードウェアにより実現できる。
【0035】
情報記憶媒体190は、プログラムやデータを記憶するものである。この情報記憶媒体190の機能は、CD−ROM、ゲームカセット、ICカード、MO、FD、DVD、ハードディスク、メモリなどのハードウェアにより実現できる。処理部100は、この情報記憶媒体190からのプログラム、データに基づいて種々の処理を行うことになる。
【0036】
処理部100は、オブジェクト空間設定部110、マッピング部120、テクスチャ記憶部130及び画像生成部150を含む。
【0037】
ここでオブジェクト空間設定部110は、オブジェクト空間にオブジェクトを配置する処理等を行うものである。3次元ゲームを例にとれば、車などの移動体のオブジェクトの位置や方向をリアルタイムに演算したり、移動体が移動するマップを構成するオブジェクトを配置する処理等を行う。本実施形態では、このオブジェクト空間設定部110が、図2の第1、第2のオブジェクト30、32を配置する処理や、第2のオブジェクト32の位置や形状をリアルタイムに変化させる処理を行う。
【0038】
マッピング部120は、オブジェクト空間設定部110によりオブジェクト空間に配置されたオブジェクトに対して、テクスチャをマッピングするための処理を行うものである。本実施形態では、このマッピング部120が、図2の第1のオブジェクト30に対して第1のテクスチャ20をマッピングすると共に、第1のオブジェクト30に重なり合うように配置される第2のオブジェクト32に対して第2のテクスチャ22をマッピングするための処理を行う。
【0039】
マッピング部120は、テクスチャ座標演算部122を含む。このテクスチャ座標演算部122は、オブジェクトにマッピングするテクスチャを指定するためのテクスチャ座標U、Vを演算する処理を行うものである。より具体的には、テクスチャ座標演算部122は、例えば、第1、第2のオブジェクト30、32の頂点の位置に基づいて、第2のオブジェクト32の頂点に与えるテクスチャ座標を求める演算処理を行う。
【0040】
テクスチャ記憶部130は、オブジェクトにマッピングするテクスチャを記憶するものである。図2の第1、第2のテクスチャ20、22はこのテクスチャ記憶部130に記憶される。なおテクスチャのデータは、初期状態では情報記憶媒体190に格納されており、電源投入後等に情報記憶媒体190からテクスチャ記憶部130に転送される。
【0041】
また画像生成部150は、マッピング部120によりテクスチャがマッピングされたオブジェクトの画像を含む画像を生成する処理を行う。画像生成部150により生成された画像は表示部160において表示される。
【0042】
図8(A)、(B)に、本実施形態により生成される画像の一例を示す。図8(A)、(B)は、海岸に波が打ち寄せる様子を表現する画像である。このような画像を表現するために本実施形態では、図9に示すような第1、第2のテクスチャ20、22を用意する。第1のテクスチャ20は岩を表すテクスチャであり、第2のテクスチャ22は、水の中のある岩を表すテクスチャである。これらの第1、第2のテクスチャ20、22は、図8(A)、(B)の第1、第2のオブジェクト30、32にマッピングされる。そして、第1のオブジェクト30に重なるように配置される第2のオブジェクト32の形状を、波を表すように変化させる。これにより、波が打ち寄せる海岸のリアルな表現を、少ない処理負担で実現できるようになる。
【0043】
図10(A)、(B)に、本実施形態により生成される画像の他の例を示す。図10(A)、(B)は、街に爆弾が投下され、その爆発範囲がリアルタイムに広がってゆく様子を表現する画像である。この場合には、第1のテクスチャ20として爆発前の街の様子を表すテクスチャを用意し、第2のテクスチャ22として爆発後の街の様子を表すテクスチャを用意する。そして、図10(A)、(B)に示すように、第1のオブジェクト30に重なるように配置される第2のオブジェクト32の形状を、爆発範囲の拡大を表すように変化させる。これにより、爆弾による街の破壊のリアルな表現を、少ない処理負担で実現できるようになる。
【0044】
次に本実施形態の詳細な処理例について、図11のフローチャートを用いて説明する。
【0045】
まず、図12に示すように第1のオブジェクト30に第2のオブジェクト32が重なるように、第1、第2のオブジェクト30、32を配置する(ステップS1)。
【0046】
次に、第1のオブジェクト30に第1のテクスチャ20をマッピングする(ステップS2)。ここで第1のオブジェクト30にマッピングされる第1のテクスチャ20は、第1のオブジェクト30の頂点a0、a1、a2、a3に与えるテクスチャ座標(Ua0、Va0)、(Ua1、Va1)、(Ua2、Va2)、(Ua3、Va3)により指定される。
【0047】
次に、第2のオブジェクト32の頂点b0、b1、b2、b3に与えるテクスチャ座標(Ub0、Vb0)、(Ub1、Vb1)、(Ub2、Vb2)、(Ub3、Vb3)を算出する(ステップS3)。これらのテクスチャ座標は、第1のテクスチャ20に対応する第2のテクスチャ22をテクスチャ記憶部130から読み出すために使用される。より具体的には、例えば、第1のオブジェクト30の頂点の位置(Xa0、Ya0)、(Xa1、Ya1)、(Xa2、Ya2)、(Xa3、Ya3)と、第2のオブジェクトの頂点の位置(Xb0、Yb0)、(Xb1、Yb1)、(Xb2、Yb2)、(Xb3、Yb3)との間の位置関係に基づいて、テクスチャ座標(Ub0、Vb0)、(Ub1、Vb1)、(Ub2、Vb2)、(Ub3、Vb3)を算出する。
【0048】
次に、算出されたテクスチャ座標(Ub0、Vb0)〜(Ub3、Vb3)に基づいて、第2のテクスチャ22を第2のオブジェクト32にマッピングする(ステップS4)。
【0049】
以上のようにして、図2のB1、図4のC1に示すような画像を得ることができる。
【0050】
次に、本実施形態を実現できるハードウェアの構成の一例について図13を用いて説明する。同図に示す装置では、CPU1000、ROM1002、RAM1004、情報記憶媒体1006、音生成IC1008、画像生成IC1010、I/Oポート1012、1014が、システムバス1016により相互にデータ送受信可能に接続されている。そして前記画像生成IC1010にはディスプレイ1018が接続され、音生成IC1008にはスピーカ1020が接続され、I/Oポート1012にはコントロール装置1022が接続され、I/Oポート1014には通信装置1024が接続されている。
【0051】
情報記憶媒体1006は、プログラム、表示物を表現するための画像データ、音データ等が主に格納されるものである。例えば家庭用ゲーム装置ではゲームプログラム等を格納する情報記憶媒体としてCD−ROM、ゲームカセット、DVD等が用いられる。また業務用ゲーム装置ではROM等のメモリが用いられ、この場合には情報記憶媒体1006はROM1002になる。
【0052】
コントロール装置1022はゲームコントローラ、操作パネル等に相当するものであり、プレーヤがゲーム進行に応じて行う判断の結果を装置本体に入力するための装置である。
【0053】
情報記憶媒体1006に格納されるプログラム、ROM1002に格納されるシステムプログラム(装置本体の初期化情報等)、コントロール装置1022によって入力される信号等に従って、CPU1000は装置全体の制御や各種データ処理を行う。RAM1004はこのCPU1000の作業領域等として用いられる記憶手段であり、情報記憶媒体1006やROM1002の所与の内容、あるいはCPU1000の演算結果等が格納される。また本実施形態を実現するための論理的な構成を持つデータ構造(例えばテクスチャやオブジェクトのデータ構造)は、このRAM又は情報記憶媒体上に構築されることになる。
【0054】
更に、この種の装置には音生成IC1008と画像生成IC1010とが設けられていてゲーム音やゲーム画像の好適な出力が行えるようになっている。音生成IC1008は情報記憶媒体1006やROM1002に記憶される情報に基づいて効果音やバックグラウンド音楽等のゲーム音を生成する集積回路であり、生成されたゲーム音はスピーカ1020によって出力される。また、画像生成IC1010は、RAM1004、ROM1002、情報記憶媒体1006等から送られる画像情報に基づいてディスプレイ1018に出力するための画素情報を生成する集積回路である。なおディスプレイ1018として、いわゆるヘッドマウントディスプレイ(HMD)と呼ばれるものを使用することもできる。
【0055】
また、通信装置1024はゲーム装置内部で利用される各種の情報を外部とやりとりするものであり、他のゲーム装置と接続されてゲームプログラムに応じた所与の情報を送受したり、通信回線を介してゲームプログラム等の情報を送受することなどに利用される。
【0056】
そして図1〜図10、図12で説明した種々の処理は、図11のフローチャートに示した処理等を行うプログラムを格納した情報記憶媒体1006と、該プログラムに従って動作するCPU1000、画像生成IC1010、音生成IC1008等によって実現される。なお画像生成IC1010、音生成IC1008等で行われる処理は、CPU1000あるいは汎用のDSP等によりソフトウェア的に行ってもよい。
【0057】
図14(A)に、本実施形態を業務用ゲーム装置に適用した場合の例を示す。プレーヤは、ディスプレイ1100上に映し出されたゲーム画像を見ながら、レバー1102、ボタン1104等を操作してゲームを楽しむ。装置に内蔵されるシステム基板1106には、CPU、画像生成IC、音生成IC等が実装されている。そして、第1のテクスチャと、第1のテクスチャを原画像とする第2のテクスチャとを記憶するための情報、第1のオブジェクトに対して第1のテクスチャをマッピングすると共に、第1のオブジェクトに重なり合うように配置される第2のオブジェクトに対して第2のテクスチャをマッピングするための情報、オブジェクトの上に該オブジェクトとは異なるマテリアルプロパティを有するオブジェクトを重ねた場合に得られる画像を生成するための情報、オブジェクトのマテリアルプロパティを部分的に変化させた場合に得られる画像を生成するための情報等は、システム基板1106上の情報記憶媒体であるメモリ1108に格納される。以下、これらの情報を格納情報と呼ぶ。これらの格納情報は、上記の種々の処理を行うためのプログラムコード、画像情報、音情報、表示物の形状情報、テーブルデータ、リストデータ、プレーヤ情報等の少なくとも1つを含むものである。
【0058】
図14(B)に、本実施形態を家庭用のゲーム装置に適用した場合の例を示す。プレーヤはディスプレイ1200に映し出されたゲーム画像を見ながら、ゲームコントローラ1202、1204を操作してゲームを楽しむ。この場合、上記格納情報は、本体装置に着脱自在な情報記憶媒体であるCD−ROM1206、ICカード1208、1209等に格納されている。
【0059】
図14(C)に、ホスト装置1300と、このホスト装置1300と通信回線1302を介して接続される端末1304-1〜1304-nとを含むゲーム装置に本実施形態を適用した場合の例を示す。この場合、上記格納情報は、例えばホスト装置1300が制御可能な磁気ディスク装置、磁気テープ装置、メモリ等の情報記憶媒体1306に格納されている。端末1304-1〜1304-nが、CPU、画像生成IC、音生成ICを有し、スタンドアロンでゲーム画像、ゲーム音を生成できるものである場合には、ホスト装置1300からは、ゲーム画像、ゲーム音を生成するためのゲームプログラム等が端末1304-1〜1304-nに配送される。一方、スタンドアロンで生成できない場合には、ホスト装置1300がゲーム画像、ゲーム音を生成し、これを端末1304-1〜1304-nに伝送し端末において出力することになる。
【0060】
なお本発明は、上記実施形態で説明したものに限らず、種々の変形実施が可能である。
【0061】
例えばテクスチャマッピングの手法は本実施形態で説明したものに限られるものではない。例えばテクスチャ空間は2次元に限られるものではなく3次元であってもよい。即ち空間テクスチャを用いてテクスチャマッピングを行ってもよい。
【0062】
また本発明により表現される画像も本実施形態で説明したものに限られるものではない。例えば本発明によれば、草むらで火事が広がって行く様子、草刈り、物体が腐食したり焼けただれて行く様子、汚れや染みが広がって行く様子、建物が壊れて行く様子、水たまりに雲が映り込んでいる様子等、種々のものを表現できる。
【0063】
またマテリアルプロパティの種類も本実施形態で説明したものに限られるものではない。
【0064】
また本発明は、家庭用、業務用のゲーム装置のみならず、シミュレータ、多数のプレーヤが参加する大型アトラクション装置、パーソナルコンピュータ、マルチメディア端末、ゲーム画像を生成するシステム基板等の種々の画像生成装置にも適用できる。
【0065】
【図面の簡単な説明】
【図1】背景オブジェクトの上に半透明オブジェクトが重なっている場合に見える画像の例を示す図である。
【図2】本実施形態の原理について説明するための図である。
【図3】背景オブジェクトの上に背景オブジェクトとは異なる屈折率を有するオブジェクトを重ねた場合に見える画像の例を示す図である。
【図4】本実施形態の原理について説明するための図である。
【図5】図5(A)、(B)は、第2のオブジェクトの位置をリアルタイムに変化させる手法について説明するための図である。
【図6】図6(A)、(B)は、第2のオブジェクトの形状をリアルタイムに変化させる手法について説明するための図である。
【図7】本実施形態の画像生成装置の機能ブロック図の一例である。
【図8】図8(A)、(B)は本実施形態により生成される画像の例を示す図である。
【図9】第1、第2のテクスチャの例を示す図である。
【図10】図10(A)、(B)は本実施形態により生成される画像の例を示す図である。
【図11】本実施形態の詳細な処理例を説明するためのフローチャートである。
【図12】第2のオブジェクトのテクスチャ座標を算出する手法について説明するための図である。
【図13】本実施形態を実現できるハードウェアの構成の一例を示す図である。
【図14】図14(A)、(B)、(C)は、本実施形態が適用される種々の形態の装置の例を示す図である。
【符号の説明】
20 第1のテクスチャ
22 第2のテクスチャ
30 第1のオブジェクト
32 第2のオブジェクト
100 処理部
110 オブジェクト空間設定部
120 マッピング部
122 テクスチャ座標演算部
130 テクスチャ記憶部
150 画像生成部
160 表示部
190 情報記憶媒体
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image generation apparatus and an information storage medium that generate an image using texture mapping.
[0002]
[Background Art and Problems to be Solved by the Invention]
Conventionally, various types of image generation devices such as game devices and simulators are known. In such an image generating apparatus, how to improve the quality of an image has become a major technical issue in order to realize so-called virtual reality. A technique called translucent processing is known as one of such image quality enhancement techniques.
[0003]
In the translucent process, the color of each pixel (dot) is obtained by performing a blend process for blending the color of the background object and the color of the translucent object and a filter process for filtering the color of the background object. By performing translucent processing, translucent expression is possible, and the reality of the image can be increased.
[0004]
However, in the semi-transparent processing, calculation processing such as blend processing and filter processing has to be performed for each pixel. Therefore, there is a problem that the processing load on the image generation apparatus is heavy and the speeding up of the processing of the image generation apparatus is hindered.
[0005]
On the other hand, pseudo-translucent expression is possible only by blend processing and filter processing, but real translucent expression faithful to the real world cannot be achieved. For this reason, the realization of virtual reality has been insufficient with the conventional translucent processing methods.
[0006]
Further, in an image generation apparatus that does not have a hardware function for realizing translucent processing, there is a problem that translucent expression itself is impossible.
[0007]
In order to represent a more realistic image, it is desirable to be able to express light refraction and reflection. However, if such an expression is to be realized, the hardware of the image generation device becomes larger and more complicated, This increases the cost of the image generation apparatus.
[0008]
The present invention has been made to achieve the above technical problem, and an object of the present invention is to provide an image generation apparatus and an information storage medium capable of more realistic image expression with a small processing load. Is to provide.
[0009]
[Means for Solving the Problems]
In order to solve the above-described problem, the present invention provides an image generation apparatus that generates an image using texture mapping, and includes a first texture and a second texture having the first texture as an original image. Means for storing, and means for mapping the first texture to the first object and mapping the second texture to the second object arranged to overlap the first object And an image obtained when an object having a material property different from that of the object is superimposed on the object.
[0010]
According to the present invention, the second texture having the first texture mapped to the first object as the original image is mapped to the second object arranged to overlap the first object. Then, an image obtained when an object having a material property different from that of the object is superimposed on the object is generated. That is, first and second textures for generating such an image are prepared. As a result, for example, an image or the like that can be seen when a translucent object is placed on a background object can be generated without significantly increasing the processing load of the image generation apparatus. In addition, by making the first and second texture images high-definition and high-quality, it is possible to generate a realistic image that cannot be obtained by a normal translucent process or the like.
[0011]
The present invention also relates to an image generation apparatus that generates an image using texture mapping, the first texture and a second texture having the first texture as an original image, a first texture, Means for mapping the first texture to a second object and means for mapping the second texture to a second object arranged to overlap the first object, An image obtained when the property is partially changed is generated.
[0012]
According to the present invention, the second texture having the first texture as the original image is mapped to the second object, and an image obtained when the material property of the object is partially changed is generated. That is, first and second textures for generating such an image are prepared. As a result, for example, an image that can be seen when the color, brightness, translucency, reflectance, and refractive index of the background object are partially changed can be generated without increasing the processing load of the image generating apparatus so much. become. In addition, by making the first and second texture images high-definition and high-quality, it is possible to generate a realistic image that cannot be obtained by normal processing.
[0013]
In the invention, it is preferable that the material property is at least one of color, luminance, translucency, reflectance, and refractive index. As described above, various material properties can be considered. However, the material property in the present invention is not limited to these.
[0014]
The present invention is characterized in that at least one of the position and shape of the second object is changed in real time. In this way, it is possible to obtain various images such as a semi-transparent object moving on the background object or changing its shape.
[0015]
Further, the present invention obtains texture coordinates to be given to the vertices of the second object based on the positions of the vertices of the first and second objects, and assigns the second object to the second object based on the texture coordinates. It is characterized by mapping a texture. By doing in this way, the texture coordinate used when reading a 2nd texture from a memory | storage means can be obtained by a simple process.
[0016]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings. In the following, a case where an object is composed of one or a plurality of polygons will be described as an example. However, the present invention can be applied to various objects such as an object composed of a primitive surface such as a curved surface other than a polygon.
[0017]
First, the principle of this embodiment will be described. Now, as shown in FIG. 1, consider an image that appears when a translucent object 302 is superimposed on a background object 300 on which a letter A is drawn. In the past, a method called translucent processing has been employed to generate such an image. For example, in the blending process which is one of the translucent processes, an arithmetic process such as the following expression (1) is performed.
R Q = OP 1 × R T + (1−OP 1 ) × R X
G Q = OP 1 × G T + (1−OP 1 ) × G X (1)
B Q = OP 1 × B T + (1−OP 1 ) × B X
Here, OP 1 is an opacity (opacity) in the blending process, R T, G T , and B T are color data of the translucent object, R X , G X , and B X are color data of the background object, R Q , G Q and B Q are color data obtained by translucent processing. Note that OP 1 may be different for each of R, G, and B.
[0018]
In the filter process, which is one of the translucent processes, an arithmetic process such as the following expression (2) is performed.
R Q = OP 2 × F R × R X
G Q = OP 2 × F G × G X (2)
B Q = OP 2 × F B × B X
Here, OP 2 is an opacity in the filtering process, and F R , F G , and F B are filter coefficients of the translucent object.
[0019]
In the translucent processes such as the blend process and the filter process as described above, it is necessary to perform an arithmetic process as shown in the above equations (1) and (2) for each pixel. Therefore, there is a problem that the processing load on the image generating apparatus becomes excessive and the speeding up of the processing is hindered.
[0020]
In addition, in the arithmetic processing shown in the above formulas (1) and (2), pseudo-translucent expression is possible, but there is a problem that realistic translucent expression close to the real world cannot be performed.
[0021]
In order to solve such a problem, the image generation apparatus according to the present embodiment has the following characteristics. That is, as shown in FIG. 2, in the present embodiment, first, a first texture 20 and a second texture 22 using the first texture 20 as an original image are prepared in a texture space (U, V space). To do. More specifically, the first texture 20 represents an image of a background object on which the letter A is drawn. On the other hand, the second texture 22 represents an image that can be seen when a semi-transparent object overlaps the entire surface of the background object represented by the first texture 20. For example, when the color of the translucent object is blue, the second texture 22 represents an image in which the first texture 20 is entirely bluish.
[0022]
In the image generation apparatus according to the present embodiment, the first texture 20 is mapped to the first object 30 as shown in FIG. On the other hand, the second texture 22 is mapped to the second object 32 arranged so as to overlap the first object 30. The first and second objects 30 and 32 are constituted by at least one primitive surface (polygon, curved surface, etc.), for example.
[0023]
By performing texture mapping as described above, an image as shown in B1 of FIG. 2 can be obtained. In other words, an image that can be seen when a semi-transparent object (an object having a material property different from that of the background object) is superimposed on the background object can be generated without performing a semi-transparent process such as a blend process or a filter process. .
[0024]
In this case, the first and second textures 20 and 22 are created in advance by a workstation or the like having the ability to generate high-definition and high-quality images, and the texture storage unit (see 130 in FIG. 7) in the image generation apparatus. ) Is stored. Therefore, the image generation device does not need to generate the first and second textures 20 and 22 themselves, and the processing load on the image generation device is only the processing load required for mapping the first and second textures 20 and 22. It becomes. Therefore, the processing load can be greatly reduced as compared with translucent processing such as blend processing and filter processing as shown in the above formulas (1) and (2). Since the first and second textures 20 and 22 can be created by a workstation that can generate high-definition and high-quality images, the first and second textures 20 and 22 are compared to the case where images are generated by translucent processing such as blend processing and filter processing. Thus, a much more realistic image can be generated.
[0025]
In the above description, semi-transparency (transparency) has been described as an example of material properties. However, there are various other material properties such as color, brightness, reflectivity (specular reflection, diffuse reflection), and refractive index. Can think. That is, according to the present embodiment, it is possible to generate an image that is visible when an object having different material properties such as color, brightness, reflectance, translucency, and refractive index is superimposed on the background object.
[0026]
For example, FIG. 3 shows an example of an image that can be seen when an object having a refractive index different from that of the background object is superimposed on the background object. In general, expressing the refraction or reflection of light causes an increase in processing load on the image generation apparatus, an increase in hardware scale, and an increase in cost. On the other hand, in the present embodiment, an image as shown in FIG. 3 can be expressed simply by creating the first and second textures 20 and 22 in FIG. 2 in advance so as to express the refraction of light. it can. Therefore, a real image can be generated without increasing the processing load of the image generating apparatus so much.
[0027]
In the above, an example has been shown in which an image that is visible when an object having a material property different from that of the background object is superimposed on the background object is generated. However, according to the present embodiment, it is possible to generate an image that can be seen when the material property of the background object is partially changed.
[0028]
That is, in FIG. 4, the second texture 22 represents an image when the first texture 20 is the original image and the luminance of the first texture 20 is increased overall. Then, the first texture 20 is mapped to the first object 30, and the second texture 22 is mapped to the second object 32 arranged so as to overlap the first object 30. As a result, as shown in C1 of FIG. 4, an image obtained when the luminance (material property) of the background object is partially changed is generated. As a result, a real image can be generated without increasing the processing load of the image generating apparatus so much.
[0029]
Various material properties such as color, brightness, translucency, reflectance, and refractive index can be considered as material properties in this case.
[0030]
In FIG. 5A, the position of the second object 32 is changed on the first object 30 in real time. By doing so, as shown in FIG. 5B, it is possible to express that the translucent object moves in real time on the background object. That is, for example, an expression that an amoeba freely moves on a signboard is possible.
[0031]
In FIG. 6A, the shape of the second object 32 is changed on the first object 30 in real time. By doing so, as shown in FIG. 6B, it is possible to express that the shape of the translucent object changes in real time on the background object. That is, for example, an expression that the amoeba gradually becomes larger or smaller on the signboard is possible.
[0032]
In order to realize the expressions shown in FIGS. 5B and 6B using the above-described translucent processing such as blend processing and filter processing, the range to be subjected to the translucent processing must be changed in real time. I must. Therefore, the processing becomes complicated and the processing load increases. According to the present embodiment, it is possible to express as shown in FIGS. 5B and 6B only by changing the position and shape of the second object 32. Therefore, an unprecedented realistic video effect can be obtained with a small processing load.
[0033]
FIG. 7 shows an example of a functional block diagram of the image generation apparatus of the present embodiment.
[0034]
The processing unit 100 performs various processes for image generation. The function of the processing unit 100 can be realized by various hardware such as a CPU (CISC type, RISC type), a DSP, a custom (gate array, etc.) IC, and a memory.
[0035]
The information storage medium 190 stores programs and data. The function of the information storage medium 190 can be realized by hardware such as a CD-ROM, game cassette, IC card, MO, FD, DVD, hard disk, and memory. The processing unit 100 performs various processes based on the program and data from the information storage medium 190.
[0036]
The processing unit 100 includes an object space setting unit 110, a mapping unit 120, a texture storage unit 130, and an image generation unit 150.
[0037]
Here, the object space setting unit 110 performs processing for arranging objects in the object space. Taking a three-dimensional game as an example, a position or direction of a moving object such as a car is calculated in real time, or a process of arranging objects constituting a map on which the moving object moves is performed. In the present embodiment, the object space setting unit 110 performs processing for arranging the first and second objects 30 and 32 in FIG. 2 and processing for changing the position and shape of the second object 32 in real time.
[0038]
The mapping unit 120 performs a process for mapping a texture on the object placed in the object space by the object space setting unit 110. In the present embodiment, the mapping unit 120 maps the first texture 20 to the first object 30 in FIG. 2, and the second object 32 arranged so as to overlap the first object 30. On the other hand, a process for mapping the second texture 22 is performed.
[0039]
The mapping unit 120 includes a texture coordinate calculation unit 122. The texture coordinate calculation unit 122 performs processing for calculating texture coordinates U and V for designating a texture to be mapped to an object. More specifically, the texture coordinate calculation unit 122 performs a calculation process for obtaining texture coordinates to be given to the vertices of the second object 32 based on the positions of the vertices of the first and second objects 30 and 32, for example. .
[0040]
The texture storage unit 130 stores a texture to be mapped to an object. The first and second textures 20 and 22 in FIG. 2 are stored in the texture storage unit 130. The texture data is stored in the information storage medium 190 in the initial state, and is transferred from the information storage medium 190 to the texture storage unit 130 after the power is turned on.
[0041]
Further, the image generation unit 150 performs a process of generating an image including an image of the object to which the texture is mapped by the mapping unit 120. The image generated by the image generation unit 150 is displayed on the display unit 160.
[0042]
FIGS. 8A and 8B show examples of images generated by this embodiment. FIGS. 8A and 8B are images representing a state in which a wave strikes the coast. In order to express such an image, in this embodiment, first and second textures 20 and 22 as shown in FIG. 9 are prepared. The first texture 20 is a texture representing a rock, and the second texture 22 is a texture representing a rock in the water. These first and second textures 20 and 22 are mapped to the first and second objects 30 and 32 shown in FIGS. And the shape of the 2nd object 32 arrange | positioned so that it may overlap with the 1st object 30 is changed so that a wave may be represented. This makes it possible to realize a realistic expression of the coast where waves hit, with a small processing load.
[0043]
10A and 10B show other examples of images generated by this embodiment. FIGS. 10A and 10B are images representing a state in which a bomb is dropped on a city and the explosion range expands in real time. In this case, a texture representing the state of the city before the explosion is prepared as the first texture 20, and a texture representing the state of the city after the explosion is prepared as the second texture 22. Then, as shown in FIGS. 10A and 10B, the shape of the second object 32 arranged so as to overlap the first object 30 is changed so as to represent the expansion of the explosion range. As a result, a realistic expression of the destruction of the city by the bomb can be realized with a small processing load.
[0044]
Next, a detailed processing example of this embodiment will be described with reference to the flowchart of FIG.
[0045]
First, as shown in FIG. 12, the first and second objects 30 and 32 are arranged so that the second object 32 overlaps the first object 30 (step S1).
[0046]
Next, the first texture 20 is mapped to the first object 30 (step S2). Here, the first texture 20 mapped to the first object 30 is texture coordinates (Ua0, Va0), (Ua1, Va1), (Ua2) given to the vertices a0, a1, a2, a3 of the first object 30. , Va2), (Ua3, Va3).
[0047]
Next, texture coordinates (Ub0, Vb0), (Ub1, Vb1), (Ub2, Vb2), (Ub3, Vb3) to be given to the vertices b0, b1, b2, b3 of the second object 32 are calculated (step S3). ). These texture coordinates are used to read out the second texture 22 corresponding to the first texture 20 from the texture storage unit 130. More specifically, for example, the position (Xa0, Ya0), (Xa1, Ya1), (Xa2, Ya2), (Xa3, Ya3) of the vertex of the first object 30 and the position of the vertex of the second object Based on the positional relationship with (Xb0, Yb0), (Xb1, Yb1), (Xb2, Yb2), (Xb3, Yb3), texture coordinates (Ub0, Vb0), (Ub1, Vb1), (Ub2, Vb2) and (Ub3, Vb3) are calculated.
[0048]
Next, based on the calculated texture coordinates (Ub0, Vb0) to (Ub3, Vb3), the second texture 22 is mapped to the second object 32 (step S4).
[0049]
As described above, images as shown in B1 of FIG. 2 and C1 of FIG. 4 can be obtained.
[0050]
Next, an example of a hardware configuration capable of realizing the present embodiment will be described with reference to FIG. In the apparatus shown in the figure, a CPU 1000, a ROM 1002, a RAM 1004, an information storage medium 1006, a sound generation IC 1008, an image generation IC 1010, and I / O ports 1012, 1014 are connected to each other via a system bus 1016 so that data can be transmitted and received. A display 1018 is connected to the image generation IC 1010, a speaker 1020 is connected to the sound generation IC 1008, a control device 1022 is connected to the I / O port 1012, and a communication device 1024 is connected to the I / O port 1014. Has been.
[0051]
The information storage medium 1006 mainly stores programs, image data for expressing display objects, sound data, and the like. For example, a consumer game device uses a CD-ROM, game cassette, DVD, or the like as an information storage medium for storing a game program or the like. The arcade game machine uses a memory such as a ROM. In this case, the information storage medium 1006 is a ROM 1002.
[0052]
The control device 1022 corresponds to a game controller, an operation panel, and the like, and is a device for inputting a result of a determination made by the player in accordance with the progress of the game to the device main body.
[0053]
In accordance with a program stored in the information storage medium 1006, a system program stored in the ROM 1002 (such as device initialization information), a signal input by the control device 1022, the CPU 1000 controls the entire device and performs various data processing. . The RAM 1004 is a storage means used as a work area of the CPU 1000 and stores the given contents of the information storage medium 1006 and the ROM 1002 or the calculation result of the CPU 1000. In addition, a data structure (for example, a data structure of a texture or an object) having a logical configuration for realizing the present embodiment is constructed on this RAM or information storage medium.
[0054]
Further, this type of apparatus is provided with a sound generation IC 1008 and an image generation IC 1010 so that game sounds and game images can be suitably output. The sound generation IC 1008 is an integrated circuit that generates game sounds such as sound effects and background music based on information stored in the information storage medium 1006 and the ROM 1002, and the generated game sounds are output by the speaker 1020. The image generation IC 1010 is an integrated circuit that generates pixel information to be output to the display 1018 based on image information sent from the RAM 1004, the ROM 1002, the information storage medium 1006, and the like. As the display 1018, a so-called head mounted display (HMD) can be used.
[0055]
The communication device 1024 exchanges various types of information used inside the game device with the outside. The communication device 1024 is connected to other game devices to send and receive given information according to the game program, and to connect a communication line. It is used for sending and receiving information such as game programs.
[0056]
Various processes described with reference to FIGS. 1 to 10 and 12 include an information storage medium 1006 that stores a program for performing the process shown in the flowchart of FIG. 11, a CPU 1000 that operates according to the program, an image generation IC 1010, a sound This is realized by the generation IC 1008 or the like. The processing performed by the image generation IC 1010, the sound generation IC 1008, and the like may be performed by software using the CPU 1000 or a general-purpose DSP.
[0057]
FIG. 14A shows an example in which the present embodiment is applied to an arcade game machine. The player enjoys the game by operating the lever 1102, the button 1104, and the like while viewing the game image displayed on the display 1100. A CPU, an image generation IC, a sound generation IC, and the like are mounted on a system board 1106 built in the apparatus. Then, information for storing the first texture and the second texture having the first texture as the original image, the first texture is mapped to the first object, and the first object is mapped to the first object. Information for mapping the second texture to the second object arranged so as to overlap, and an image obtained when an object having a material property different from that of the object is superimposed on the object , Information for generating an image obtained when the material property of the object is partially changed, and the like are stored in a memory 1108 that is an information storage medium on the system board 1106. Hereinafter, these pieces of information are referred to as stored information. The stored information includes at least one of program code, image information, sound information, display object shape information, table data, list data, player information, and the like for performing the various processes described above.
[0058]
FIG. 14B shows an example in which the present embodiment is applied to a home game device. The player enjoys the game by operating the game controllers 1202 and 1204 while viewing the game image displayed on the display 1200. In this case, the stored information is stored in a CD-ROM 1206, IC cards 1208, 1209, etc., which are information storage media detachable from the main unit.
[0059]
FIG. 14C shows an example in which the present embodiment is applied to a game device including a host device 1300 and terminals 1304-1 to 1304-n connected to the host device 1300 via a communication line 1302. Show. In this case, the stored information is stored in an information storage medium 1306 such as a magnetic disk device, a magnetic tape device, or a memory that can be controlled by the host device 1300, for example. When the terminals 1304-1 to 1304-n have a CPU, an image generation IC, and a sound generation IC and can generate a game image and a game sound stand-alone, the host device 1300 receives a game image and a game A game program or the like for generating sound is delivered to the terminals 1304-1 to 1304-n. On the other hand, if it cannot be generated stand-alone, the host device 1300 generates a game image and a game sound, which is transmitted to the terminals 1304-1 to 1304-n and output at the terminal.
[0060]
The present invention is not limited to that described in the above embodiment, and various modifications can be made.
[0061]
For example, the texture mapping method is not limited to that described in the present embodiment. For example, the texture space is not limited to two dimensions, and may be three dimensions. That is, texture mapping may be performed using a spatial texture.
[0062]
Further, the image expressed by the present invention is not limited to that described in the present embodiment. For example, according to the present invention, a fire spreads in the grass, mowing, an object corroding or burning, a dirt or stain spreading, a building breaking, a cloud in a puddle Various things can be expressed, such as being crowded.
[0063]
Also, the types of material properties are not limited to those described in this embodiment.
[0064]
The present invention is not limited to home and business game devices, but also various image generation devices such as a simulator, a large attraction device in which a large number of players participate, a personal computer, a multimedia terminal, and a system board for generating game images. It can also be applied to.
[0065]
[Brief description of the drawings]
FIG. 1 is a diagram showing an example of an image that can be seen when a semi-transparent object is superimposed on a background object.
FIG. 2 is a diagram for explaining the principle of the present embodiment.
FIG. 3 is a diagram illustrating an example of an image that can be seen when an object having a refractive index different from that of the background object is superimposed on the background object.
FIG. 4 is a diagram for explaining the principle of the present embodiment.
FIGS. 5A and 5B are diagrams for explaining a technique for changing the position of the second object in real time; FIGS.
FIGS. 6A and 6B are diagrams for explaining a technique for changing the shape of a second object in real time. FIGS.
FIG. 7 is an example of a functional block diagram of the image generation apparatus of the present embodiment.
FIGS. 8A and 8B are diagrams illustrating examples of images generated according to the present embodiment.
FIG. 9 is a diagram illustrating examples of first and second textures.
FIGS. 10A and 10B are diagrams illustrating examples of images generated according to the present embodiment.
FIG. 11 is a flowchart for explaining a detailed processing example of the present embodiment;
FIG. 12 is a diagram for describing a method for calculating texture coordinates of a second object.
FIG. 13 is a diagram illustrating an example of a hardware configuration capable of realizing the present embodiment.
14A, 14B, and 14C are diagrams illustrating examples of various types of apparatuses to which the present embodiment is applied.
[Explanation of symbols]
20 first texture 22 second texture 30 first object 32 second object 100 processing unit 110 object space setting unit 120 mapping unit 122 texture coordinate calculation unit 130 texture storage unit 150 image generation unit 160 display unit 190 information storage Medium

Claims (4)

原画像のマテリアルプロパティを部分的に変化させた画像を生成する画像生成装置であって、
予め作成された第1のテクスチャと、該第1のテクスチャを原画像として予め作成され、該第1のテクスチャのマテリアルプロパティを全体的に変化させた第2のテクスチャとを記憶するテクスチャ記憶手段と、
第1のオブジェクトに重なるように第2のオブジェクトを配置するオブジェクト空間設定手段と、
前記第1のオブジェクトに対して前記第1のテクスチャをマッピングすると共に、前記第2のオブジェクトに対して前記第2のテクスチャをマッピングするマッピング手段と
前記第1のオブジェクトに前記第1のテクスチャをマッピングした画像と、前記第2のオブジェクトに前記第2のテクスチャをマッピングした画像とを、半透明処理を行うことなく重ね合わせた画像を生成する画像生成手段とを含み、
前記マッピング手段が、
前記第1のオブジェクトの頂点と前記第2のオブジェクトの頂点との位置関係に基づいて、前記第2のオブジェクトの頂点に与える前記第2のテクスチャのテクスチャ座標を算出することを特徴とする画像生成装置。
An image generation device that generates an image in which material properties of an original image are partially changed ,
A first texture that is created in advance, formed in advance as the first texture original image, a texture memory for storing a second texture totally alter the material properties of the first texture Means,
Object space setting means for arranging the second object so as to overlap the first object;
With mapping the first texture to the first object, and mapping means for mapping the second texture to the second object,
An image that generates an image obtained by superimposing an image obtained by mapping the first texture on the first object and an image obtained by mapping the second texture on the second object without performing translucent processing. Generating means,
The mapping means is
Generating a texture coordinate of the second texture to be given to the vertex of the second object based on a positional relationship between the vertex of the first object and the vertex of the second object apparatus.
請求項1において、
前記マテリアルプロパティが、色、輝度、半透明度、反射率及び屈折率の少なくとも1つであり、
前記テクスチャ記憶手段が、
前記第1のテクスチャの色、輝度、半透明度、反射率又は屈性率を全体的に変化させた前記第2のテクスチャを記憶することを特徴とする画像生成装置。
In claim 1,
The material property is at least one of color, brightness, translucency, reflectance and refractive index;
The texture storage means
An image generating apparatus that stores the second texture in which the color, brightness, translucency, reflectance, or refractive index of the first texture is changed as a whole .
請求項1乃至のいずれかにおいて、
前記第2のオブジェクトの位置及び形状の少なくとも一方をリアルタイムに変化させる手段を含むことを特徴とする画像生成装置。
In any one of Claims 1 thru | or 2 .
An image generating apparatus comprising: means for changing in real time at least one of a position and a shape of the second object.
原画像のマテリアルプロパティを部分的に変化させた画像を生成するための、コンピュータ読み取り可能な情報記憶媒体であって、
予め作成された第1のテクスチャと、該第1のテクスチャを原画像として予め作成され、該第1のテクスチャのマテリアルプロパティを全体的に変化させた第2のテクスチャとを記憶するテクスチャ記憶手段と、
第1のオブジェクトに重なるように第2のオブジェクトを配置するオブジェクト空間設定手段と、
前記第1のオブジェクトに対して前記第1のテクスチャをマッピングすると共に、前記第2のオブジェクトに対して前記第2のテクスチャをマッピングするマッピング手段と
前記第1のオブジェクトに前記第1のテクスチャをマッピングした画像と、前記第2のオブジェクトに前記第2のテクスチャをマッピングした画像とを、半透明処理を行うことなく重ね合わせた画像を生成する画像生成手段としてコンピュータを機能させ、
前記マッピング手段に、
前記第1のオブジェクトの頂点と前記第2のオブジェクトの頂点との位置関係に基づいて、前記第2のオブジェクトの頂点に与える前記第2のテクスチャのテクスチャ座標を算出させるプログラムを記憶した情報記憶媒体。
A computer-readable information storage medium for generating an image in which material properties of an original image are partially changed ,
A first texture that is created in advance, formed in advance as the first texture original image, a texture memory for storing a second texture totally alter the material properties of the first texture Means,
Object space setting means for arranging the second object so as to overlap the first object;
With mapping the first texture to the first object, and mapping means for mapping the second texture to the second object,
An image that generates an image obtained by superimposing an image obtained by mapping the first texture on the first object and an image obtained by mapping the second texture on the second object without performing translucent processing. Let the computer function as a generation means,
In the mapping means,
An information storage medium storing a program for calculating texture coordinates of the second texture to be given to the vertex of the second object based on a positional relationship between the vertex of the first object and the vertex of the second object .
JP35213997A 1997-12-05 1997-12-05 Image generating apparatus and information storage medium Expired - Fee Related JP4028055B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP35213997A JP4028055B2 (en) 1997-12-05 1997-12-05 Image generating apparatus and information storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP35213997A JP4028055B2 (en) 1997-12-05 1997-12-05 Image generating apparatus and information storage medium

Publications (2)

Publication Number Publication Date
JPH11175746A JPH11175746A (en) 1999-07-02
JP4028055B2 true JP4028055B2 (en) 2007-12-26

Family

ID=18422049

Family Applications (1)

Application Number Title Priority Date Filing Date
JP35213997A Expired - Fee Related JP4028055B2 (en) 1997-12-05 1997-12-05 Image generating apparatus and information storage medium

Country Status (1)

Country Link
JP (1) JP4028055B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4721472B2 (en) * 2009-03-30 2011-07-13 株式会社バンダイナムコゲームス Image generation system and information storage medium
EP2241988B1 (en) 2009-04-14 2018-07-25 Dassault Systèmes Method, program and product edition system for visualizing objects displayed on a computer screen
JP2015194765A (en) * 2015-06-29 2015-11-05 ヤマハ株式会社 Image processing apparatus and karaoke device
CN113181642B (en) * 2021-04-29 2024-01-26 网易(杭州)网络有限公司 Method and device for generating wall model with mixed materials

Also Published As

Publication number Publication date
JPH11175746A (en) 1999-07-02

Similar Documents

Publication Publication Date Title
US6738061B2 (en) Method, apparatus, storage medium, program, and program product for generating image data of virtual three-dimensional space
JP4728721B2 (en) Program, information storage medium, and image generation system
JP3249955B2 (en) Image generation system and information storage medium
JP4804122B2 (en) Program, texture data structure, information storage medium, and image generation system
JP4865472B2 (en) Program, information storage medium, and image generation system
JP4028055B2 (en) Image generating apparatus and information storage medium
JP4749064B2 (en) Program, information storage medium, and image generation system
JP3656012B2 (en) GAME SYSTEM AND INFORMATION STORAGE MEDIUM
JP4229319B2 (en) Image generation system, program, and information storage medium
JP4721476B2 (en) Image generation system and information storage medium
JP3297410B2 (en) Image generation system and information storage medium
JP2004073241A (en) Game system, program, and information storage medium
JP4006243B2 (en) Image generation information, game information, information storage medium, image generation device, and game device
JP4913399B2 (en) Program, information storage medium, and image generation system
JP4528008B2 (en) Program, information storage medium, and image generation system
JP4577968B2 (en) GAME SYSTEM AND INFORMATION STORAGE MEDIUM
JP4574058B2 (en) Image generation system, program, and information storage medium
JP4229317B2 (en) Image generation system, program, and information storage medium
JP4394211B2 (en) Image generation system and information storage medium
JP2010231364A (en) Image generation system, program and information recording medium
JP2003162734A (en) Game system and information storage medium
JP2007164736A (en) Image generation system, program and information storage medium
JP2005275795A (en) Program, information storage medium and image generation system
JP4450535B2 (en) Image generation system and information storage medium
JP2006252291A (en) Program, information storage medium and image generation system

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041202

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041202

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070702

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070711

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070910

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20071003

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20071011

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101019

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101019

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101019

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111019

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111019

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121019

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121019

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131019

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees