JP4028055B2 - Image generating apparatus and information storage medium - Google Patents
Image generating apparatus and information storage medium Download PDFInfo
- Publication number
- JP4028055B2 JP4028055B2 JP35213997A JP35213997A JP4028055B2 JP 4028055 B2 JP4028055 B2 JP 4028055B2 JP 35213997 A JP35213997 A JP 35213997A JP 35213997 A JP35213997 A JP 35213997A JP 4028055 B2 JP4028055 B2 JP 4028055B2
- Authority
- JP
- Japan
- Prior art keywords
- texture
- image
- mapping
- vertex
- storage medium
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Image Generation (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、テクスチャマッピングを用いて画像を生成する画像生成装置及び情報記憶媒体に関する。
【0002】
【背景技術及び発明が解決しようとする課題】
従来より、ゲーム装置、シミュレータなどの画像生成装置として種々のものが知られている。このような画像生成装置では、いわゆる仮想現実感の実現のために、如何にして画像を高品質化するかが大きな技術的課題となっている。そしてこのような画像高品質化技術の1つとして半透明処理と呼ばれる手法が知られている。
【0003】
半透明処理では、背景オブジェクトの色と半透明オブジェクトの色とをブレンディングするブレンド処理や、背景オブジェクトの色をフィルタリングするフィルタ処理を行うことで、各画素(ドット)の色を得る。半透明処理を行うことで半透明表現が可能となり、画像のリアリティを増すことができる。
【0004】
しかしながら、半透明処理では、各画素毎にブレンド処理やフィルタ処理などの演算処理を行わなければならない。したがって、画像生成装置にかかる処理負担が重く、画像生成装置の処理の高速化が妨げられるという問題がある。
【0005】
一方、ブレンド処理やフィルタ処理のみでは、擬似的な半透明表現は可能であるが、現実世界に忠実なリアルな半透明表現はできない。このため、これまでの半透明処理の手法では仮想現実感の実現が不十分であった。
【0006】
また半透明処理を実現するハードウェア機能を有しない画像生成装置においては、半透明表現自体が不可能であるという問題がある。
【0007】
また、よりリアルな画像を表現するためには、光の屈折や反射も表現できることが望まれるが、このような表現を実現しようとすると、画像生成装置のハードウェアが大規模化、複雑化し、画像生成装置の高コスト化を招く。
【0008】
本発明は以上のような技術的課題を達成するためになされたものであり、その目的とするところは、少ない処理負担でより、よりリアルな画像表現が可能となる画像生成装置及び情報記憶媒体を提供することにある。
【0009】
【課題を解決するための手段】
上記課題を解決するために、本発明は、テクスチャマッピングを用いて画像を生成する画像生成装置であって、第1のテクスチャと、該第1のテクスチャを原画像とする第2のテクスチャとを記憶する手段と、第1のオブジェクトに対して前記第1のテクスチャをマッピングすると共に、前記第1のオブジェクトに重なり合うように配置される第2のオブジェクトに対して前記第2のテクスチャをマッピングする手段とを含み、オブジェクトの上に該オブジェクトとは異なるマテリアルプロパティを有するオブジェクトを重ねた場合に得られる画像を生成することを特徴とする。
【0010】
本発明によれば、第1のオブジェクトに重なり合うように配置される第2のオブジェクトに、第1のオブジェクトにマッピングされる第1のテクスチャを原画像とする第2のテクスチャがマッピングされる。そして、オブジェクトの上に、該オブジェクトとは異なるマテリアルプロパティを有するオブジェクトを重ねた場合に得られる画像が生成される。即ち、このような画像を生成させる第1、第2のテクスチャが用意される。これにより、例えば、背景オブジェクトの上に半透明オブジェクトが配置された場合に見える画像等を、画像生成装置の処理負担をそれほど増加させることなく、生成できるようになる。しかも、第1、第2のテクスチャの画像を、高精細で高品質のものにすることで、通常の半透明処理等では得られないリアルな画像を生成することも可能となる。
【0011】
また本発明は、テクスチャマッピングを用いて画像を生成する画像生成装置であって、第1のテクスチャと、該第1のテクスチャを原画像とする第2のテクスチャとを記憶する手段と、第1のオブジェクトに対して前記第1のテクスチャをマッピングすると共に、前記第1のオブジェクトに重なり合うように配置される第2のオブジェクトに対して前記第2のテクスチャをマッピングする手段とを含み、オブジェクトのマテリアルプロパティを部分的に変化させた場合に得られる画像を生成することを特徴とする。
【0012】
本発明によれば、第2のオブジェクトに、第1のテクスチャを原画像とする第2のテクスチャがマッピングされ、オブジェクトのマテリアルプロパティを部分的に変化させた場合に得られる画像が生成される。即ち、このような画像を生成させる第1、第2のテクスチャが用意される。これにより、例えば、背景オブジェクトの色、輝度、半透明度、反射率、屈折率を部分的に変化させた場合に見える画像等を、画像生成装置の処理負担をそれほど増加させることなく、生成できるようになる。しかも、第1、第2のテクスチャの画像を、高精細で高品質のものにすることで、通常の処理では得られないリアルな画像を生成することも可能となる。
【0013】
また本発明は、前記マテリアルプロパティが、色、輝度、半透明度、反射率及び屈折率の少なくとも1つであることを特徴とする。このようにマテリアルプロパティとしては種々のものを考えることができる。但し、本発明におけるマテリアルプロパティはこれらに限られるものではない。
【0014】
また本発明は、前記第2のオブジェクトの位置及び形状の少なくとも一方をリアルタイムに変化させることを特徴とする。このようにすることで、例えば背景オブジェクトの上で半透明オブジェクトが動いたり、その形状が変化する等の、種々の画像を得ることが可能になる。
【0015】
また本発明は、前記第1、第2のオブジェクトの頂点の位置に基づいて前記第2のオブジェクトの頂点に与えるテクスチャ座標を求め、このテクスチャ座標に基づいて前記第2のオブジェクトに前記第2のテクスチャをマッピングすることを特徴とする。このようにすることで、第2のテクスチャを記憶手段から読み出す際に使用するテクスチャ座標を、簡易な処理で得ることが可能になる。
【0016】
【発明の実施の形態】
以下、本発明の好適な実施形態について図面を用いて説明する。なお以下では、オブジェクトが1又は複数のポリゴンにより構成される場合を例にとり説明する。しかしながら、本発明は、ポリゴン以外の曲面などのプリミティブ面で構成されるオブジェクト等、種々のオブジェクトに適用できる。
【0017】
まず本実施形態の原理について説明する。今、図1に示すように、Aの文字が描かれている背景オブジェクト300の上に、半透明オブジェクト302を重ねた場合に見える画像を考える。このような画像を生成するのに、これまでは、半透明処理と呼ばれる手法を採用していた。例えば半透明処理の1つであるブレンド処理では次式(1)のような演算処理を行う。
RQ=OP1×RT+(1−OP1)×RX
GQ=OP1×GT+(1−OP1)×GX (1)
BQ=OP1×BT+(1−OP1)×BX
ここで、OP1はブレンド処理におけるオパシティ(不透明度)であり、RT、GT、BTは半透明オブジェクトの色データ、RX、GX、BXは背景オブジェクトの色データ、RQ、GQ、BQは半透明処理で得られる色データである。なおOP1を、R、G、B毎に異ならせてもよい。
【0018】
また半透明処理の1つであるフィルタ処理では次式(2)のような演算処理を行う。
RQ=OP2×FR×RX
GQ=OP2×FG×GX (2)
BQ=OP2×FB×BX
ここで、OP2はフィルタ処理におけるオパシティであり、FR、FG、FBは、半透明オブジェクトのフィルタ係数である。
【0019】
以上のようなブレンド処理やフィルタ処理などの半透明処理では、いずれも、各画素毎に上式(1)、(2)に示すような演算処理を行わなければならない。したがって、画像生成装置にかかる処理負担が過大になり、処理の高速化が妨げられるという問題がある。
【0020】
また上式(1)、(2)に示すような演算処理では、擬似的な半透明表現は可能であるが、現実の世界に近いリアルな半透明表現はできないという問題がある。
【0021】
このような問題を解決するために、本実施形態に係る画像生成装置は以下のような特徴を有している。即ち図2に示すように本実施形態では、まず、テクスチャ空間(U、V空間)内に、第1のテクスチャ20と、この第1のテクスチャ20を原画像とする第2のテクスチャ22を用意する。より具体的には、第1のテクスチャ20は、Aの文字が描かれる背景オブジェクトの画像を表すものである。一方、第2のテクスチャ22は、第1のテクスチャ20により表される背景オブジェクトの全面に半透明オブジェクトが重なっている場合に見える画像を表すものである。例えば半透明オブジェクトの色が青である場合には、第2のテクスチャ22は、第1のテクスチャ20を全体的に青みがかった色にした画像を表すことになる。
【0022】
そして本実施形態に係る画像生成装置では図2に示すように、第1のオブジェクト30に対して、上記の第1のテクスチャ20をマッピングする。一方、第1のオブジェクト30に重なり合うように配置される第2のオブジェクト32に対して、上記の第2のテクスチャ22をマッピングする。なお、第1、第2のオブジェクト30、32は、例えば少なくとも1つのプリミティブ面(ポリゴン、曲面等)により構成されている。
【0023】
以上のようにテクスチャマッピングを行うことで、図2のB1に示すような画像を得ることができる。即ちブレンド処理やフィルタ処理などの半透明処理を行うことなく、背景オブジェクトの上に、半透明オブジェクト(背景オブジェクトとは異なるマテリアルプロパティを有するオブジェクト)を重ねた場合に見える画像を生成できるようになる。
【0024】
この場合、第1、第2のテクスチャ20、22は、高精細で高品質な画像を生成できる能力を有するワークステーション等により予め作成され、画像生成装置内のテクスチャ記憶部(図7の130参照)に記憶されている。したがって画像生成装置は、第1、第2のテクスチャ20、22自体を生成する必要はなく、画像生成装置にかかる処理負担は、第1、第2のテクスチャ20、22のマッピングに要する処理負担だけとなる。したがって、上式(1)、(2)に示すようなブレンド処理やフィルタ処理などの半透明処理に比べて、処理負担を大幅に軽減できる。また、第1、第2のテクスチャ20、22は、高精細で高品質な画像を生成できるワークステーションなどにより作成できるため、ブレンド処理やフィルタ処理などの半透明処理により画像を生成する場合に比べて、格段にリアルな画像を生成できるようになる。
【0025】
なお、以上ではマテリアルプロパティとして半透明度(透明度)を例にとり説明したが、マテリアルプロパティとしては、これ以外にも、色、輝度、反射率(鏡面反射、拡散反射)、屈折率等、種々のものを考えることができる。即ち、本実施形態によれば、背景オブジェクトの上に、背景オブジェクトとは色、輝度、反射率、半透明度、屈折率などのマテリアルプロパティが異なるオブジェクトを重ねた場合に見える画像を生成できる。
【0026】
例えば図3に、背景オブジェクトの上に、背景オブジェクトとは異なる屈折率を有するオブジェクトを重ねた場合に見える画像の例を示す。一般的に、光の屈折や反射を表現しようとすると、画像生成装置の処理負担の増加、ハードウェアの大規模化、高コスト化を招く。これに対して、本実施形態では、光の屈折が表現されるように図2の第1、第2のテクスチャ20、22を予め作成しておくだけで、図3に示すような画像を表現できる。したがって、画像生成装置の処理負担をそれほど増加することなく、リアルな画像を生成できる。
【0027】
以上では、背景オブジェクトの上に、背景オブジェクトとはマテリアルプロパティが異なるオブジェクトを重ねた場合に見える画像を生成する例を示した。しかしながら、本実施形態によれば、背景オブジェクトのマテリアルプロパティを部分的に変化させた場合に見える画像を生成することもできる。
【0028】
即ち図4において、第2のテクスチャ22は、第1のテクスチャ20を原画像として、第1のテクスチャ20の輝度を全体的に高くした場合の画像を表すものである。そして、第1のテクスチャ20を第1のオブジェクト30にマッピングすると共に、第1のオブジェクト30に重なり合うように配置される第2のオブジェクト32に第2のテクスチャ22をマッピングする。これにより、図4のC1に示すように、背景オブジェクトの輝度(マテリアルプロパティ)を部分的に変化させた場合に得られる画像が生成されることになる。これにより、画像生成装置の処理負担をそれほど増すことなく、リアルな画像を生成できるようになる。
【0029】
なお、この場合のマテリアルプロパティとしても、色、輝度、半透明度、反射率、屈折率等、種々のものを考えることができる。
【0030】
また図5(A)では、第2のオブジェクト32の位置を、第1のオブジェクト30の上でリアルタイムに変化させている。このようにすることで、図5(B)に示すように、背景オブジェクトの上で半透明オブジェクトがリアルタイムに移動するという表現が可能になる。即ち、例えば看板の上でアメーバが自在に移動するというような表現が可能となる。
【0031】
また図6(A)では、第2のオブジェクト32の形状を、第1のオブジェクト30の上でリアルタイムに変化させている。このようにすることで、図6(B)に示すように、背景オブジェクトの上で半透明オブジェクトの形状がリアルタイムに変化して行くという表現が可能になる。即ち、例えば看板の上でアメーバが次第に大きくなったり小さくなって行くというような表現が可能となる。
【0032】
前述のブレンド処理やフィルタ処理などの半透明処理を用いて図5(B)、図6(B)に示すような表現を実現するためには、半透明処理を施す範囲をリアルタイムに変化させなければならない。したがって、処理が複雑化し処理負担が増加する。本実施形態によれば、第2のオブジェクト32の位置や形状を変化させるだけで図5(B)、図6(B)に示すような表現が可能となる。したがって、少ない処理負担で、これまでにないリアルな映像効果を得ることができるようになる。
【0033】
図7に、本実施形態の画像生成装置の機能ブロック図の一例を示す。
【0034】
処理部100は、画像生成のための種々の処理を行うものである。この処理部100の機能は、CPU(CISC型、RISC型)、DSP、カスタム(ゲートアレイ等)IC、メモリなどの種々のハードウェアにより実現できる。
【0035】
情報記憶媒体190は、プログラムやデータを記憶するものである。この情報記憶媒体190の機能は、CD−ROM、ゲームカセット、ICカード、MO、FD、DVD、ハードディスク、メモリなどのハードウェアにより実現できる。処理部100は、この情報記憶媒体190からのプログラム、データに基づいて種々の処理を行うことになる。
【0036】
処理部100は、オブジェクト空間設定部110、マッピング部120、テクスチャ記憶部130及び画像生成部150を含む。
【0037】
ここでオブジェクト空間設定部110は、オブジェクト空間にオブジェクトを配置する処理等を行うものである。3次元ゲームを例にとれば、車などの移動体のオブジェクトの位置や方向をリアルタイムに演算したり、移動体が移動するマップを構成するオブジェクトを配置する処理等を行う。本実施形態では、このオブジェクト空間設定部110が、図2の第1、第2のオブジェクト30、32を配置する処理や、第2のオブジェクト32の位置や形状をリアルタイムに変化させる処理を行う。
【0038】
マッピング部120は、オブジェクト空間設定部110によりオブジェクト空間に配置されたオブジェクトに対して、テクスチャをマッピングするための処理を行うものである。本実施形態では、このマッピング部120が、図2の第1のオブジェクト30に対して第1のテクスチャ20をマッピングすると共に、第1のオブジェクト30に重なり合うように配置される第2のオブジェクト32に対して第2のテクスチャ22をマッピングするための処理を行う。
【0039】
マッピング部120は、テクスチャ座標演算部122を含む。このテクスチャ座標演算部122は、オブジェクトにマッピングするテクスチャを指定するためのテクスチャ座標U、Vを演算する処理を行うものである。より具体的には、テクスチャ座標演算部122は、例えば、第1、第2のオブジェクト30、32の頂点の位置に基づいて、第2のオブジェクト32の頂点に与えるテクスチャ座標を求める演算処理を行う。
【0040】
テクスチャ記憶部130は、オブジェクトにマッピングするテクスチャを記憶するものである。図2の第1、第2のテクスチャ20、22はこのテクスチャ記憶部130に記憶される。なおテクスチャのデータは、初期状態では情報記憶媒体190に格納されており、電源投入後等に情報記憶媒体190からテクスチャ記憶部130に転送される。
【0041】
また画像生成部150は、マッピング部120によりテクスチャがマッピングされたオブジェクトの画像を含む画像を生成する処理を行う。画像生成部150により生成された画像は表示部160において表示される。
【0042】
図8(A)、(B)に、本実施形態により生成される画像の一例を示す。図8(A)、(B)は、海岸に波が打ち寄せる様子を表現する画像である。このような画像を表現するために本実施形態では、図9に示すような第1、第2のテクスチャ20、22を用意する。第1のテクスチャ20は岩を表すテクスチャであり、第2のテクスチャ22は、水の中のある岩を表すテクスチャである。これらの第1、第2のテクスチャ20、22は、図8(A)、(B)の第1、第2のオブジェクト30、32にマッピングされる。そして、第1のオブジェクト30に重なるように配置される第2のオブジェクト32の形状を、波を表すように変化させる。これにより、波が打ち寄せる海岸のリアルな表現を、少ない処理負担で実現できるようになる。
【0043】
図10(A)、(B)に、本実施形態により生成される画像の他の例を示す。図10(A)、(B)は、街に爆弾が投下され、その爆発範囲がリアルタイムに広がってゆく様子を表現する画像である。この場合には、第1のテクスチャ20として爆発前の街の様子を表すテクスチャを用意し、第2のテクスチャ22として爆発後の街の様子を表すテクスチャを用意する。そして、図10(A)、(B)に示すように、第1のオブジェクト30に重なるように配置される第2のオブジェクト32の形状を、爆発範囲の拡大を表すように変化させる。これにより、爆弾による街の破壊のリアルな表現を、少ない処理負担で実現できるようになる。
【0044】
次に本実施形態の詳細な処理例について、図11のフローチャートを用いて説明する。
【0045】
まず、図12に示すように第1のオブジェクト30に第2のオブジェクト32が重なるように、第1、第2のオブジェクト30、32を配置する(ステップS1)。
【0046】
次に、第1のオブジェクト30に第1のテクスチャ20をマッピングする(ステップS2)。ここで第1のオブジェクト30にマッピングされる第1のテクスチャ20は、第1のオブジェクト30の頂点a0、a1、a2、a3に与えるテクスチャ座標(Ua0、Va0)、(Ua1、Va1)、(Ua2、Va2)、(Ua3、Va3)により指定される。
【0047】
次に、第2のオブジェクト32の頂点b0、b1、b2、b3に与えるテクスチャ座標(Ub0、Vb0)、(Ub1、Vb1)、(Ub2、Vb2)、(Ub3、Vb3)を算出する(ステップS3)。これらのテクスチャ座標は、第1のテクスチャ20に対応する第2のテクスチャ22をテクスチャ記憶部130から読み出すために使用される。より具体的には、例えば、第1のオブジェクト30の頂点の位置(Xa0、Ya0)、(Xa1、Ya1)、(Xa2、Ya2)、(Xa3、Ya3)と、第2のオブジェクトの頂点の位置(Xb0、Yb0)、(Xb1、Yb1)、(Xb2、Yb2)、(Xb3、Yb3)との間の位置関係に基づいて、テクスチャ座標(Ub0、Vb0)、(Ub1、Vb1)、(Ub2、Vb2)、(Ub3、Vb3)を算出する。
【0048】
次に、算出されたテクスチャ座標(Ub0、Vb0)〜(Ub3、Vb3)に基づいて、第2のテクスチャ22を第2のオブジェクト32にマッピングする(ステップS4)。
【0049】
以上のようにして、図2のB1、図4のC1に示すような画像を得ることができる。
【0050】
次に、本実施形態を実現できるハードウェアの構成の一例について図13を用いて説明する。同図に示す装置では、CPU1000、ROM1002、RAM1004、情報記憶媒体1006、音生成IC1008、画像生成IC1010、I/Oポート1012、1014が、システムバス1016により相互にデータ送受信可能に接続されている。そして前記画像生成IC1010にはディスプレイ1018が接続され、音生成IC1008にはスピーカ1020が接続され、I/Oポート1012にはコントロール装置1022が接続され、I/Oポート1014には通信装置1024が接続されている。
【0051】
情報記憶媒体1006は、プログラム、表示物を表現するための画像データ、音データ等が主に格納されるものである。例えば家庭用ゲーム装置ではゲームプログラム等を格納する情報記憶媒体としてCD−ROM、ゲームカセット、DVD等が用いられる。また業務用ゲーム装置ではROM等のメモリが用いられ、この場合には情報記憶媒体1006はROM1002になる。
【0052】
コントロール装置1022はゲームコントローラ、操作パネル等に相当するものであり、プレーヤがゲーム進行に応じて行う判断の結果を装置本体に入力するための装置である。
【0053】
情報記憶媒体1006に格納されるプログラム、ROM1002に格納されるシステムプログラム(装置本体の初期化情報等)、コントロール装置1022によって入力される信号等に従って、CPU1000は装置全体の制御や各種データ処理を行う。RAM1004はこのCPU1000の作業領域等として用いられる記憶手段であり、情報記憶媒体1006やROM1002の所与の内容、あるいはCPU1000の演算結果等が格納される。また本実施形態を実現するための論理的な構成を持つデータ構造(例えばテクスチャやオブジェクトのデータ構造)は、このRAM又は情報記憶媒体上に構築されることになる。
【0054】
更に、この種の装置には音生成IC1008と画像生成IC1010とが設けられていてゲーム音やゲーム画像の好適な出力が行えるようになっている。音生成IC1008は情報記憶媒体1006やROM1002に記憶される情報に基づいて効果音やバックグラウンド音楽等のゲーム音を生成する集積回路であり、生成されたゲーム音はスピーカ1020によって出力される。また、画像生成IC1010は、RAM1004、ROM1002、情報記憶媒体1006等から送られる画像情報に基づいてディスプレイ1018に出力するための画素情報を生成する集積回路である。なおディスプレイ1018として、いわゆるヘッドマウントディスプレイ(HMD)と呼ばれるものを使用することもできる。
【0055】
また、通信装置1024はゲーム装置内部で利用される各種の情報を外部とやりとりするものであり、他のゲーム装置と接続されてゲームプログラムに応じた所与の情報を送受したり、通信回線を介してゲームプログラム等の情報を送受することなどに利用される。
【0056】
そして図1〜図10、図12で説明した種々の処理は、図11のフローチャートに示した処理等を行うプログラムを格納した情報記憶媒体1006と、該プログラムに従って動作するCPU1000、画像生成IC1010、音生成IC1008等によって実現される。なお画像生成IC1010、音生成IC1008等で行われる処理は、CPU1000あるいは汎用のDSP等によりソフトウェア的に行ってもよい。
【0057】
図14(A)に、本実施形態を業務用ゲーム装置に適用した場合の例を示す。プレーヤは、ディスプレイ1100上に映し出されたゲーム画像を見ながら、レバー1102、ボタン1104等を操作してゲームを楽しむ。装置に内蔵されるシステム基板1106には、CPU、画像生成IC、音生成IC等が実装されている。そして、第1のテクスチャと、第1のテクスチャを原画像とする第2のテクスチャとを記憶するための情報、第1のオブジェクトに対して第1のテクスチャをマッピングすると共に、第1のオブジェクトに重なり合うように配置される第2のオブジェクトに対して第2のテクスチャをマッピングするための情報、オブジェクトの上に該オブジェクトとは異なるマテリアルプロパティを有するオブジェクトを重ねた場合に得られる画像を生成するための情報、オブジェクトのマテリアルプロパティを部分的に変化させた場合に得られる画像を生成するための情報等は、システム基板1106上の情報記憶媒体であるメモリ1108に格納される。以下、これらの情報を格納情報と呼ぶ。これらの格納情報は、上記の種々の処理を行うためのプログラムコード、画像情報、音情報、表示物の形状情報、テーブルデータ、リストデータ、プレーヤ情報等の少なくとも1つを含むものである。
【0058】
図14(B)に、本実施形態を家庭用のゲーム装置に適用した場合の例を示す。プレーヤはディスプレイ1200に映し出されたゲーム画像を見ながら、ゲームコントローラ1202、1204を操作してゲームを楽しむ。この場合、上記格納情報は、本体装置に着脱自在な情報記憶媒体であるCD−ROM1206、ICカード1208、1209等に格納されている。
【0059】
図14(C)に、ホスト装置1300と、このホスト装置1300と通信回線1302を介して接続される端末1304-1〜1304-nとを含むゲーム装置に本実施形態を適用した場合の例を示す。この場合、上記格納情報は、例えばホスト装置1300が制御可能な磁気ディスク装置、磁気テープ装置、メモリ等の情報記憶媒体1306に格納されている。端末1304-1〜1304-nが、CPU、画像生成IC、音生成ICを有し、スタンドアロンでゲーム画像、ゲーム音を生成できるものである場合には、ホスト装置1300からは、ゲーム画像、ゲーム音を生成するためのゲームプログラム等が端末1304-1〜1304-nに配送される。一方、スタンドアロンで生成できない場合には、ホスト装置1300がゲーム画像、ゲーム音を生成し、これを端末1304-1〜1304-nに伝送し端末において出力することになる。
【0060】
なお本発明は、上記実施形態で説明したものに限らず、種々の変形実施が可能である。
【0061】
例えばテクスチャマッピングの手法は本実施形態で説明したものに限られるものではない。例えばテクスチャ空間は2次元に限られるものではなく3次元であってもよい。即ち空間テクスチャを用いてテクスチャマッピングを行ってもよい。
【0062】
また本発明により表現される画像も本実施形態で説明したものに限られるものではない。例えば本発明によれば、草むらで火事が広がって行く様子、草刈り、物体が腐食したり焼けただれて行く様子、汚れや染みが広がって行く様子、建物が壊れて行く様子、水たまりに雲が映り込んでいる様子等、種々のものを表現できる。
【0063】
またマテリアルプロパティの種類も本実施形態で説明したものに限られるものではない。
【0064】
また本発明は、家庭用、業務用のゲーム装置のみならず、シミュレータ、多数のプレーヤが参加する大型アトラクション装置、パーソナルコンピュータ、マルチメディア端末、ゲーム画像を生成するシステム基板等の種々の画像生成装置にも適用できる。
【0065】
【図面の簡単な説明】
【図1】背景オブジェクトの上に半透明オブジェクトが重なっている場合に見える画像の例を示す図である。
【図2】本実施形態の原理について説明するための図である。
【図3】背景オブジェクトの上に背景オブジェクトとは異なる屈折率を有するオブジェクトを重ねた場合に見える画像の例を示す図である。
【図4】本実施形態の原理について説明するための図である。
【図5】図5(A)、(B)は、第2のオブジェクトの位置をリアルタイムに変化させる手法について説明するための図である。
【図6】図6(A)、(B)は、第2のオブジェクトの形状をリアルタイムに変化させる手法について説明するための図である。
【図7】本実施形態の画像生成装置の機能ブロック図の一例である。
【図8】図8(A)、(B)は本実施形態により生成される画像の例を示す図である。
【図9】第1、第2のテクスチャの例を示す図である。
【図10】図10(A)、(B)は本実施形態により生成される画像の例を示す図である。
【図11】本実施形態の詳細な処理例を説明するためのフローチャートである。
【図12】第2のオブジェクトのテクスチャ座標を算出する手法について説明するための図である。
【図13】本実施形態を実現できるハードウェアの構成の一例を示す図である。
【図14】図14(A)、(B)、(C)は、本実施形態が適用される種々の形態の装置の例を示す図である。
【符号の説明】
20 第1のテクスチャ
22 第2のテクスチャ
30 第1のオブジェクト
32 第2のオブジェクト
100 処理部
110 オブジェクト空間設定部
120 マッピング部
122 テクスチャ座標演算部
130 テクスチャ記憶部
150 画像生成部
160 表示部
190 情報記憶媒体[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image generation apparatus and an information storage medium that generate an image using texture mapping.
[0002]
[Background Art and Problems to be Solved by the Invention]
Conventionally, various types of image generation devices such as game devices and simulators are known. In such an image generating apparatus, how to improve the quality of an image has become a major technical issue in order to realize so-called virtual reality. A technique called translucent processing is known as one of such image quality enhancement techniques.
[0003]
In the translucent process, the color of each pixel (dot) is obtained by performing a blend process for blending the color of the background object and the color of the translucent object and a filter process for filtering the color of the background object. By performing translucent processing, translucent expression is possible, and the reality of the image can be increased.
[0004]
However, in the semi-transparent processing, calculation processing such as blend processing and filter processing has to be performed for each pixel. Therefore, there is a problem that the processing load on the image generation apparatus is heavy and the speeding up of the processing of the image generation apparatus is hindered.
[0005]
On the other hand, pseudo-translucent expression is possible only by blend processing and filter processing, but real translucent expression faithful to the real world cannot be achieved. For this reason, the realization of virtual reality has been insufficient with the conventional translucent processing methods.
[0006]
Further, in an image generation apparatus that does not have a hardware function for realizing translucent processing, there is a problem that translucent expression itself is impossible.
[0007]
In order to represent a more realistic image, it is desirable to be able to express light refraction and reflection. However, if such an expression is to be realized, the hardware of the image generation device becomes larger and more complicated, This increases the cost of the image generation apparatus.
[0008]
The present invention has been made to achieve the above technical problem, and an object of the present invention is to provide an image generation apparatus and an information storage medium capable of more realistic image expression with a small processing load. Is to provide.
[0009]
[Means for Solving the Problems]
In order to solve the above-described problem, the present invention provides an image generation apparatus that generates an image using texture mapping, and includes a first texture and a second texture having the first texture as an original image. Means for storing, and means for mapping the first texture to the first object and mapping the second texture to the second object arranged to overlap the first object And an image obtained when an object having a material property different from that of the object is superimposed on the object.
[0010]
According to the present invention, the second texture having the first texture mapped to the first object as the original image is mapped to the second object arranged to overlap the first object. Then, an image obtained when an object having a material property different from that of the object is superimposed on the object is generated. That is, first and second textures for generating such an image are prepared. As a result, for example, an image or the like that can be seen when a translucent object is placed on a background object can be generated without significantly increasing the processing load of the image generation apparatus. In addition, by making the first and second texture images high-definition and high-quality, it is possible to generate a realistic image that cannot be obtained by a normal translucent process or the like.
[0011]
The present invention also relates to an image generation apparatus that generates an image using texture mapping, the first texture and a second texture having the first texture as an original image, a first texture, Means for mapping the first texture to a second object and means for mapping the second texture to a second object arranged to overlap the first object, An image obtained when the property is partially changed is generated.
[0012]
According to the present invention, the second texture having the first texture as the original image is mapped to the second object, and an image obtained when the material property of the object is partially changed is generated. That is, first and second textures for generating such an image are prepared. As a result, for example, an image that can be seen when the color, brightness, translucency, reflectance, and refractive index of the background object are partially changed can be generated without increasing the processing load of the image generating apparatus so much. become. In addition, by making the first and second texture images high-definition and high-quality, it is possible to generate a realistic image that cannot be obtained by normal processing.
[0013]
In the invention, it is preferable that the material property is at least one of color, luminance, translucency, reflectance, and refractive index. As described above, various material properties can be considered. However, the material property in the present invention is not limited to these.
[0014]
The present invention is characterized in that at least one of the position and shape of the second object is changed in real time. In this way, it is possible to obtain various images such as a semi-transparent object moving on the background object or changing its shape.
[0015]
Further, the present invention obtains texture coordinates to be given to the vertices of the second object based on the positions of the vertices of the first and second objects, and assigns the second object to the second object based on the texture coordinates. It is characterized by mapping a texture. By doing in this way, the texture coordinate used when reading a 2nd texture from a memory | storage means can be obtained by a simple process.
[0016]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings. In the following, a case where an object is composed of one or a plurality of polygons will be described as an example. However, the present invention can be applied to various objects such as an object composed of a primitive surface such as a curved surface other than a polygon.
[0017]
First, the principle of this embodiment will be described. Now, as shown in FIG. 1, consider an image that appears when a
R Q = OP 1 × R T + (1−OP 1 ) × R X
G Q = OP 1 × G T + (1−OP 1 ) × G X (1)
B Q = OP 1 × B T + (1−OP 1 ) × B X
Here, OP 1 is an opacity (opacity) in the blending process, R T, G T , and B T are color data of the translucent object, R X , G X , and B X are color data of the background object, R Q , G Q and B Q are color data obtained by translucent processing. Note that OP 1 may be different for each of R, G, and B.
[0018]
In the filter process, which is one of the translucent processes, an arithmetic process such as the following expression (2) is performed.
R Q = OP 2 × F R × R X
G Q = OP 2 × F G × G X (2)
B Q = OP 2 × F B × B X
Here, OP 2 is an opacity in the filtering process, and F R , F G , and F B are filter coefficients of the translucent object.
[0019]
In the translucent processes such as the blend process and the filter process as described above, it is necessary to perform an arithmetic process as shown in the above equations (1) and (2) for each pixel. Therefore, there is a problem that the processing load on the image generating apparatus becomes excessive and the speeding up of the processing is hindered.
[0020]
In addition, in the arithmetic processing shown in the above formulas (1) and (2), pseudo-translucent expression is possible, but there is a problem that realistic translucent expression close to the real world cannot be performed.
[0021]
In order to solve such a problem, the image generation apparatus according to the present embodiment has the following characteristics. That is, as shown in FIG. 2, in the present embodiment, first, a
[0022]
In the image generation apparatus according to the present embodiment, the
[0023]
By performing texture mapping as described above, an image as shown in B1 of FIG. 2 can be obtained. In other words, an image that can be seen when a semi-transparent object (an object having a material property different from that of the background object) is superimposed on the background object can be generated without performing a semi-transparent process such as a blend process or a filter process. .
[0024]
In this case, the first and
[0025]
In the above description, semi-transparency (transparency) has been described as an example of material properties. However, there are various other material properties such as color, brightness, reflectivity (specular reflection, diffuse reflection), and refractive index. Can think. That is, according to the present embodiment, it is possible to generate an image that is visible when an object having different material properties such as color, brightness, reflectance, translucency, and refractive index is superimposed on the background object.
[0026]
For example, FIG. 3 shows an example of an image that can be seen when an object having a refractive index different from that of the background object is superimposed on the background object. In general, expressing the refraction or reflection of light causes an increase in processing load on the image generation apparatus, an increase in hardware scale, and an increase in cost. On the other hand, in the present embodiment, an image as shown in FIG. 3 can be expressed simply by creating the first and
[0027]
In the above, an example has been shown in which an image that is visible when an object having a material property different from that of the background object is superimposed on the background object is generated. However, according to the present embodiment, it is possible to generate an image that can be seen when the material property of the background object is partially changed.
[0028]
That is, in FIG. 4, the
[0029]
Various material properties such as color, brightness, translucency, reflectance, and refractive index can be considered as material properties in this case.
[0030]
In FIG. 5A, the position of the
[0031]
In FIG. 6A, the shape of the
[0032]
In order to realize the expressions shown in FIGS. 5B and 6B using the above-described translucent processing such as blend processing and filter processing, the range to be subjected to the translucent processing must be changed in real time. I must. Therefore, the processing becomes complicated and the processing load increases. According to the present embodiment, it is possible to express as shown in FIGS. 5B and 6B only by changing the position and shape of the
[0033]
FIG. 7 shows an example of a functional block diagram of the image generation apparatus of the present embodiment.
[0034]
The
[0035]
The information storage medium 190 stores programs and data. The function of the information storage medium 190 can be realized by hardware such as a CD-ROM, game cassette, IC card, MO, FD, DVD, hard disk, and memory. The
[0036]
The
[0037]
Here, the object
[0038]
The
[0039]
The
[0040]
The
[0041]
Further, the
[0042]
FIGS. 8A and 8B show examples of images generated by this embodiment. FIGS. 8A and 8B are images representing a state in which a wave strikes the coast. In order to express such an image, in this embodiment, first and
[0043]
10A and 10B show other examples of images generated by this embodiment. FIGS. 10A and 10B are images representing a state in which a bomb is dropped on a city and the explosion range expands in real time. In this case, a texture representing the state of the city before the explosion is prepared as the
[0044]
Next, a detailed processing example of this embodiment will be described with reference to the flowchart of FIG.
[0045]
First, as shown in FIG. 12, the first and
[0046]
Next, the
[0047]
Next, texture coordinates (Ub0, Vb0), (Ub1, Vb1), (Ub2, Vb2), (Ub3, Vb3) to be given to the vertices b0, b1, b2, b3 of the
[0048]
Next, based on the calculated texture coordinates (Ub0, Vb0) to (Ub3, Vb3), the
[0049]
As described above, images as shown in B1 of FIG. 2 and C1 of FIG. 4 can be obtained.
[0050]
Next, an example of a hardware configuration capable of realizing the present embodiment will be described with reference to FIG. In the apparatus shown in the figure, a
[0051]
The
[0052]
The
[0053]
In accordance with a program stored in the
[0054]
Further, this type of apparatus is provided with a
[0055]
The
[0056]
Various processes described with reference to FIGS. 1 to 10 and 12 include an
[0057]
FIG. 14A shows an example in which the present embodiment is applied to an arcade game machine. The player enjoys the game by operating the
[0058]
FIG. 14B shows an example in which the present embodiment is applied to a home game device. The player enjoys the game by operating the
[0059]
FIG. 14C shows an example in which the present embodiment is applied to a game device including a host device 1300 and terminals 1304-1 to 1304-n connected to the host device 1300 via a
[0060]
The present invention is not limited to that described in the above embodiment, and various modifications can be made.
[0061]
For example, the texture mapping method is not limited to that described in the present embodiment. For example, the texture space is not limited to two dimensions, and may be three dimensions. That is, texture mapping may be performed using a spatial texture.
[0062]
Further, the image expressed by the present invention is not limited to that described in the present embodiment. For example, according to the present invention, a fire spreads in the grass, mowing, an object corroding or burning, a dirt or stain spreading, a building breaking, a cloud in a puddle Various things can be expressed, such as being crowded.
[0063]
Also, the types of material properties are not limited to those described in this embodiment.
[0064]
The present invention is not limited to home and business game devices, but also various image generation devices such as a simulator, a large attraction device in which a large number of players participate, a personal computer, a multimedia terminal, and a system board for generating game images. It can also be applied to.
[0065]
[Brief description of the drawings]
FIG. 1 is a diagram showing an example of an image that can be seen when a semi-transparent object is superimposed on a background object.
FIG. 2 is a diagram for explaining the principle of the present embodiment.
FIG. 3 is a diagram illustrating an example of an image that can be seen when an object having a refractive index different from that of the background object is superimposed on the background object.
FIG. 4 is a diagram for explaining the principle of the present embodiment.
FIGS. 5A and 5B are diagrams for explaining a technique for changing the position of the second object in real time; FIGS.
FIGS. 6A and 6B are diagrams for explaining a technique for changing the shape of a second object in real time. FIGS.
FIG. 7 is an example of a functional block diagram of the image generation apparatus of the present embodiment.
FIGS. 8A and 8B are diagrams illustrating examples of images generated according to the present embodiment.
FIG. 9 is a diagram illustrating examples of first and second textures.
FIGS. 10A and 10B are diagrams illustrating examples of images generated according to the present embodiment.
FIG. 11 is a flowchart for explaining a detailed processing example of the present embodiment;
FIG. 12 is a diagram for describing a method for calculating texture coordinates of a second object.
FIG. 13 is a diagram illustrating an example of a hardware configuration capable of realizing the present embodiment.
14A, 14B, and 14C are diagrams illustrating examples of various types of apparatuses to which the present embodiment is applied.
[Explanation of symbols]
20
Claims (4)
予め作成された第1のテクスチャと、該第1のテクスチャを原画像として予め作成され、該第1のテクスチャのマテリアルプロパティを全体的に変化させた第2のテクスチャとを記憶するテクスチャ記憶手段と、
第1のオブジェクトに重なるように第2のオブジェクトを配置するオブジェクト空間設定手段と、
前記第1のオブジェクトに対して前記第1のテクスチャをマッピングすると共に、前記第2のオブジェクトに対して前記第2のテクスチャをマッピングするマッピング手段と、
前記第1のオブジェクトに前記第1のテクスチャをマッピングした画像と、前記第2のオブジェクトに前記第2のテクスチャをマッピングした画像とを、半透明処理を行うことなく重ね合わせた画像を生成する画像生成手段とを含み、
前記マッピング手段が、
前記第1のオブジェクトの頂点と前記第2のオブジェクトの頂点との位置関係に基づいて、前記第2のオブジェクトの頂点に与える前記第2のテクスチャのテクスチャ座標を算出することを特徴とする画像生成装置。An image generation device that generates an image in which material properties of an original image are partially changed ,
A first texture that is created in advance, formed in advance as the first texture original image, a texture memory for storing a second texture totally alter the material properties of the first texture Means,
Object space setting means for arranging the second object so as to overlap the first object;
With mapping the first texture to the first object, and mapping means for mapping the second texture to the second object,
An image that generates an image obtained by superimposing an image obtained by mapping the first texture on the first object and an image obtained by mapping the second texture on the second object without performing translucent processing. Generating means,
The mapping means is
Generating a texture coordinate of the second texture to be given to the vertex of the second object based on a positional relationship between the vertex of the first object and the vertex of the second object apparatus.
前記マテリアルプロパティが、色、輝度、半透明度、反射率及び屈折率の少なくとも1つであり、
前記テクスチャ記憶手段が、
前記第1のテクスチャの色、輝度、半透明度、反射率又は屈性率を全体的に変化させた前記第2のテクスチャを記憶することを特徴とする画像生成装置。 In claim 1,
The material property is at least one of color, brightness, translucency, reflectance and refractive index;
The texture storage means
An image generating apparatus that stores the second texture in which the color, brightness, translucency, reflectance, or refractive index of the first texture is changed as a whole .
前記第2のオブジェクトの位置及び形状の少なくとも一方をリアルタイムに変化させる手段を含むことを特徴とする画像生成装置。In any one of Claims 1 thru | or 2 .
An image generating apparatus comprising: means for changing in real time at least one of a position and a shape of the second object.
予め作成された第1のテクスチャと、該第1のテクスチャを原画像として予め作成され、該第1のテクスチャのマテリアルプロパティを全体的に変化させた第2のテクスチャとを記憶するテクスチャ記憶手段と、
第1のオブジェクトに重なるように第2のオブジェクトを配置するオブジェクト空間設定手段と、
前記第1のオブジェクトに対して前記第1のテクスチャをマッピングすると共に、前記第2のオブジェクトに対して前記第2のテクスチャをマッピングするマッピング手段と、
前記第1のオブジェクトに前記第1のテクスチャをマッピングした画像と、前記第2のオブジェクトに前記第2のテクスチャをマッピングした画像とを、半透明処理を行うことなく重ね合わせた画像を生成する画像生成手段としてコンピュータを機能させ、
前記マッピング手段に、
前記第1のオブジェクトの頂点と前記第2のオブジェクトの頂点との位置関係に基づいて、前記第2のオブジェクトの頂点に与える前記第2のテクスチャのテクスチャ座標を算出させるプログラムを記憶した情報記憶媒体。 A computer-readable information storage medium for generating an image in which material properties of an original image are partially changed ,
A first texture that is created in advance, formed in advance as the first texture original image, a texture memory for storing a second texture totally alter the material properties of the first texture Means,
Object space setting means for arranging the second object so as to overlap the first object;
With mapping the first texture to the first object, and mapping means for mapping the second texture to the second object,
An image that generates an image obtained by superimposing an image obtained by mapping the first texture on the first object and an image obtained by mapping the second texture on the second object without performing translucent processing. Let the computer function as a generation means,
In the mapping means,
An information storage medium storing a program for calculating texture coordinates of the second texture to be given to the vertex of the second object based on a positional relationship between the vertex of the first object and the vertex of the second object .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP35213997A JP4028055B2 (en) | 1997-12-05 | 1997-12-05 | Image generating apparatus and information storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP35213997A JP4028055B2 (en) | 1997-12-05 | 1997-12-05 | Image generating apparatus and information storage medium |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH11175746A JPH11175746A (en) | 1999-07-02 |
JP4028055B2 true JP4028055B2 (en) | 2007-12-26 |
Family
ID=18422049
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP35213997A Expired - Fee Related JP4028055B2 (en) | 1997-12-05 | 1997-12-05 | Image generating apparatus and information storage medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4028055B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4721472B2 (en) * | 2009-03-30 | 2011-07-13 | 株式会社バンダイナムコゲームス | Image generation system and information storage medium |
EP2241988B1 (en) | 2009-04-14 | 2018-07-25 | Dassault Systèmes | Method, program and product edition system for visualizing objects displayed on a computer screen |
JP2015194765A (en) * | 2015-06-29 | 2015-11-05 | ヤマハ株式会社 | Image processing apparatus and karaoke device |
CN113181642B (en) * | 2021-04-29 | 2024-01-26 | 网易(杭州)网络有限公司 | Method and device for generating wall model with mixed materials |
-
1997
- 1997-12-05 JP JP35213997A patent/JP4028055B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPH11175746A (en) | 1999-07-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6738061B2 (en) | Method, apparatus, storage medium, program, and program product for generating image data of virtual three-dimensional space | |
JP4728721B2 (en) | Program, information storage medium, and image generation system | |
JP3249955B2 (en) | Image generation system and information storage medium | |
JP4804122B2 (en) | Program, texture data structure, information storage medium, and image generation system | |
JP4865472B2 (en) | Program, information storage medium, and image generation system | |
JP4028055B2 (en) | Image generating apparatus and information storage medium | |
JP4749064B2 (en) | Program, information storage medium, and image generation system | |
JP3656012B2 (en) | GAME SYSTEM AND INFORMATION STORAGE MEDIUM | |
JP4229319B2 (en) | Image generation system, program, and information storage medium | |
JP4721476B2 (en) | Image generation system and information storage medium | |
JP3297410B2 (en) | Image generation system and information storage medium | |
JP2004073241A (en) | Game system, program, and information storage medium | |
JP4006243B2 (en) | Image generation information, game information, information storage medium, image generation device, and game device | |
JP4913399B2 (en) | Program, information storage medium, and image generation system | |
JP4528008B2 (en) | Program, information storage medium, and image generation system | |
JP4577968B2 (en) | GAME SYSTEM AND INFORMATION STORAGE MEDIUM | |
JP4574058B2 (en) | Image generation system, program, and information storage medium | |
JP4229317B2 (en) | Image generation system, program, and information storage medium | |
JP4394211B2 (en) | Image generation system and information storage medium | |
JP2010231364A (en) | Image generation system, program and information recording medium | |
JP2003162734A (en) | Game system and information storage medium | |
JP2007164736A (en) | Image generation system, program and information storage medium | |
JP2005275795A (en) | Program, information storage medium and image generation system | |
JP4450535B2 (en) | Image generation system and information storage medium | |
JP2006252291A (en) | Program, information storage medium and image generation system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20041202 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20041202 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20070702 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070711 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070910 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20071003 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20071011 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101019 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101019 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101019 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111019 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111019 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121019 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121019 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131019 Year of fee payment: 6 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |