JP3655555B2 - Image representation method and program used therefor - Google Patents

Image representation method and program used therefor Download PDF

Info

Publication number
JP3655555B2
JP3655555B2 JP2001045222A JP2001045222A JP3655555B2 JP 3655555 B2 JP3655555 B2 JP 3655555B2 JP 2001045222 A JP2001045222 A JP 2001045222A JP 2001045222 A JP2001045222 A JP 2001045222A JP 3655555 B2 JP3655555 B2 JP 3655555B2
Authority
JP
Japan
Prior art keywords
texture
representative point
mapping
determined
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2001045222A
Other languages
Japanese (ja)
Other versions
JP2002251628A (en
Inventor
滋生 岡嶋
Original Assignee
株式会社コナミコンピュータエンタテインメントジャパン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社コナミコンピュータエンタテインメントジャパン filed Critical 株式会社コナミコンピュータエンタテインメントジャパン
Priority to JP2001045222A priority Critical patent/JP3655555B2/en
Publication of JP2002251628A publication Critical patent/JP2002251628A/en
Application granted granted Critical
Publication of JP3655555B2 publication Critical patent/JP3655555B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Image Generation (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、コンピュータグラフィックス技術を利用してオブジェクトから飛沫や反射光が跳ね返ったり、オブジェクトに影がかかる様子を表現する方法に関する。
【0002】
【従来の技術】
ゲーム画像の生成等に使用される3次元コンピュータグラフィックスの分野においては、ワールド座標系によって定義された仮想3次元空間に配置されるモデルをポリゴンの組み合わせによって表現し、そのポリゴンの表面に各種のテクスチャをマッピングしてモデルの質感を向上させている。例えば、雨が降っているシーンでは、キャラクタ上で雨滴が跳ね返って飛沫が散っている様子を表現するテクスチャを用意し、これをキャラクタの所定位置に配置されたポリゴンにマッピングして画像の現実感を向上させる工夫がなされている。
【0003】
【発明が解決しようとする課題】
しかしながら、従来は降雨の有無によって飛沫の表現及び省略を切り替えることはあっても、それ以上に細かく飛沫の出現を制御することは行われていない。現実の世界では、降雨状態でも風向きや雨が当たる向きによって飛沫の生じ方が変化するはずであるが、従来はそうした微妙な制御を行っていないので画像の現実感が損なわれるおそれがあった。つまり、飛沫のような現象がオブジェクトの表面にて発生するか否かは、降雨の有無だけでなく、風向きのように仮想3次元空間に設定された環境を構成する要素によって特定される方向とオブジェクトとの関係に応じて細かく制御されるべきであるのに、従来はそうした観点で画像処理を行っていないので、画像の現実感を欠くことがあった。
【0004】
そこで、本発明は、仮想3次元空間に設定された環境によって定められる特定方向に依存してその発生状態が変化するような現象を表現する場合の現実感を高めることが可能な画像の表現方法及びその方法の実現に使用するコンピュータプログラムを提供することを目的とする。
【0005】
【課題を解決するための手段】
以下、本発明について説明する。なお、本発明の理解を容易にするために添付図面の参照符号を括弧書きにて付記するが、それにより本発明が図示の形態に限定されるものではない。
【0006】
本発明の画像の表現方法は、仮想3次元空間(1)内のオブジェクト(2)の表面に複数の代表点(4…4)を設定し、各代表点における前記オブジェクトの法線(N)の方向と、前記仮想3次元空間の環境によって定められる特定方向とのずれが、所定範囲に収まっているか否かにより、その特定方向に関連して発生状態が変化すべき現象を表現したテクスチャ(8)の各代表点におけるマッピングの要否を判定し、前記テクスチャのマッピングが必要と判断された代表点に対応付けられた領域(7)に前記テクスチャをマッピングするものである。
【0007】
本発明の画像の表現方法によれば、仮想3次元空間に設定された環境によって特定される方向と、オブジェクトに設定された複数の代表点における法線の方向との一致度に応じてテクスチャをマッピングするか否かが制御されるので、自然現象等を表現するテクスチャの要否を従来よりもきめ細かく制御できる。例えば仮想3次元空間に設定された風向きと各代表点の法線の方向との関係を考慮して飛沫の画像をオブジェクトの各代表点に出現させるか否かを決定したり、オブジェクトに当たる日差しや照明の方向と各代表点の法線の方向との関係に応じて光の反射や影を表現するか否かを決定することができる。これにより、画像の現実感が顕著に向上する。
【0009】
前記特定方向として前記仮想3次元空間に設定された風向きを考慮するとともに、前記テクスチャは、前記特定方向に関連して発生する現象として前記オブジェクトから跳ね返る飛沫を表現するように構成し、前記風向きと前記法線の方向とのずれが所定範囲に収まっている代表点に関しては前記飛沫を表現するテクスチャ(図3)をマッピングし、前記風向きと前記法線の方向とのずれが所定範囲から外れている代表点に関しては前記飛沫を表現するテクスチャのマッピングを省略してもよい。
【0010】
この場合にはオブジェクトの各部のうち、ほぼ正面から風が当たる部分には飛沫が表現され、風が横から当たる部分には飛沫が描かれないようになる。従って、飛沫の画像を従来よりも現実的に表現することができる。
【0011】
また、本発明の表現方法において、前記テクスチャのマッピングが必要と判断された代表点とその代表点に対応して前記テクスチャがマッピングされるべき領域(7)との位置的関係を、一フレーム毎、又は複数フレーム毎に変化させてもよい。
【0012】
このようにすれば、同一の代表点に関して数フレームに亘って連続的にテクスチャをマッピングすると判断した場合でも、その代表点に対応してマッピングされるテクスチャの位置が変化するので、例えば風で飛沫が揺らぐような現象まで表現することができて画像の現実感がさらに高まる。
【0013】
本発明の表現方法において、各代表点の法線の方向は必ずしもオブジェクトを構成するポリゴン(3)に対して直交する方向に制限されるものではなく、代表点毎に都合のよい法線の方向を定めてよい。例えば、オブジェクトを構成するポリゴンにマッピングされるべきテクスチャの内容を考慮して各代表点の法線の方向が決定されてもよい。この場合において、前記内容としては、前記テクスチャによって表現されるオブジェクトの形状を考慮してもよい。形状としては例えば傾斜や凹凸の有無を考慮することができる。このような構成とした場合には、ポリゴンではなくテクスチャによってオブジェクトの表面の細部が表現されている場合に、その細部の状態を考慮して各代表点の法線の方向を変化させることができる。従って、飛沫等の現象を表現するか否かの判断をより現実に則して行うことができ、画像の現実感をさらに高めることができる。
【0014】
また、前記オブジェクトの少なくとも一部において、一つのポリゴンに複数の代表点を設定した場合には、一つのポリゴンにマッピングされるテクスチャによって表現されるオブジェクトの表面の変化をより忠実に反映してテクスチャの要否を判断することができ、画像の現実感をさらに高めることができる。こうした構成は、特に処理負荷を軽減すべくポリゴンの個数を減らしてモデルを簡略化した場合に効果的である。
【0015】
さらに、前記オブジェクトを構成するポリゴンにマッピングされるべきテクスチャによって表現されるオブジェクトの表面の質からみて、当該オブジェクト上で前記現象が生じない範囲を前記マッピングの対象から除外してもよい。この場合において、表面の質としてはオブジェクトの表面の材質、硬さ、色等を考慮することができる。このようにすれば、例えばオブジェクトの表面が吸水性を有する材質にて構成されている様子がテクスチャで表現されている場合、その表面では水しぶきが跳ね返らないので法線の方向に関わりなく飛沫を表現するテクスチャのマッピングを省略する等、法線の方向からみてテクスチャをマッピングすべきと判断されても、オブジェクトの質からみてテクスチャのマッピングが妥当でないと判断される場合に、そのテクスチャのマッピングを阻止して画像の現実感を向上させることができる。なお、マッピングの対象から除外する方法としては、そのような表面の質に設定されている範囲に代表点を設定しないか、又は、代表点を設定したとしても、マッピングの要否を判定する際にそのような質が設定されている代表点を法線の方向の如何に関わらずマッピング不要な代表点として判断すればよい。
【0016】
本発明のプログラムは、仮想3次元空間(1)内のオブジェクト(2)の表面に設定された複数の代表点(4…4)のそれぞれにおける法線(N)の方向と、前記仮想3次元空間の環境によって定められる特定方向とのずれが、所定範囲に収まっているか否かにより、その特定方向に関連して発生状態が変化すべき現象を表現したテクスチャ(8)の各代表点におけるマッピングの要否を判定する処理と、前記テクスチャのマッピングが必要と判断された代表点に対応付けられた領域(7)に前記テクスチャをマッピングする処理とをコンピュータに実行させるように構成されたものである。
【0017】
このプログラムをコンピュータで読み取って実行することにより、本発明の画像の表現方法を実施することができる。
【0018】
なお、本発明のプログラムは、次に述べるように、上述した表現方法の好ましい態様を備えることができる。すなわち、本発明のプログラムは、前記判定する処理では、前記特定方向として前記仮想3次元空間に設定された風向きを考慮するとともに、前記風向きと前記法線の方向とのずれが所定範囲に収まっている代表点に関しては前記テクスチャのマッピングが必要と判断し、その一方で前記風向きと前記法線の方向とのずれが所定範囲から外れている代表点に関しては前記テクスチャのマッピングが不要と判断し、前記テクスチャをマッピングする処理では、前記特定方向に関連して発生する現象として前記オブジェクトから跳ね返る飛沫を表現するテクスチャをマッピングするように構成されてもよい。前記テクスチャのマッピングが必要と判断された代表点とその代表点に対応して前記テクスチャがマッピングされるべき領域との位置的関係を、一フレーム毎、又は複数フレーム毎に変化させるように構成されてもよい。前記オブジェクトを構成するポリゴンにマッピングされるべきテクスチャの内容を考慮して決定された各代表点の法線の方向を使用して前記判定処理を行うように構成されてもよい。前記内容として、前記テクスチャによって表現されるオブジェクトの形状が考慮されてもよい。前記オブジェクトの少なくとも一部を構成する一つのポリゴン(3)については、そのポリゴンに設定された複数の代表点を対象として前記判定する処理を行うように構成されてもよい。前記オブジェクトを構成するポリゴンにマッピングされるべきテクスチャによって表現されるオブジェクトの表面の質からみて、当該オブジェクト上で前記現象が生じない範囲を前記マッピングの対象から除外するように構成されてもよい。
【0019】
さらに、本発明のプログラムは記憶媒体に記録されて使用者に提供されてもよいし、有線又は無線の伝送媒体に乗せて使用者に提供されてもよい。
【0020】
本発明において、仮想3次元空間内のオブジェクトの代表点に対応付けられた位置に平面状のポリゴンをその法線が視点を向くようにして配置し、そのポリゴンに対してテクスチャをマッピングすることにより、各代表点に対応した領域にテクスチャを表示させることができる。ポリゴンは透明処理がされたものであればその形状を問わない。しかし、そのような方法に限らず、各種の手法によりテクスチャを代表点に対応付けられた領域に表示させてよい。
【0021】
【発明の実施の形態】
図1は本発明の表現方法を概念的に示した図である。図1(a)は仮想3次元空間1に配置されたオブジェクト(例えばキャラクタ)2の一部を示している。周知のようにオブジェクト2は多数のポリゴン3…3を組み合わせて構成される。仮想3次元空間1には自然環境としての気象が設定されており、その気象を構成する一要素として、本実施形態では矢印Wで示すように風向きが設定される。実際の自然現象との相似性を保つために風向きは随時変更され、その変化は例えば雨粒が落ちる方向や壁等を伝って雨滴が流れ落ちる方向に影響を与える。こうした自然現象の変化を表現して画像の現実感を高めるため、本実施形態では、オブジェクト2に雨が当たって飛沫が散る様子を表現することとした。その表現は次に述べる方法によって実現される。
【0022】
本実施形態では、オブジェクト2から飛沫が散るか否かは風向きとオブジェクト2の向きとの関係に応じて変化するものと仮定し、その関係をオブジェクト2の各位置について調べるために、少なくとも一部のポリゴン3には1又は複数の代表点4…4が設定される(図では一部のみ示す。)。代表点4の個数は任意に定めてよいが、ポリゴン3にマッピングされるべきテクスチャによって複雑な形状が表現される部分では代表点4を密に配置し、テクスチャによって単純な形状が表現される部分では代表点4を粗く配置するとよい。
【0023】
また、全てのポリゴン3に対して代表点4を設定する必要はない。例えばオブジェクト2がキャラクタである場合、その頭髪部分では雨の跳ね返りが目立たないので代表点4を省略し、飛沫の画像を頭髪部分には一切表現しないこととしてもよい。その他にも、ポリゴン3にマッピングされるテクスチャによって表現される質感に応じて代表点4の配置は適宜変更してよい。
【0024】
各代表点4には法線の方向Nがそれぞれ設定されている。法線の方向Nは代表点4毎に独立して設定されており、ポリゴン3の法線の方向とは必ずしも一致しない。好ましくはポリゴン3にマッピングされるべきテクスチャにて表現されるオブジェクト2の表面形状に応じて法線の方向Nを定めるとよい。
【0025】
図1(b)及び(c)はそのようにテクスチャによって表現される表面形状を考慮して法線の方向を決定した例を示している。これらの例において、二点鎖線5,5はテクスチャによって表現される仮想的な表面(以下、仮想表面と呼ぶ。)の形状を示している。仮想表面5を考慮したときの代表点4における法線の方向Nはポリゴン3に対する法線の方向N′とは必ずしも一致しない。画像を観察する者には、ポリゴン3によって構成される平面ではなく、テクスチャによって表現される仮想表面5に従ってオブジェクト2の表面形状が認識されるから、このようにテクスチャを考慮した表面5を基準として法線Nの方向を定めた方が画像の現実感を高める上で都合がよい。
【0026】
各代表点4について飛沫のテクスチャを出現させるか否かは次の方法で決定される。まず、図1(b)又は(c)に示すように、代表点4を中心点(頂点)に、また、風が吹く方向を中心軸として、所定角度の円錐形状の表示許可範囲6を設定する。そして、図1(b)に示すように表示許可範囲6に対して代表点4における法線Nが含まれていればその代表点4については飛沫のテクスチャを出現させる対象とし、図1(c)に示すように表示許可範囲6から法線Nが外れていればその代表点4は飛沫のテクスチャを出現させる対象から除外する。
【0027】
こうして、オブジェクト2に設定された各代表点4について、風向きと法線Nの方向との関係に基づいて飛沫のテクスチャを出現させるか否かが決定される。そして、テクスチャを出現させる対象として決定された代表点4に関しては、図2に示すように、テクスチャがマッピングされる領域として平面状のポリゴン7が配置される。そして、ポリゴン7に飛沫を表現したテクスチャ8がマッピングされる。ポリゴン7はその法線が仮想3次元空間に設置される仮想カメラによる視点の方向を向くように配置される。また、ポリゴン7は、オブジェクト2を構成するポリゴン3から外側に立ち上がるように配置される。一例として、ポリゴン7は例えば法線Nをその平面上に含めるように配置することができる。なお、図2ではポリゴン7を矩形としたが、これに限定されず、種々の形状のポリゴンを用いてよい。
【0028】
なお、代表点4に対してポリゴン7を配置する位置は一定でもよいし、適当な基準に従って変化させてもよい。例えば、数フレームに亘って連続的にテクスチャ8を同一位置に配置した場合、本来であれば動的に変化すべき飛沫の画像が一定のままとなり、観察者に不自然な印象を与えるおそれがある。このような場合には、図2に想像線で例示したように、一又は複数のフレーム毎にポリゴン7と代表点4との位置的関係を変化させるとよい。
【0029】
図3は以上の方法で飛沫を表現するために使用されるテクスチャ8の実例を、図4は図3のテクスチャを使用して表現された画像の実例をそれぞれ示している。但し、図3のテクスチャは階調を反転させてあり、図4の画像ではテクスチャを強調して示している。図4の画像ではキャラクタが中腰で左向きに銃を構えている様子が描かれており、そのキャラクタの腕や腿の上側に飛沫を示すテクスチャが観察される。
【0030】
以上に説明した画像の表現方法は様々な分野の3次元画像処理において利用できるものである。その一例としてコンピュータを利用したゲーム機にて本発明の表現方法を実施する例を図5及び図6により説明する。
【0031】
図6はコンピュータを利用したゲーム機の典型的な制御系のブロック図である。周知のように、コンピュータとしてのゲーム機10は、記憶媒体(例えばDVD−ROM)25に記録されたゲーム用プログラムに従って所定のゲームを実行するものであり、マイクロプロセッサを主体として構成されたCPU11と、そのCPU11に対する主記憶装置としてのROM12及びRAM13と、CPU11からの指示に基づいて画像処理及び音声処理に適した処理を行なう画像処理装置14及びサウンド処理装置16と、記憶媒体からデータ等を読み取るための記憶媒体読取装置18とを有している。ROM12には、ゲーム機10の全体の動作制御に必要なプログラムとしてのオペレーティングシステムが書き込まれる。RAM13には記憶媒体としてのDVD−ROM25から読み取ったゲーム用のプログラムやデータが必要に応じて書き込まれる。画像処理装置14はCPU11から画像データを受け取って内蔵するフレームバッファ(不図示)上にゲーム画面に対応した画像データを展開するとともに、その描画された画像データを所定のビデオ再生信号に変換して所定のタイミングでモニタ19に出力する。サウンド処理装置16は、DVD−ROM25から読み出された音声、楽音等のデータや音源データ等を再生してスピーカ20から出力させる。読取装置18は、CPU11からの指示に従ってDVD−ROM25上に記録されたプログラムやデータを読み取り、その読み取った内容に対応した信号を出力する。DVD−ROM25には、本発明に係る画像の表現方法の実施に必要なプログラムやデータが記録されている。モニタ19には家庭用のテレビ受像機が、スピーカ20にはそのテレビ受像機の内蔵スピーカが一般に使用される。さらに、CPU11にはバス24を介して入力装置22及び外部記憶装置23がそれぞれ接続される。外部記憶装置23は例えば不揮発性の半導体メモリ、ハードディスク、光磁気ディスク等の書換えが可能な記憶装置である。このような構成はあくまで一例であり、本発明の表現方法が適用されるコンピュータの構成は適宜変更されてよい。
【0032】
記憶媒体としてのDVD−ROM25に記録されるプログラムには、上述した方法により飛沫を表現した画像を形成するために必要な手順を記述したモジュールが含まれる。また、DVD−ROM25に記録されるデータには、上述した方法を実現するために必要なデータとして、図2に示したテクスチャの画像データと、法線データとが記録される。法線データは、ゲーム画面に登場する様々なモデルのそれぞれについて、代表点4の位置と、各代表点4における法線の方向とを対応付けて記録したデータである。
【0033】
飛沫の画像を表現するためのプログラムモジュールは、各フレームの画像データを生成する処理において、本発明に従って飛沫を描く必要がある場合に呼び出されてCPU11により実行される。図6はそのプログラムモジュールに従って実行される処理の概要を示すフローチャートである。なお、上述した飛沫の表現に拘わる部分以外の画像データの生成に必要な演算処理は公知の技術をそのまま利用することができ、本明細書ではそれらの説明は省略する。例えば、典型的な3Dゲーム画像を描画する処理では、入力装置22からの入力信号に基づいて、ワールド座標系に配置されたオブジェクト(例えばキャラクタ)や視点等の位置を演算し、その演算結果に基づいて視点座標系やスクリーン座標系への座標変換やレンダリング処理を行っているが、以下ではそれらの一連の処理のうちで特に本発明に拘わる部分を抽出して説明し、その余の処理について説明を省略する。
【0034】
図6の処理では、まず仮想3次元空間に配置されたオブジェクトについて設定された代表点から、上述した風向きと法線Nの方向との関係に基づくテクスチャの要否を未だ判定していない未処理の代表点を一つ抽出する(ステップS1)。次に、抽出した代表点についての法線Nの方向を上述した法線データに基づいて特定し、その法線Nの方向と次フレームの風向きの方向とのずれが許容範囲にあるか否かを図1(b)、(c)に図示した方法で判断する(ステップS2)。許容範囲にあればその代表点4はテクスチャ8を配置する対象として記憶し(ステップS3)、許容範囲外であれば配置対象として記憶する処理をスキップする。
【0035】
続くステップS4では、次フレームの画面に登場するオブジェクトの全ての代表点4についてステップS2の判断を終えたか否か判断し、未処理のものがあればステップS1へ戻る。全ての代表点を処理したと判断したときはステップS5に進み、テクスチャ8を配置する対象として選ばれた全ての代表点4に関して、テクスチャ8を置く基点を決定する。つまり、図2に示した代表点4とポリゴン7との位置的関係を全ての代表点4について決定する。例えば代表点4とポリゴン7の適当な基準点とのずれ量に許容範囲を設け、一又は複数のフレーム毎にその許容範囲内においてランダムにずれ量を決定する。こうして、テクスチャ8を配置する代表点4が選択され、各代表点4に対するポリゴン7の配置が決定されると、それらの決定された内容に基づいてテクスチャマッピングを行う(ステップS6)。そして、マッピング後は図6の処理を終える。
【0036】
以上の実施形態はあくまで本発明の一例であり、使用されるテクスチャの内容等は要求される画像の質感等に応じて種々変更してよい。以上においては、環境によって定められる方向として風向きを、その風向きに関連して発生状態が変化する現象として雨による飛沫を想定したが、本発明はそのような例に限定されず、種々の形態にて実施できる。例えば、環境によって定まる特定方向としては、日光や照明光が入射する方向を想定し、その入射方向と各代表点の法線方向とに応じてオブジェクトの表面の反射や影を示すテクスチャの要否を判定することもできる。
【0037】
【発明の効果】
以上に説明したように、本発明の画像の表現方法によれば、仮想3次元空間に設定された環境によって特定される方向と、オブジェクトに設定された複数の代表点における法線の方向との関係に応じてテクスチャをマッピングするか否かが制御されるので、飛沫や影のような自然現象等を表現するテクスチャの要否を従来よりもきめ細かく制御できる。この結果、画像の現実感を顕著に向上させることができる。
【図面の簡単な説明】
【図1】本発明の一実施形態として、仮想3次元空間の環境によって定まる特定方向とオブジェクトの各部の法線の方向との関係に基づいて自然現象を示すテクスチャのマッピングの要否を判断する例を簡略的に示す図。
【図2】テクスチャをマッピングする概念を示す図。
【図3】図2のテクスチャの実例を示す図。
【図4】図3のテクスチャを使用した画像の実例を示す図。
【図5】本発明の方法を実行するためのゲーム機の機能ブロック図。
【図6】図5のゲーム機にて本発明の表現方法を実行するための処理手順を示すフローチャート。
【符号の説明】
1 仮想3次元空間
2 オブジェクト
3 オブジェクトを構成するポリゴン
4 代表点
5 仮想表面
6 表示許可範囲
7 ポリゴン(代表点に対応付けられた領域)
8 飛沫を表現したテクスチャ
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a method for expressing a state in which splashes or reflected light bounces off an object or a shadow is applied to an object using computer graphics technology.
[0002]
[Prior art]
In the field of 3D computer graphics used for game image generation, etc., a model placed in a virtual 3D space defined by the world coordinate system is represented by a combination of polygons, and various polygons are displayed on the surface of the polygons. The texture of the model is improved by mapping the texture. For example, in a raining scene, prepare a texture that represents the appearance of splashing raindrops splashing on the character and mapping it to polygons placed at predetermined positions on the character to create a realistic image. The idea which improves is made.
[0003]
[Problems to be solved by the invention]
However, conventionally, although the expression and omission of the splash are switched depending on the presence or absence of rain, the appearance of the splash is not controlled more finely than that. In the real world, even if it is raining, the way of splashing should change depending on the wind direction and the direction of rain. However, since such subtle control has not been performed in the past, the realism of the image may be impaired. In other words, whether or not a phenomenon such as a splash occurs on the surface of the object is determined not only by the presence or absence of rain, but also by the direction specified by the elements constituting the environment set in the virtual three-dimensional space, such as the wind direction. Although it should be finely controlled according to the relationship with the object, the image processing has not been performed from such a point of view in the past, so that the reality of the image may be lacking.
[0004]
Therefore, the present invention provides an image expression method capable of enhancing the realism when expressing a phenomenon in which the state of occurrence changes depending on a specific direction determined by an environment set in a virtual three-dimensional space. Another object of the present invention is to provide a computer program used for realizing the method.
[0005]
[Means for Solving the Problems]
The present invention will be described below. In order to facilitate understanding of the present invention, reference numerals in the accompanying drawings are appended in parentheses, but the present invention is not limited to the illustrated embodiment.
[0006]
In the image representation method of the present invention, a plurality of representative points (4... 4) are set on the surface of the object (2) in the virtual three-dimensional space (1), and the normal line (N) of the object at each representative point. And a texture representing a phenomenon whose occurrence state should change in relation to the specific direction depending on whether or not a deviation between the direction of the specific direction determined by the environment of the virtual three-dimensional space is within a predetermined range In step 8), the necessity of mapping at each representative point is determined, and the texture is mapped to the region (7) associated with the representative point determined to require the texture mapping.
[0007]
According to the image representation method of the present invention, the texture is determined according to the degree of coincidence between the direction specified by the environment set in the virtual three-dimensional space and the direction of the normal at the plurality of representative points set in the object. Since whether or not mapping is controlled, whether or not a texture that expresses a natural phenomenon is necessary can be controlled more finely than in the past. For example, in consideration of the relationship between the wind direction set in the virtual three-dimensional space and the direction of the normal of each representative point, it is determined whether or not the splash image should appear at each representative point of the object, Whether to express light reflection or shadow can be determined according to the relationship between the direction of illumination and the direction of the normal of each representative point. Thereby, the real feeling of an image improves notably.
[0009]
Considering the wind direction set in the virtual three-dimensional space as the specific direction, the texture is configured to represent splashes that bounce off the object as a phenomenon that occurs in relation to the specific direction, For representative points whose deviation from the normal direction is within a predetermined range, the texture (FIG. 3) expressing the splash is mapped, and the deviation between the wind direction and the normal direction is out of the predetermined range. The mapping of the texture expressing the splash may be omitted for the representative points.
[0010]
In this case, of each part of the object, a splash is expressed in a portion where the wind hits from almost the front, and a splash is not drawn in a portion where the wind hits from the side. Therefore, a splash image can be expressed more realistically than before.
[0011]
In the expression method of the present invention, the positional relationship between the representative point determined to require mapping of the texture and the region (7) to which the texture should be mapped corresponding to the representative point is determined for each frame. Alternatively, it may be changed every plural frames.
[0012]
In this way, even if it is determined that the texture is continuously mapped over several frames with respect to the same representative point, the position of the texture to be mapped changes corresponding to the representative point. It is possible to express phenomena that fluctuate, and the reality of the image is further enhanced.
[0013]
In the expression method of the present invention, the direction of the normal of each representative point is not necessarily limited to the direction orthogonal to the polygon (3) constituting the object, but the normal direction that is convenient for each representative point. May be determined. For example, the direction of the normal of each representative point may be determined in consideration of the content of the texture to be mapped to the polygons that make up the object. In this case, as the content, the shape of the object represented by the texture may be considered. As the shape, for example, the presence or absence of inclination or unevenness can be considered. In such a configuration, when the details of the surface of the object are expressed not by the polygon but by the texture, the normal direction of each representative point can be changed in consideration of the state of the detail. . Therefore, it is possible to make a determination as to whether or not to express a phenomenon such as a splash more realistically, and to further enhance the reality of the image.
[0014]
In addition, when a plurality of representative points are set for one polygon in at least a part of the object, the texture that more faithfully reflects the change in the surface of the object represented by the texture mapped to one polygon. Therefore, the reality of the image can be further enhanced. Such a configuration is particularly effective when the model is simplified by reducing the number of polygons in order to reduce the processing load.
[0015]
Further, in view of the surface quality of the object expressed by the texture to be mapped to the polygons constituting the object, a range where the phenomenon does not occur on the object may be excluded from the mapping target. In this case, the material of the surface of the object, hardness, color, etc. can be considered as the surface quality. In this way, for example, when the appearance of the surface of the object made of a material having water absorbency is expressed by a texture, the splash does not bounce on the surface, so splashes are generated regardless of the normal direction. Even if it is determined that the texture should be mapped from the direction of the normal line, such as omitting the mapping of the texture to be expressed, if the texture mapping is determined to be invalid from the quality of the object, the mapping of the texture is performed. It can be blocked to improve the realism of the image. In addition, as a method of excluding from the object of mapping, when a representative point is not set in a range set for such surface quality, or even if a representative point is set, it is necessary to determine the necessity of mapping. The representative point having such a quality may be determined as a representative point that does not require mapping regardless of the direction of the normal line.
[0016]
The program of the present invention includes the direction of the normal (N) at each of a plurality of representative points (4... 4) set on the surface of the object (2) in the virtual three-dimensional space (1), and the virtual three-dimensional space. Mapping at each representative point of texture (8) expressing a phenomenon whose occurrence state should change in relation to the specific direction depending on whether or not the deviation from the specific direction determined by the space environment is within a predetermined range. And a process for mapping the texture to the region (7) associated with the representative point for which the texture mapping is determined to be necessary. is there.
[0017]
By reading this program with a computer and executing it, the image expression method of the present invention can be implemented.
[0018]
In addition, the program of this invention can be provided with the preferable aspect of the expression method mentioned above as described below. That is, the program of the present invention considers the wind direction set in the virtual three-dimensional space as the specific direction in the determination process, and the deviation between the wind direction and the normal direction falls within a predetermined range. It is determined that the mapping of the texture is necessary for a representative point, while the mapping of the texture is unnecessary for a representative point whose deviation between the wind direction and the direction of the normal line is out of a predetermined range, The process of mapping the texture may be configured to map a texture that expresses splashes rebounding from the object as a phenomenon that occurs in relation to the specific direction. It is configured to change the positional relationship between a representative point determined to require mapping of the texture and a region to which the texture should be mapped corresponding to the representative point for each frame or for each of a plurality of frames. May be. The determination processing may be performed using the normal direction of each representative point determined in consideration of the content of the texture to be mapped to the polygons constituting the object. As the content, the shape of the object represented by the texture may be considered. One polygon (3) constituting at least a part of the object may be configured to perform the determination process on a plurality of representative points set in the polygon. In view of the surface quality of the object represented by the texture to be mapped to the polygon constituting the object, a range where the phenomenon does not occur on the object may be excluded from the mapping target.
[0019]
Furthermore, the program of the present invention may be recorded on a storage medium and provided to the user, or may be provided to the user on a wired or wireless transmission medium.
[0020]
In the present invention, a planar polygon is arranged at a position corresponding to a representative point of an object in a virtual three-dimensional space so that the normal line thereof faces the viewpoint, and a texture is mapped to the polygon. The texture can be displayed in the area corresponding to each representative point. The polygon may have any shape as long as it has been subjected to transparency processing. However, the present invention is not limited to such a method, and the texture may be displayed in an area associated with the representative point by various methods.
[0021]
DETAILED DESCRIPTION OF THE INVENTION
FIG. 1 is a diagram conceptually showing the expression method of the present invention. FIG. 1A shows a part of an object (for example, a character) 2 arranged in the virtual three-dimensional space 1. As is well known, the object 2 is formed by combining a large number of polygons 3. In the virtual three-dimensional space 1, weather as a natural environment is set, and as one element constituting the weather, a wind direction is set as indicated by an arrow W in the present embodiment. The wind direction is changed from time to time in order to maintain the similarity to the actual natural phenomenon, and the change affects, for example, the direction in which raindrops fall and the direction in which raindrops flow along walls. In order to express the change of the natural phenomenon and enhance the realism of the image, in the present embodiment, the appearance that the object 2 is exposed to rain and splashes is expressed. The expression is realized by the following method.
[0022]
In the present embodiment, it is assumed that whether or not splashes are scattered from the object 2 changes according to the relationship between the wind direction and the direction of the object 2, and at least a part of the relationship is examined for each position of the object 2. One or a plurality of representative points 4... 4 are set in the polygon 3 (only a part is shown in the figure). The number of representative points 4 may be arbitrarily determined, but in a portion where a complex shape is represented by the texture to be mapped to the polygon 3, the representative points 4 are densely arranged and a portion where a simple shape is represented by the texture Then, it is good to arrange the representative points 4 roughly.
[0023]
Further, it is not necessary to set the representative point 4 for all the polygons 3. For example, when the object 2 is a character, rain bounce is not conspicuous in the hair portion, and therefore the representative point 4 may be omitted, and the splash image may not be expressed at all in the hair portion. In addition, the arrangement of the representative points 4 may be appropriately changed according to the texture expressed by the texture mapped to the polygon 3.
[0024]
A normal direction N is set for each representative point 4. The normal direction N is set independently for each representative point 4 and does not necessarily match the normal direction of the polygon 3. Preferably, the normal direction N is determined according to the surface shape of the object 2 represented by the texture to be mapped to the polygon 3.
[0025]
FIGS. 1B and 1C show an example in which the direction of the normal is determined in consideration of the surface shape expressed by the texture as described above. In these examples, two-dot chain lines 5 and 5 indicate the shape of a virtual surface (hereinafter referred to as a virtual surface) expressed by a texture. The direction N of the normal line at the representative point 4 when the virtual surface 5 is considered does not necessarily match the direction N ′ of the normal line with respect to the polygon 3. The person who observes the image recognizes the surface shape of the object 2 according to the virtual surface 5 represented by the texture, not the plane constituted by the polygon 3, and thus the surface 5 in consideration of the texture is used as a reference. It is convenient to determine the direction of the normal line N in order to enhance the reality of the image.
[0026]
Whether or not the splash texture appears at each representative point 4 is determined by the following method. First, as shown in FIG. 1 (b) or (c), a conical display permission range 6 having a predetermined angle is set with the representative point 4 as the central point (vertex) and the wind blowing direction as the central axis. To do. If the normal line N at the representative point 4 is included in the display permission range 6 as shown in FIG. 1B, the representative point 4 is set as a target for causing the splash texture to appear. ), If the normal line N deviates from the display permission range 6, the representative point 4 is excluded from the target of the appearance of the splash texture.
[0027]
In this way, for each representative point 4 set in the object 2, whether or not to cause the splash texture to appear is determined based on the relationship between the wind direction and the direction of the normal N. Then, with respect to the representative point 4 determined as the target of appearance of the texture, as shown in FIG. 2, a planar polygon 7 is arranged as a region to which the texture is mapped. Then, the texture 8 expressing the splash is mapped on the polygon 7. The polygon 7 is arranged such that the normal line thereof faces the viewpoint of the virtual camera installed in the virtual three-dimensional space. The polygon 7 is arranged so as to rise outward from the polygon 3 constituting the object 2. As an example, the polygon 7 can be arranged to include, for example, the normal line N on the plane. In FIG. 2, the polygon 7 is rectangular. However, the present invention is not limited to this, and polygons having various shapes may be used.
[0028]
The position where the polygon 7 is arranged with respect to the representative point 4 may be fixed or may be changed according to an appropriate standard. For example, when the texture 8 is continuously arranged at the same position over several frames, there is a possibility that the image of the splash that should be changed dynamically remains constant, giving an unnatural impression to the observer. is there. In such a case, as illustrated by an imaginary line in FIG. 2, the positional relationship between the polygon 7 and the representative point 4 may be changed every one or a plurality of frames.
[0029]
FIG. 3 shows an example of the texture 8 used for expressing the splashes by the above method, and FIG. 4 shows an example of an image expressed using the texture of FIG. However, the texture in FIG. 3 is inverted in gradation, and the texture in the image in FIG. 4 is highlighted. In the image of FIG. 4, a character is drawn in a middle position and holding a gun to the left, and a texture showing splashes is observed on the character's arms and thighs.
[0030]
The image representation method described above can be used in three-dimensional image processing in various fields. As an example, an example in which the expression method of the present invention is implemented in a game machine using a computer will be described with reference to FIGS.
[0031]
FIG. 6 is a block diagram of a typical control system of a game machine using a computer. As is well known, the game machine 10 as a computer executes a predetermined game in accordance with a game program recorded on a storage medium (for example, a DVD-ROM) 25, and includes a CPU 11 mainly composed of a microprocessor, and the like. ROM 12 and RAM 13 as main storage devices for the CPU 11, image processing device 14 and sound processing device 16 that perform processing suitable for image processing and sound processing based on instructions from the CPU 11, and reading data from the storage medium And a storage medium reader 18. In the ROM 12, an operating system is written as a program necessary for overall operation control of the game machine 10. In the RAM 13, a game program or data read from a DVD-ROM 25 as a storage medium is written as necessary. The image processing device 14 receives the image data from the CPU 11 and develops the image data corresponding to the game screen on a built-in frame buffer (not shown), and converts the rendered image data into a predetermined video reproduction signal. The data is output to the monitor 19 at a predetermined timing. The sound processing device 16 reproduces data such as voice and musical sound read from the DVD-ROM 25, sound source data, and the like, and outputs them from the speaker 20. The reading device 18 reads a program or data recorded on the DVD-ROM 25 in accordance with an instruction from the CPU 11 and outputs a signal corresponding to the read content. The DVD-ROM 25 stores programs and data necessary for carrying out the image expression method according to the present invention. The monitor 19 generally uses a home-use television receiver, and the speaker 20 generally uses a built-in speaker of the television receiver. Further, an input device 22 and an external storage device 23 are connected to the CPU 11 via the bus 24. The external storage device 23 is a rewritable storage device such as a nonvolatile semiconductor memory, a hard disk, a magneto-optical disk, or the like. Such a configuration is merely an example, and the configuration of a computer to which the expression method of the present invention is applied may be changed as appropriate.
[0032]
The program recorded on the DVD-ROM 25 as a storage medium includes a module describing a procedure necessary for forming an image expressing splashes by the method described above. Further, the data recorded on the DVD-ROM 25 includes the texture image data and the normal data shown in FIG. 2 as data necessary for realizing the above-described method. The normal data is data in which the position of the representative point 4 and the direction of the normal at each representative point 4 are recorded in association with each other for each of various models appearing on the game screen.
[0033]
The program module for expressing the image of the splash is called and executed by the CPU 11 when it is necessary to draw the splash according to the present invention in the process of generating the image data of each frame. FIG. 6 is a flowchart showing an outline of processing executed in accordance with the program module. It should be noted that a known technique can be used as it is for the calculation processing necessary for generating image data other than the portion related to the expression of the above-described splash, and the description thereof is omitted in this specification. For example, in the process of drawing a typical 3D game image, the position of an object (for example, a character) or a viewpoint placed in the world coordinate system is calculated based on an input signal from the input device 22, and the calculation result is Based on this, coordinate conversion to the viewpoint coordinate system and screen coordinate system and rendering processing are performed, but in the following, a part particularly related to the present invention will be extracted and explained in the series of processing, and the remaining processing will be described. Description is omitted.
[0034]
In the process of FIG. 6, first, the unnecessary texture is not yet determined based on the relationship between the wind direction and the direction of the normal N from the representative point set for the object arranged in the virtual three-dimensional space. One representative point is extracted (step S1). Next, the direction of the normal line N for the extracted representative point is specified based on the normal line data described above, and whether or not the deviation between the direction of the normal line N and the wind direction of the next frame is within an allowable range. Is determined by the method illustrated in FIGS. 1B and 1C (step S2). If it is within the allowable range, the representative point 4 is stored as a target for placing the texture 8 (step S3).
[0035]
In subsequent step S4, it is determined whether or not the determination in step S2 has been completed for all the representative points 4 of the object appearing on the screen of the next frame, and if there is an unprocessed object, the process returns to step S1. When it is determined that all the representative points have been processed, the process proceeds to step S5, and the base point on which the texture 8 is placed is determined for all the representative points 4 selected as the objects on which the texture 8 is to be placed. That is, the positional relationship between the representative point 4 and the polygon 7 shown in FIG. For example, an allowable range is provided for the amount of deviation between the representative point 4 and an appropriate reference point of the polygon 7, and the amount of deviation is determined randomly within the allowable range for each frame or a plurality of frames. In this way, when the representative point 4 on which the texture 8 is arranged is selected and the arrangement of the polygon 7 with respect to each representative point 4 is determined, texture mapping is performed based on the determined contents (step S6). Then, after mapping, the processing of FIG.
[0036]
The above embodiment is merely an example of the present invention, and the content and the like of the texture to be used may be variously changed according to the required texture of the image. In the above, the wind direction is assumed as the direction determined by the environment, and the splash due to rain is assumed as a phenomenon in which the occurrence state changes in relation to the wind direction. However, the present invention is not limited to such an example, and various forms are possible. Can be implemented. For example, the specific direction determined by the environment is assumed to be the direction in which sunlight or illumination light is incident, and the necessity of a texture indicating reflection or shadow on the surface of the object according to the incident direction and the normal direction of each representative point Can also be determined.
[0037]
【The invention's effect】
As described above, according to the image representation method of the present invention, the direction specified by the environment set in the virtual three-dimensional space and the direction of the normal at the plurality of representative points set in the object Since whether or not to map a texture is controlled according to the relationship, whether or not a texture that expresses a natural phenomenon such as a splash or a shadow is necessary can be controlled more finely than before. As a result, the reality of the image can be significantly improved.
[Brief description of the drawings]
FIG. 1 is a diagram illustrating an example of determining whether or not texture mapping indicating a natural phenomenon is necessary based on a relationship between a specific direction determined by an environment of a virtual three-dimensional space and a normal direction of each part of an object. The figure which shows an example simply.
FIG. 2 is a diagram showing a concept of mapping a texture.
FIG. 3 is a diagram showing an example of the texture of FIG. 2;
FIG. 4 is a diagram showing an example of an image using the texture of FIG. 3;
FIG. 5 is a functional block diagram of a game machine for executing the method of the present invention.
6 is a flowchart showing a processing procedure for executing the expression method of the present invention in the game machine of FIG. 5;
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 Virtual three-dimensional space 2 Object 3 Polygon which comprises object 4 Representative point 5 Virtual surface 6 Display permission range 7 Polygon (area | region matched with the representative point)
8 Texture expressing splash

Claims (14)

仮想3次元空間内のオブジェクトの表面に複数の代表点を設定し、各代表点における前記オブジェクトの法線の方向と、前記仮想3次元空間の環境によって定められる特定方向とのずれが、所定範囲に収まっているか否かにより、その特定方向に関連して発生状態が変化すべき現象を表現したテクスチャの各代表点におけるマッピングの要否を判定し、前記テクスチャのマッピングが必要と判断された代表点に対応付けられた領域に前記テクスチャをマッピングすることを特徴とする画像の表現方法。A plurality of representative points are set on the surface of the object in the virtual three-dimensional space, and a deviation between the direction of the normal of the object at each representative point and a specific direction determined by the environment of the virtual three-dimensional space is within a predetermined range. Depending on whether or not it is within the range, the necessity of mapping at each representative point of the texture expressing the phenomenon whose occurrence state should change in relation to the specific direction is determined, and the representative of which the mapping of the texture is determined to be necessary A method for representing an image, wherein the texture is mapped to an area associated with a point. 前記特定方向として前記仮想3次元空間に設定された風向きを考慮するとともに、前記テクスチャは、前記特定方向に関連して発生する現象として前記オブジェクトから跳ね返る飛沫を表現するように構成し、前記風向きと前記法線の方向とのずれが所定範囲に収まっている代表点に関しては前記飛沫を表現するテクスチャをマッピングし、前記風向きと前記法線の方向とのずれが所定範囲から外れている代表点に関しては前記飛沫を表現するテクスチャのマッピングを省略することを特徴とする請求項1に記載の画像の表現方法。  Considering the wind direction set in the virtual three-dimensional space as the specific direction, the texture is configured to express splash splashing from the object as a phenomenon occurring in relation to the specific direction, and the wind direction and For a representative point whose deviation from the direction of the normal line is within a predetermined range, a texture expressing the splash is mapped, and for a representative point where the deviation between the wind direction and the direction of the normal line is out of the predetermined range 2. The image representing method according to claim 1, wherein mapping of the texture representing the splash is omitted. 前記テクスチャのマッピングが必要と判断された代表点とその代表点に対応して前記テクスチャがマッピングされるべき領域との位置的関係を、一フレーム毎、又は複数フレーム毎に変化させることを特徴とする請求項1又は2に記載の画像の表現方法。The positional relationship between a representative point determined to require mapping of the texture and a region to which the texture should be mapped corresponding to the representative point is changed for each frame or for each of a plurality of frames. The image expression method according to claim 1 or 2 . 前記オブジェクトを構成するポリゴンにマッピングされるべきテクスチャの内容を考慮して各代表点の法線の方向が決定されていることを特徴とする請求項1〜のいずれか1項に記載の画像の表現方法。The image according to any one of claims 1 to 3 , wherein the direction of the normal of each representative point is determined in consideration of the content of the texture to be mapped to the polygon constituting the object. Expression method. 前記内容として、前記テクスチャによって表現されるオブジェクトの形状を考慮することを特徴とする請求項に記載の画像の表現方法。The image representation method according to claim 4 , wherein a shape of an object represented by the texture is considered as the content. 前記オブジェクトの少なくとも一部では、一つのポリゴンに複数の代表点が設定されていることを特徴とする請求項又はに記載の画像の表現方法。At least a portion, the representation of the image according to claim 4 or 5, wherein a plurality of representative points in one polygon is set in the object. 前記オブジェクトを構成するポリゴンにマッピングされるべきテクスチャによって表現されるオブジェクトの表面の質からみて、当該オブジェクト上で前記現象が生じない範囲を前記マッピングの対象から除外することを特徴とする請求項1〜のいずれか1項に記載の画像の表現方法。The range in which the phenomenon does not occur on the object is excluded from the mapping target in view of the surface quality of the object represented by the texture to be mapped to the polygon constituting the object. The image representation method according to any one of to 6 . 仮想3次元空間内のオブジェクトの表面に設定された複数の代表点のそれぞれにおける法線の方向と、前記仮想3次元空間の環境によって定められる特定方向とのずれが、所定範囲に収まっているか否かにより、その特定方向に関連して発生状態が変化すべき現象を表現したテクスチャの各代表点におけるマッピングの要否を判定する処理と、前記テクスチャのマッピングが必要と判断された代表点に対応付けられた領域に前記テクスチャをマッピングする処理とをコンピュータに実行させるように構成されたことを特徴とするプログラム。 Whether or not the deviation between the direction of the normal line at each of a plurality of representative points set on the surface of the object in the virtual three-dimensional space and the specific direction determined by the environment of the virtual three-dimensional space is within a predetermined range. Depending on the process, the process of determining whether mapping is necessary at each representative point of the texture expressing the phenomenon whose occurrence state should change in relation to the specific direction, and corresponding to the representative point at which the mapping of the texture is determined to be necessary A program configured to cause a computer to execute a process of mapping the texture to an attached area. 前記判定する処理では、前記特定方向として前記仮想3次元空間に設定された風向きを考慮するとともに、前記風向きと前記法線の方向とのずれが所定範囲に収まっている代表点に関しては前記テクスチャのマッピングが必要と判断し、その一方で前記風向きと前記法線の方向とのずれが所定範囲から外れている代表点に関しては前記テクスチャのマッピングが不要と判断し、前記テクスチャをマッピングする処理では、前記特定方向に関連して発生する現象として前記オブジェクトから跳ね返る飛沫を表現するテクスチャをマッピングするように構成されたことを特徴とする請求項に記載のプログラム。In the determination process, the wind direction set in the virtual three-dimensional space is considered as the specific direction, and the representative point where the deviation between the wind direction and the normal direction is within a predetermined range is included in the texture. On the other hand, it is determined that mapping is necessary, and on the other hand, regarding the representative point where the deviation between the wind direction and the direction of the normal line is out of a predetermined range, it is determined that mapping of the texture is unnecessary, and in the process of mapping the texture, 9. The program according to claim 8 , wherein the program is configured to map a texture representing splash splashing from the object as a phenomenon that occurs in relation to the specific direction. 前記テクスチャのマッピングが必要と判断された代表点とその代表点に対応して前記テクスチャがマッピングされるべき領域との位置的関係を、一フレーム毎、又は複数フレーム毎に変化させるように構成されたことを特徴とする請求項8又は9に記載のプログラム。It is configured to change the positional relationship between a representative point determined to require mapping of the texture and a region to which the texture should be mapped corresponding to the representative point for each frame or for each of a plurality of frames. The program according to claim 8 or 9 , wherein 前記オブジェクトを構成するポリゴンにマッピングされるべきテクスチャの内容を考慮して決定された各代表点の法線の方向を使用して前記判定する処理を行うように構成されたことを特徴とする請求項10のいずれか1項に記載のプログラム。The configuration is such that the determination process is performed using a normal direction of each representative point determined in consideration of the content of a texture to be mapped to a polygon constituting the object. Item 11. The program according to any one of Items 8 to 10 . 前記内容として、前記テクスチャによって表現されるオブジェクトの形状が考慮されていることを特徴とする請求項11に記載のプログラム。The program according to claim 11 , wherein a shape of an object expressed by the texture is considered as the content. 前記オブジェクトの少なくとも一部を構成する一つのポリゴンについては、そのポリゴンに設定された複数の代表点を対象として前記判定する処理を行うように構成されたことを特徴とする請求項11又は12に記載のプログラム。For one of the polygons constituting at least a part of the object, in claim 11 or 12, characterized in that it is configured to perform the process of determining a plurality of representative points that are set in the polygon as a target The listed program. 前記オブジェクトを構成するポリゴンにマッピングされるべきテクスチャによって表現されるオブジェクトの表面の質からみて、当該オブジェクト上で前記現象が生じない範囲を前記マッピングの対象から除外するように構成されたことを特徴とする請求項13のいずれか1項に記載のプログラム。In view of the quality of the surface of the object represented by the texture to be mapped to the polygon constituting the object, a range in which the phenomenon does not occur on the object is excluded from the mapping target. The program according to any one of claims 8 to 13 .
JP2001045222A 2001-02-21 2001-02-21 Image representation method and program used therefor Expired - Lifetime JP3655555B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001045222A JP3655555B2 (en) 2001-02-21 2001-02-21 Image representation method and program used therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001045222A JP3655555B2 (en) 2001-02-21 2001-02-21 Image representation method and program used therefor

Publications (2)

Publication Number Publication Date
JP2002251628A JP2002251628A (en) 2002-09-06
JP3655555B2 true JP3655555B2 (en) 2005-06-02

Family

ID=18907060

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001045222A Expired - Lifetime JP3655555B2 (en) 2001-02-21 2001-02-21 Image representation method and program used therefor

Country Status (1)

Country Link
JP (1) JP3655555B2 (en)

Also Published As

Publication number Publication date
JP2002251628A (en) 2002-09-06

Similar Documents

Publication Publication Date Title
US6580430B1 (en) Method and apparatus for providing improved fog effects in a graphics system
US6151026A (en) Image processing apparatus and image processing method
JP4941934B2 (en) Image generating apparatus and image generating program
JP4672072B2 (en) Method and apparatus for providing non-realistic cartoon outline in 3D video graphics system
EP1229499A2 (en) System and method for creating real-time shadows of transparent objects
US6914612B2 (en) Image drawing method, image drawing apparatus, recording medium, and program
US6717575B2 (en) Image drawing method, image drawing apparatus, recording medium, and program
JP2004005452A (en) Image processor, image processing method, semiconductor device, computer program and record medium
JP2007141082A (en) Program, texture data structure, information storage medium, and image generation system
JP4749198B2 (en) Program, information storage medium, and image generation system
JP3576126B2 (en) Image generation system, program, and information storage medium
JP2006323512A (en) Image generation system, program, and information storage medium
JP4303395B2 (en) GAME DEVICE AND INFORMATION STORAGE MEDIUM
JP3655555B2 (en) Image representation method and program used therefor
US7710419B2 (en) Program, information storage medium, and image generation system
JP2004341570A (en) Image generation system, program and information storage medium
JP4717624B2 (en) Image generation system, program, and information storage medium
US7724255B2 (en) Program, information storage medium, and image generation system
JP2011215724A (en) Program, information storage medium, and image generation system
JP3706545B2 (en) Image generation method and program used therefor
JP3540774B2 (en) Image processing method and image processing program
JP2010231364A (en) Image generation system, program and information recording medium
JP2007164736A (en) Image generation system, program and information storage medium
JP3574628B2 (en) Image processing method and image processing program
JP4589517B2 (en) Information storage medium and image generation apparatus

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20041109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20041116

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050112

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050301

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050303

R150 Certificate of patent or registration of utility model

Ref document number: 3655555

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080311

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

Free format text: JAPANESE INTERMEDIATE CODE: R313115

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080311

Year of fee payment: 3

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080311

Year of fee payment: 3

R370 Written measure of declining of transfer procedure

Free format text: JAPANESE INTERMEDIATE CODE: R370

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090311

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090311

Year of fee payment: 4

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090311

Year of fee payment: 4

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090311

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100311

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110311

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110311

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120311

Year of fee payment: 7

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130311

Year of fee payment: 8

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140311

Year of fee payment: 9

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S802 Written request for registration of partial abandonment of right

Free format text: JAPANESE INTERMEDIATE CODE: R311802

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term