JP3748554B2 - Image generating apparatus, image generating method, and program - Google Patents
Image generating apparatus, image generating method, and program Download PDFInfo
- Publication number
- JP3748554B2 JP3748554B2 JP2003028178A JP2003028178A JP3748554B2 JP 3748554 B2 JP3748554 B2 JP 3748554B2 JP 2003028178 A JP2003028178 A JP 2003028178A JP 2003028178 A JP2003028178 A JP 2003028178A JP 3748554 B2 JP3748554 B2 JP 3748554B2
- Authority
- JP
- Japan
- Prior art keywords
- image data
- image
- dimensional object
- original texture
- display image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/04—Texture mapping
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/50—Lighting effects
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/60—Methods for processing data by generating or executing the game program
- A63F2300/66—Methods for processing data by generating or executing the game program for rendering three dimensional images
Landscapes
- Engineering & Computer Science (AREA)
- Computer Graphics (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Processing Or Creating Images (AREA)
- Image Generation (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、3次元画像データを利用するゲーム装置などで用いられる画像生成装置、画像生成方法及びプログラムに関する。
【0002】
【従来の技術】
3次元空間内を移動しながら、いわゆる敵キャラクタと戦闘を繰り広げたり、仮想的な冒険ゲームを楽しんだりといったゲームが近年ますます増えている。このような背景の下、ゲームのために供されるハードウエア(家庭用ゲーム装置やパーソナルコンピュータ等を含む)の画像生成能力の向上も近年めざましいものがあり、種々の画像表現が可能となっている。
【0003】
【発明が解決しようとする課題】
しかしながら、従来の画像生成装置においては、ポリゴンで構成される3次元オブジェクトについてその形成面の凹凸を正確に表現しようとすれば、ポリゴンを凹凸に沿って配置しなければならず、ポリゴン数が増大して演算時間が多大になってしまうという問題点があった。
【0004】
また、ポリゴンの形成面について、形成面上の各位置の法線方向の情報を調整して、光の反射方向を異ならせ、あたかも凹凸ができているかのように見せかける方法(バンプマップ法)を利用すれば、形成面部分には凹凸ができているように見えるが、実際にポリゴン自体の形状が変更されているわけではないので、ポリゴンのエッジ部分には凹凸の形状が現れるわけではない。
【0005】
そのため例えば、窓枠がゆがんでいるような表現や、窓枠が軟弱に揺れているような表現であるとか、ポリゴンで作られたキャラクタの表面があたかも呼吸をしているかのように揺れ動いているといった表現をポリゴン数を増大させることなく行うことができなかった。
【0006】
本発明は上記実情に鑑みて為されたもので、ポリゴン数の増大など、演算処理負荷を増大させることなく、柔軟性ある物体の表現をすることができる、画像生成装置、画像生成方法、及びプログラムを提供することを目的とする。
【0007】
【課題を解決するための手段】
上記従来例の問題点を解決するための本発明は、画像生成装置であって、3次元空間内に配置される少なくとも1つの3次元オブジェクトの情報と、視点位置の情報とに基づき、画面に表示する表示画像データを生成する表示画像生成手段と、前記表示画像データのうち、前記3次元オブジェクトに対応する画像領域を特定する画像領域特定データを記憶する画像領域特定データ記憶手段と、前記表示画像データに対して、前記画像領域特定データに基づき、少なくとも部分的に画像ぼかし処理を適用する画像処理手段と、を含むことを特徴としている。
このように画像ぼかし処理を用いることで、ポリゴン数の増大など、演算処理負荷を増大させることなく、柔軟性ある物体の表現をすることができる。
【0008】
また、上記従来例の問題点を解決するための本発明は、画像生成装置であって、3次元空間内に配置される少なくとも1つの3次元オブジェクトの情報と、視点位置の情報とに基づき、画面に表示する表示画像データを生成する表示画像生成手段と、前記3次元オブジェクト形成面に適用される要素画像データであって、前記3次元オブジェクトの形成面に対応する画像領域内に少なくとも1つの要素画像を描画した要素画像データを生成する要素画像生成手段と、前記生成された要素画像データを、前記3次元オブジェクトの情報に基づいて生成された表示画像データに合成し、前記画面に表示する合成表示画像データを生成する合成手段と、前記合成表示画像データに対して、少なくとも部分的に画像ぼかし処理を適用する画像処理手段と、を含むことを特徴としている。
このように要素画像データを合成して得た合成表示画像データに対して画像ぼかし処理を用いることで、ポリゴン数の増大など、演算処理負荷を増大させることなく、柔軟性ある物体の表現をすることができる。
【0009】
ここでさらに、前記3次元オブジェクトの形成面に適用されるオリジナルテクスチャマップ画像データを記憶する記憶手段を含み、前記表示画像生成手段は、表示画像データの生成の際に、前記記憶手段に記憶されているオリジナルテクスチャマップ画像データを3次元オブジェクトの形成面に適用した表示画像データを生成することとしてもよい。
【0010】
さらに前記オリジナルテクスチャマップ画像データは、オリジナルテクスチャ画像とは異なる画像データを合成可能な領域を特定する合成領域特定情報を含み、前記要素画像生成手段は、前記オリジナルテクスチャマップ画像データの合成領域特定情報に基づいて要素画像の描画位置を決定することとしてもよい。
【0011】
さらに前記要素画像データは、要素画像とは異なる画像データを合成可能な領域を特定する合成領域特定情報を含み、前記画像処理手段は、前記要素画像データと前記オリジナルテクスチャマップ画像データとのそれぞれに含まれる合成領域特定情報に基づいて画像ぼかし処理の適用部分を少なくとも一つ決定し、当該決定した適用部分に対して画像ぼかし処理を適用することとしてもよい。
【0012】
さらに前記要素画像データ又は前記画像ぼかし処理を適用する部分を時間経過とともに変更することとしてもよい。
【0013】
また、本発明のある態様に係る画像生成方法は、コンピュータを用い、3次元空間内に配置される少なくとも1つの3次元オブジェクトの情報と、視点位置の情報とに基づき、画面に表示する表示画像を生成する表示画像生成ステップと、前記表示画像のうち、前記3次元オブジェクトに対応する画像領域を特定する画像領域特定データを記憶する画像領域特定データ記憶ステップと、前記表示画像に対して、前記画像領域特定データに基づき、少なくとも部分的に画像ぼかし処理を適用する画像処理ステップと、を実行する画像生成方法である。
【0014】
さらに、本発明の別の態様に係るプログラムは、コンピュータに、3次元空間内に配置される少なくとも1つの3次元オブジェクトの情報と、視点位置の情報とに基づき、画面に表示する表示画像を生成する表示画像生成手順と、前記表示画像のうち、前記3次元オブジェクトに対応する画像領域を特定する画像領域特定データを記憶する画像領域特定データ記憶手順と、前記表示画像に対して、前記画像領域特定データに基づき、少なくとも部分的に画像ぼかし処理を適用する画像処理手順と、を実行させることとしたものである。
【0015】
さらに本発明の別の態様に係る表示画像データは、上記画像生成方法によって生成される表示画像データである。
【0016】
【発明の実施の形態】
本発明の実施の形態について図面を参照しながら説明する。本発明の実施の形態に係る画像生成装置は、例えば家庭用ゲーム装置を利用して実現でき、図1に示すように、制御部11と、描画部12と、表示部13と、記憶部14と、操作部15とを含んで構成されている。なお、ここでは家庭用ゲーム装置を例として説明するが、本発明の画像生成装置は、業務用ゲーム装置、パーソナルコンピュータ、映画製作などに利用されるコンピュータグラフィックス用のワークステーション、その他のコンピュータシステムにより実現できる。
【0017】
制御部11は、記憶部14からプログラムを読み出して、当該プログラムを実行する。具体的に、この制御部11は、当該読み出したプログラムに従ってゲームの処理を実行する。すなわち、制御部11は、描画部12に対してゲーム画面となる画像データを生成させる指示を出力し、操作部15から入力されるプレイヤの指示操作の内容に基づいてゲームの処理を行う。
【0018】
本実施の形態においては、この制御部11がプレイヤに行わせるゲームは、例えば3次元空間内を移動しながら、いわゆる敵キャラクタと戦闘を繰り広げたり、仮想的な冒険ゲームを楽しんだりといった、3次元空間内に配置された3次元オブジェクトの情報(例えばポリゴンの情報(ポリゴンの位置、色などの情報)や光源の情報(光源の位置、光の強さや色などの情報)等)に基づいて生成される画像データがゲーム画面として表示されるものである。
【0019】
描画部12は、制御部11から入力される指示に従い、3次元空間内に配置される3次元オブジェクトの情報に基づいて画面に表示する画像データを生成し、当該生成した画像データを表示部13に出力する。具体的に、この描画部12は、制御部11から別途与えられた視点情報を利用し、当該視点から3次元空間を見たときの状況を表す画像データを生成する。本実施の形態では画像データは、2次元に配列されたピクセル群を含んでなるビットマップである。
【0020】
本実施の形態において特徴的なことの一つは、この描画部12が、制御部11によって指示された3次元オブジェクトについて、そのエッジ部分に凹凸形状を付する、エッジ処理を行うことである。これら制御部11と描画部12との具体的な処理の内容については、後に詳しく述べる。
【0021】
表示部13は、描画部12から入力される画像データを記憶し、外部の表示用デバイスに当該画像データを表示させるための信号を出力する。例えば、この表示部13は、家庭用テレビ受像器に対して画像データを表示させるためのRF信号やNTSC信号等を出力する。またこの画像データを表示させるための信号は、ディスプレイに表示させるためのRGB信号等であってもよい。
【0022】
記憶部14は、制御部11によって実行されるべきプログラムを記憶している。この記憶部14は、RAM(Random Access Memory)のような半導体記憶素子だけでなく、CD−ROMやDVD−ROMなどのコンピュータ読み取り可能な記憶媒体に格納されているデータやプログラムを読み出す外部記憶デバイスを含んでもよい。また、プログラムをサーバに備えられたデータベースに格納して、当該サーバからプログラムを配信させる場合、このサーバに備えられたデータベースも、このような情報記憶媒体に含まれる。またこの記憶部14には、描画の対象となる3次元オブジェクトの情報と、3次元オブジェクトに対してそれぞれ適用されるべきテクスチャマップ画像データ(オリジナルテクスチャマップ画像データ)とを格納している。操作部15は、プレイヤの指示操作を受け入れて、その内容を制御部11に出力するゲームコントローラ等である。
【0023】
ここで、制御部11と描画部12とによって行われる処理の具体的な内容について、図2を参照しながら説明する。なお以下の説明において、柔軟性ある表現の対象となる3次元オブジェクトを柔軟処理対象オブジェクトと呼ぶ。図2は、本実施の形態に係る制御部11及び描画部12の処理の内容を表す機能ブロック図である。図2に示すように、本実施の形態に係る制御部11及び描画部12により実行される処理プログラムは、表示画像生成部21と、要素画像生成部22と、画像合成部23と、画像処理部24と、画像データ記憶部25と、を含んで構成される。
【0024】
表示画像生成部21は、3次元空間内に配置される3次元オブジェクトの情報を記憶部14から読み出し、当該3次元オブジェクトの情報と、所与の視点位置の情報とに基づいて画面に表示される表示画像データを生成し、画像データ記憶部25に格納する。具体的にこの表示画像データは、2次元的に配列されたピクセルの集合であり、表示画像生成部21は、各ピクセルを所定の順序で選択しながら、選択したピクセルの色を3次元オブジェクトの情報と、所与の視点位置の情報とに基づいて決定する。表示画像生成部21は、複数の3次元オブジェクトがある場合は、図3に示すように、仮想的なスクリーンS上に表示画像データを形成し、この表示画像データ上の各ピクセルを選択しながら、当該選択した各ピクセルを通じて、視点位置Oから見通される3次元オブジェクトのうち、最も視点位置に近い3次元オブジェクトの形成面のうち、視点位置側の面(以下、表面と呼ぶ)に適用される色を用いて当該選択したピクセルの色を決定する。例えば図3では円板状の3次元オブジェクトとスクリーンSとの間に、3角形の板状の3次元オブジェクトを配置した例を示しているが、ここでスクリーンS上に形成した表示画像データのピクセルPを通じて見通される3次元オブジェクトの表面上の点のうち、最も視点位置に近いものは円板上の点P′であり、一方ピクセルQを通じて見通される3次元オブジェクトの表面上の点のうち、最も視点位置に近いものは三角形の板上の点Q′である。従ってピクセルPの色は、P′部分の色を用い、ピクセルQの色はQ′部分の色を用いて決定される。なお、表示画像データの各ピクセルの情報には、当該ピクセルの色の情報とともに、当該ピクセルの色を決定した3次元オブジェクト上の位置までの視点位置からの距離の情報(Z値)が含まれる。
また、このように視点位置の情報に基づいて表示画像データを生成しているので、視点位置が変化した場合、表示画像データに表される3次元オブジェクトの見え方も変化する。つまり、視点位置を変化させると、柔軟処理の対象となるオブジェクト方向を見た場合の、当該柔軟処理対象オブジェクトの表示画像データ上の状態(見え方)も変化することになる。
【0025】
また、この表示画像生成部21は、表示画像データのうち、柔軟処理対象オブジェクトが描画されている領域、すなわち各ピクセルのうち、柔軟処理対象オブジェクトの表面の色を用いてその色を決定したピクセル群の位置(画像領域)を特定する情報を画像領域特定データとして生成し、対応する表示画像データに併せて画像データ記憶部25に格納する。この例では、この画像領域特定データによって、3次元オブジェクトの表面に対応する画像領域が特定される。さらに表示画像生成部21は、各ピクセルの色を決定するにあたり、記憶部14に格納されている、各3次元オブジェクトの表面に適用するべきオリジナルテクスチャマップ画像データを参照する。
【0026】
要素画像生成部22は、柔軟処理対象オブジェクトの表面に対応する画像領域内(画像領域特定データで示される領域内)に、少なくともその一部が重なり合う、少なくとも1つの図形(要素画像)を描画した画像データ(要素画像データ)を生成する。この図形は円形、三角形など任意の形状で構わない。また、この図形の色は、柔軟処理対象オブジェクトに適用されるべきオリジナルテクスチャマップ画像データに基づいて、その明度、彩度、色相の少なくともいずれかを調整した(例えば明度を乱数などによってランダムにばらつかせながら、図形内部の各ピクセルの色を決定していく)ものとしてもよい。さらに、要素画像を描画する位置は、画像領域特定データで示される領域のエッジ部分近傍としてもよい。
【0027】
画像合成部23は、表示画像生成部21が生成した表示画像データと、画像領域特定データと、要素画像生成部22が生成した要素画像データとを用い、まず表示画像データに要素画像データを合成して画像処理部24に出力する。ここで合成は、オリジナルテクスチャマップ画像データに含まれるα値マップ(他の画像データを合成可能な領域を特定する合成領域特定情報)に基づいて半透明合成を行うこととしてもよい。
【0028】
画像処理部24は、画像合成部23から入力される、合成後の表示画像データ(合成表示画像データ)のうち、少なくとも部分的にぼかし処理を行う。ここでぼかし処理としては、例えば合成表示画像データに対して2次元的なガウスフィルタを適用して行う処理などで構わない。さらに、ここでぼかし処理を行う部分としては、画像領域特定データにより特定される領域(つまり柔軟処理対象オブジェクトの表面に適用されるオリジナルテクスチャマップ画像データによりその色を定めたピクセル群の部分)及びその周囲に影響を与える部分とする。
【0029】
すなわち、このぼかし処理は、例えば合成表示画像データのうち、画像領域特定データにより特定される領域に含まれるいずれかのピクセルを中心に、当該中心となったピクセルの周囲のピクセルの色を補正するものであり、画像領域特定データにより特定される領域を超えてその周辺のピクセルの色にも影響を与える。これにより、柔軟処理対象オブジェクトの輪郭がふくれたり、へこんだりといった柔軟性のある状態が表現されるのである。
【0030】
また、この補正の際に、補正しようとするピクセルの情報に含まれるZ値(補正対象Z値)と、ぼかし処理の中心となったピクセルの情報に含まれるZ値(中心Z値)との大きさを比較し、その比較結果に基づいて補正を行うか否かを決定し、補正を行うと決定したときに、ぼかし処理による補正を行うようにしてもよい。例えば補正対象Z値が中心Z値よりも大きい場合にのみ、補正対象となったピクセルの色を補正するようにすればよい。また、補正対象Z値が中心Z値以下であっても、その差が予め定めた値(乱数によって定めてもよい)の範囲内であれば、ぼかし処理による補正を行うようにしてもよい。このようにすれば、柔軟に動く結果、手前側にある近傍のオブジェクトを掩蔽しているかのような表現もできるようになる。この画像処理部24によって処理された画像データは、画像データ記憶部25に格納され、表示部13に出力されるようになる。画像データ記憶部25は、これらの処理過程で利用又は生成される画像データを格納するもので、記憶部14に含まれていてもよいし、表示部13内に特にVRAM(Video RAM)を設けて、当該VRAMによって実現してもよい。
【0031】
この処理によると、例えば図4(a)に示す柔軟処理対象オブジェクトに基づく表示画像データを表示画像生成部21が生成して(図4(b))、画像合成部23に出力する。また、要素画像生成部22は、当該表示画像データ上で、柔軟処理対象オブジェクトに対応する画像領域特定データ(図4(c))によって特定される領域内に、要素画像を描画した要素画像データを生成して(図4(d))、画像合成部23に出力する。
画像合成部23は、表示画像生成部21から入力される表示画像データに、要素画像生成部22から入力される要素画像データを合成して(図4(e))、画像処理部24に出力する。画像処理部24は、合成された表示画像データ(合成表示画像データ)に、ぼかし処理を適用した画像データ(図4(f))を生成する。そして、このぼかし処理適用後の画像データが表示部13に出力される。このぼかし処理は、合成表示画像データ上でのオリジナルテクスチャマップ画像データと要素画像との輪郭をぼんやりとさせて馴染ませるとともに、輪郭を柔軟にさせるのに役立っている。
【0032】
この処理により、3次元空間内に配置されるオブジェクトについて、その端部があたかも変形しているような画像を、簡便に生成できる。さらに、ぼかし用画像データを時間とともにランダムに生成したり、ぼかし処理のパラメータを時間とともにランダムに変更してもよく、そのようにすることで、端部が柔軟に伸び縮みしているかのような画像データを生成できる。またランダムに変更するだけでなく、例えば時間とともに一定の規則に基づいて変更してもよい。
【0033】
本実施の形態に係る家庭用ゲーム装置を利用した画像生成装置によると、例えば、3次元空間内を移動しながら、いわゆる敵キャラクタと戦闘を繰り広げるゲームにおいて、敵キャラクタが呼吸をしているかのような表現が可能となる。さらに、3次元空間内を移動する冒険ゲームでは、例えば図4に示したような窓の開いた3次元オブジェクトに、当初は上記処理を適用しておき、何らかのゲームアイテムを取得するなどの所定条件が満足された場合に、上記処理の適用を停止することで、あたかも窓部分の輪郭が柔軟に変形してその部分の通過が阻まれていたものが、ゲームアイテムの取得などの所定条件により、窓部分の輪郭がはっきりと現れ、その部分を通過して次のゲームシーンに移動できるようになる、といった演出が可能となる。
【0034】
また、後者のように柔軟に変形しているかのように見せる処理と、そうでない処理とを任意の順序で順次行う場合には、合成処理やぼかし処理の適用量(適用範囲や合成の場合は合成率)、あるいは要素画像データに含まれる要素画像の色の濃さを時間とともに変更することで、徐々に柔軟性が失われていくかのような演出や、その逆に柔軟性が増していくかのような演出も可能になる。
【0035】
さらに、この処理の内容は、ここで説明した実施形態に限られるものではない。例えばここでは、表示画像生成部21により、各3次元オブジェクトまでの距離関係を考慮して表示画像データが生成されているが、まず各3次元オブジェクトに係る表示画像データを個別に生成して、そのうちの柔軟処理対象オブジェクトに係る表示画像データについて、要素画像データの生成、合成、及びぼかし処理の適用を行い、ピクセルごとに、各表示画像データ上の対応するピクセルのうち、Z値が最も小さいものを選択した画像データを生成することとしてもよい。
【0036】
また、ここまでの説明では、表示画像生成部21が、表示画像データのうち、柔軟処理対象オブジェクトが描画されている領域を特定する情報を画像領域特定データとして生成し、この画像領域特定データに基づいてぼかし処理を適用しているが、例えば柔軟処理対象オブジェクトに適用するオリジナルテクスチャマップ画像データのα値に基づいてぼかし処理を適用する部分を定めてもよい。この場合、表示画像データに含まれる、オリジナルテクスチャマップ画像データのα値を参照しながら、当該α値によって合成可能と示されている部分に含まれるピクセルを中心としてぼかし処理を適用する。
【0037】
さらに、この場合に、要素画像データのα値も参照し、要素画像データと、オリジナルテクスチャマップ画像データとのそれぞれのα値のいずれかにより合成可能と示されている部分に含まれているピクセルを中心としてぼかし処理を適用してもよい。このようにすると、柔軟処理対象オブジェクトの輪郭から突出して描画された要素画像部分も、ぼかし処理の中心となり得ることになる。
【0038】
さらにこの要素画像データについても、画像領域特定データだけでなく、又はその代わりに、オリジナルテクスチャマップ画像データのα値により合成可能と示されている部分に、少なくともその一部が重なり合う、少なくとも一つの要素画像を描画することで生成するようにしても構わない。
【0039】
このように要素画像データ及びぼかし処理を適用する部分をいずれかの画像データのα値などによって決定し、画像領域特定データを利用しない場合は、画像領域特定データは必ずしも必要でなく、表示画像生成部21は、当該データを生成しないものであっても構わない。
【0040】
またこのようにα値を用いる場合には、当該α値を時間とともに変更することでも、柔軟処理対象オブジェクトが徐々に柔軟性を獲得していったり、柔軟性を失っていったりといった処理が可能となる。
【0041】
さらに、ここまでの説明では、要素画像データを合成することとしているが、要素画像データを合成しなくとも、表示画像データのうち、画像領域特定データに示される部分又はオリジナルテクスチャマップ画像データのα値により合成可能と示されている部分の少なくとも一方に含まれるピクセルを中心に、単にぼかし処理を行うことでも、柔軟処理対象オブジェクトの輪郭部分をぼかして柔軟な物体を表現できる。この場合、画像領域特定データに示される部分又はオリジナルテクスチャマップ画像データのα値により合成可能と示されている部分の輪郭線上、又は輪郭線近傍を中心にぼかし処理を行うこととするのもよい。
【0042】
さらに、本実施の形態ではゲーム装置におけるゲーム上の表現を行う例を示したが、例えば映画や、3次元グラフィックスソフトウエアなどにおいて同種の表現をする場合にも本発明を適用することができる。
【0043】
【発明の効果】
本発明によれば、演算処理負荷を増大させることなく、柔軟性ある物体の表現をすることができる。
【図面の簡単な説明】
【図1】 本発明の実施の形態に係る画像生成装置の一例としての構成ブロック図である。
【図2】 本発明の実施の形態に係る画像生成装置の処理の一例を表す機能ブロック図である。
【図3】 本発明の実施の形態に係る画像生成装置が行う表示画像データの生成処理の例を表す説明図である。
【図4】 本発明の実施の形態に係る画像生成の処理の状況の例を表す説明図である。
【符号の説明】
11 制御部、12 描画部、13 表示部、14 記憶部、15 操作部、21 表示画像生成部、22 要素画像生成部、23 画像合成部、24 画像処理部、25 画像データ記憶部。[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image generation apparatus, an image generation method, and a program used in a game apparatus that uses three-dimensional image data.
[0002]
[Prior art]
In recent years, games such as fighting against so-called enemy characters and enjoying virtual adventure games while moving in a three-dimensional space have been increasing. Under such circumstances, there has been a remarkable improvement in image generation capability of hardware (including home game devices and personal computers) provided for games in recent years, and various image representations have become possible. Yes.
[0003]
[Problems to be solved by the invention]
However, in the conventional image generation apparatus, if it is intended to accurately express the unevenness of the formation surface of a three-dimensional object composed of polygons, the polygons must be arranged along the unevenness, and the number of polygons increases. As a result, there is a problem in that the computation time becomes enormous.
[0004]
Also, on the polygon formation surface, adjust the information of the normal direction of each position on the formation surface to change the light reflection direction, and make it appear as if unevenness (bump map method) If it is used, the formation surface portion appears to be uneven, but since the shape of the polygon itself is not actually changed, the uneven shape does not appear at the edge portion of the polygon.
[0005]
Therefore, for example, the expression that the window frame is distorted, the expression that the window frame is swaying softly, or the surface of the character made of polygons is shaking as if breathing. Such an expression could not be performed without increasing the number of polygons.
[0006]
The present invention has been made in view of the above circumstances, and an image generation apparatus, an image generation method, and an image generation apparatus capable of expressing a flexible object without increasing an operation processing load such as an increase in the number of polygons. The purpose is to provide a program.
[0007]
[Means for Solving the Problems]
The present invention for solving the problems of the conventional example described above is an image generation apparatus, which is based on information on at least one three-dimensional object arranged in a three-dimensional space and information on a viewpoint position. Display image generating means for generating display image data to be displayed; image area specifying data storage means for storing image area specifying data for specifying an image area corresponding to the three-dimensional object in the display image data; and the display Image processing means for applying image blurring processing at least partially to the image data based on the image area specifying data.
By using the image blurring process in this way, a flexible object can be expressed without increasing the calculation processing load such as an increase in the number of polygons.
[0008]
In addition, the present invention for solving the problems of the conventional example is an image generation device based on information on at least one three-dimensional object arranged in a three-dimensional space and information on a viewpoint position. Display image generation means for generating display image data to be displayed on the screen, and element image data applied to the three-dimensional object formation surface, wherein at least one image area corresponds to the formation surface of the three-dimensional object Element image generation means for generating element image data in which an element image is drawn, and the generated element image data are combined with display image data generated based on the information of the three-dimensional object and displayed on the screen. Compositing means for generating composite display image data, and image processing means for applying image blurring processing at least partially to the composite display image data It is characterized in that it comprises a.
By using image blurring processing on the combined display image data obtained by combining element image data in this way, a flexible object can be expressed without increasing the processing load such as an increase in the number of polygons. be able to.
[0009]
Here, the image processing apparatus further includes a storage unit that stores original texture map image data applied to the formation surface of the three-dimensional object, and the display image generation unit is stored in the storage unit when generating the display image data. Display image data obtained by applying the original texture map image data applied to the formation surface of the three-dimensional object may be generated.
[0010]
Further, the original texture map image data includes synthesis area specifying information for specifying an area in which image data different from the original texture image can be synthesized, and the element image generating means includes the synthesis area specifying information of the original texture map image data. The drawing position of the element image may be determined based on the above.
[0011]
Further, the element image data includes synthesis area specifying information for specifying an area in which image data different from the element image can be combined, and the image processing means includes each of the element image data and the original texture map image data. It is also possible to determine at least one application part of the image blurring process based on the synthesis area specifying information included and apply the image blurring process to the determined application part.
[0012]
Furthermore, it is good also as changing the part which applies the said element image data or the said image blurring process with progress of time.
[0013]
Further, an image generation method according to an aspect of the present invention is a display image displayed on a screen based on information on at least one three-dimensional object arranged in a three-dimensional space and information on a viewpoint position using a computer. A display image generation step of generating, an image region specification data storage step of storing image region specification data for specifying an image region corresponding to the three-dimensional object among the display images, and the display image, An image generation method that executes an image processing step that applies image blurring processing at least partially based on image area specifying data.
[0014]
Furthermore, a program according to another aspect of the present invention generates a display image to be displayed on a screen based on information on at least one three-dimensional object arranged in a three-dimensional space and information on a viewpoint position. A display image generating procedure for storing, an image region specifying data storing procedure for storing image region specifying data for specifying an image region corresponding to the three-dimensional object, and the image region for the display image And an image processing procedure for applying an image blurring process at least partially based on the specific data.
[0015]
Furthermore, display image data according to another aspect of the present invention is display image data generated by the image generation method.
[0016]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of the present invention will be described with reference to the drawings. The image generation device according to the embodiment of the present invention can be realized by using, for example, a home game device. As shown in FIG. 1, the
[0017]
The
[0018]
In the present embodiment, the game that the
[0019]
The
[0020]
One of the characteristic features of the present embodiment is that the
[0021]
The
[0022]
The
[0023]
Here, the specific content of the process performed by the
[0024]
The display
In addition, since display image data is generated based on the viewpoint position information as described above, when the viewpoint position changes, the appearance of the three-dimensional object represented in the display image data also changes. That is, when the viewpoint position is changed, the state (appearance) on the display image data of the flexible processing target object when the direction of the object to be subjected to the flexible processing is viewed also changes.
[0025]
In addition, the display
[0026]
The element
[0027]
The
[0028]
The
[0029]
That is, in this blurring process, for example, one of the pixels included in the area specified by the image area specifying data in the composite display image data is corrected, and the color of the pixels around the center pixel is corrected. It affects the color of the surrounding pixels beyond the area specified by the image area specifying data. As a result, a flexible state is expressed such that the contour of the flexible processing target object is swollen or dented.
[0030]
In this correction, the Z value (correction target Z value) included in the information of the pixel to be corrected and the Z value (center Z value) included in the information of the pixel that is the center of the blurring process It is also possible to compare the sizes, determine whether to perform correction based on the comparison result, and perform correction by blurring processing when it is determined to perform correction. For example, only when the correction target Z value is larger than the center Z value, the color of the pixel to be corrected may be corrected. Even if the correction target Z value is equal to or less than the center Z value, correction by blurring may be performed if the difference is within a predetermined value range (which may be determined by a random number). In this way, as a result of flexible movement, it is possible to express as if the nearby object on the near side is obscured. The image data processed by the
[0031]
According to this processing, for example, the display
The
[0032]
By this processing, an image in which the end portion of the object arranged in the three-dimensional space is deformed can be easily generated. Furthermore, blur image data may be randomly generated with time, or blur processing parameters may be randomly changed with time. By doing so, it is as if the end portion is flexibly expanded and contracted. Image data can be generated. In addition to changing randomly, for example, the time may be changed based on a certain rule with time.
[0033]
According to the image generation device using the home game device according to the present embodiment, for example, in a game in which a battle with a so-called enemy character is performed while moving in a three-dimensional space, the enemy character seems to be breathing. Expression is possible. Furthermore, in an adventure game that moves in a three-dimensional space, for example, a predetermined condition such as acquiring some game item by initially applying the above process to a three-dimensional object with a window as shown in FIG. Is satisfied, by stopping the application of the above processing, it is as if the outline of the window part was deformed flexibly and the passage of that part was blocked by the predetermined conditions such as acquisition of game items, It is possible to produce an effect that the outline of the window portion appears clearly, and it is possible to move to the next game scene through that portion.
[0034]
In addition, when the processing that makes it appear as if it is deformed flexibly as in the latter case and the processing that is not so are sequentially performed in an arbitrary order, the amount of synthesis processing or blurring processing (in the case of application range or composition) By changing the color density of the element image included in the element image data over time, the effect of gradually losing flexibility and vice versa It will be possible to produce some kind of performance.
[0035]
Furthermore, the contents of this processing are not limited to the embodiment described here. For example, here, the display image data is generated by the display
[0036]
In the description so far, the display
[0037]
Further, in this case, the pixel included in the portion that is also referred to as the compositible by one of the respective α values of the element image data and the original texture map image data with reference to the α value of the element image data. The blurring process may be applied around the center. In this way, the element image portion drawn so as to protrude from the outline of the flexible processing target object can also be the center of the blurring process.
[0038]
Further, this elemental image data is not limited to the image area specifying data, or instead, at least one part of which overlaps at least a part of the original texture map image data that is indicated as being compositable by the α value. You may make it produce | generate by drawing an element image.
[0039]
In this way, when the element image data and the part to which the blurring process is applied are determined by the α value of any image data and the image area specifying data is not used, the image area specifying data is not necessarily required, and the display image is generated. The
[0040]
In addition, when the α value is used in this way, the flexible processing target object can gradually acquire flexibility or lose flexibility by changing the α value with time. It becomes.
[0041]
Further, in the above description, the element image data is synthesized. However, even if the element image data is not synthesized, the portion of the display image data indicated by the image area specifying data or the α of the original texture map image data is used. A flexible object can be expressed by blurring the contour portion of the object to be processed by simply performing the blurring process around pixels included in at least one of the parts indicated to be compositable by value. In this case, the blurring process may be performed on the contour line of the portion indicated in the image area specifying data or the portion indicated as compositable by the α value of the original texture map image data or around the contour line. .
[0042]
Furthermore, in the present embodiment, an example in which a game apparatus is used to express a game has been described. However, the present invention can also be applied to a case where the same kind of expression is used in, for example, a movie or 3D graphics software. .
[0043]
【The invention's effect】
According to the present invention, it is possible to represent a flexible object without increasing the calculation processing load.
[Brief description of the drawings]
FIG. 1 is a configuration block diagram as an example of an image generation apparatus according to an embodiment of the present invention.
FIG. 2 is a functional block diagram illustrating an example of processing of the image generation apparatus according to the embodiment of the present invention.
FIG. 3 is an explanatory diagram illustrating an example of display image data generation processing performed by the image generation apparatus according to the embodiment of the present invention.
FIG. 4 is an explanatory diagram illustrating an example of a status of image generation processing according to the embodiment of the present invention.
[Explanation of symbols]
DESCRIPTION OF
Claims (4)
前記3次元オブジェクトの形成面に適用される要素画像データであって、前記3次元オブジェクトの形成面に対応する画像領域内に少なくとも1つの要素画像を描画した要素画像データを生成する要素画像生成手段と、
前記生成された要素画像データを、前記3次元オブジェクトの情報に基づいて生成された表示画像データに合成し、前記画面に表示する合成表示画像データを生成する合成手段と、
前記合成表示画像データに対して、少なくとも部分的に、周囲のピクセルの色を補正する処理である画像ぼかし処理を適用する画像処理手段と、
前記3次元オブジェクトの形成面に適用されるオリジナルテクスチャマップ画像データを記憶する記憶手段と、を含み、
前記表示画像生成手段は、表示画像データの生成の際に、前記記憶手段に記憶されているオリジナルテクスチャマップ画像データを3次元オブジェクトの形成面に適用した表示画像データを生成し、
前記オリジナルテクスチャマップ画像データは、オリジナルテクスチャ画像とは異なる画像データを合成可能な領域を特定する合成領域特定情報を含み、
前記要素画像生成手段は、前記オリジナルテクスチャマップ画像データの合成領域特定情報に基づいて、前記オリジナルテクスチャマップ画像データに基づいて色が調整された要素画像の描画位置を、前記3次元オブジェクトの輪郭から突出するよう決定し、
前記要素画像データは、要素画像とは異なる画像データを合成可能な領域を特定する合成領域特定情報を含み、
前記画像処理手段は、前記要素画像データと前記オリジナルテクスチャマップ画像データとのそれぞれに含まれる合成領域特定情報に基づいて前記画像ぼかし処理の適用部分を少なくとも一つ決定し、当該決定した適用部分に対して前記画像ぼかし処理を適用する、
ことを特徴とする画像生成装置。Display image generating means for generating display image data to be displayed on the screen based on information on at least one three-dimensional object arranged in the three-dimensional space and information on the viewpoint position;
Element image generation means for generating element image data to be applied to the formation surface of the three-dimensional object, in which at least one element image is drawn in an image region corresponding to the formation surface of the three-dimensional object When,
Combining the generated element image data with display image data generated based on the information of the three-dimensional object, and generating combined display image data to be displayed on the screen;
Image processing means for applying image blurring processing, which is processing for correcting the color of surrounding pixels, at least in part to the composite display image data;
Storage means for storing original texture map image data applied to the formation surface of the three-dimensional object,
The display image generation unit generates display image data in which the original texture map image data stored in the storage unit is applied to the formation surface of the three-dimensional object when generating the display image data.
The original texture map image data includes synthesis area specifying information for specifying an area where image data different from the original texture image can be synthesized,
The element image generation means is configured to determine a drawing position of an element image whose color is adjusted based on the original texture map image data from the outline of the three-dimensional object based on the synthesis area specifying information of the original texture map image data. Decide to protrude,
The element image data includes composite area specifying information for specifying an area where image data different from the element image can be combined,
The image processing means determines at least one application part of the image blurring process based on composite area specifying information included in each of the element image data and the original texture map image data, and determines the determined application part. Applying the image blur processing to
Image generating device comprising a call.
前記要素画像データ又は前記画像ぼかし処理を適用する部分を時間経過とともに変更することを特徴とする画像生成装置。The image generation apparatus according to claim 1 ,
An image generating apparatus, wherein the element image data or a portion to which the image blurring process is applied is changed over time.
3次元空間内に配置される少なくとも1つの3次元オブジェクトの情報と、視点位置の情報とに基づき、画面に表示する表示画像データを生成する表示画像生成ステップと、
前記3次元オブジェクトの形成面に適用される要素画像データであって、前記3次元オブジェクトの形成面に対応する画像領域内に少なくとも1つの要素画像を描画した要素画像データを生成する要素画像生成ステップと、
前記生成された要素画像データを、前記3次元オブジェクトの情報に基づいて生成された表示画像データに合成し、前記画面に表示する合成表示画像データを生成する合成ステップと、
前記合成表示画像データに対して、少なくとも部分的に、周囲のピクセルの色を補正する処理である画像ぼかし処理を適用する画像処理ステップと、を含み、
前記表示画像生成ステップは、表示画像データの生成の際に、記憶手段に記憶されているオリジナルテクスチャマップ画像データを3次元オブジェクトの形成面に適用した表示画像データを生成し、
前記オリジナルテクスチャマップ画像データは、オリジナルテクスチャ画像とは異なる画像データを合成可能な領域を特定する合成領域特定情報を含み、
前記要素画像生成ステップは、前記オリジナルテクスチャマップ画像データの合成領域特定情報に基づいて、前記オリジナルテクスチャマップ画像データに基づいて色が調整された要素画像の描画位置を、前記3次元オブジェクトの輪郭から突出するよう決定し、
前記要素画像データは、要素画像とは異なる画像データを合成可能な領域を特定する合成領域特定情報を含み、
前記画像処理ステップは、前記要素画像データと前記オリジナルテクスチャマップ画像データとのそれぞれに含まれる合成領域特定情報に基づいて前記画像ぼかし処理の適用部分を少なくとも一つ決定し、当該決定した適用部分に対して前記画像ぼかし処理を適用する、
ことを特徴とする画像生成方法。Using a computer
A display image generation step of generating display image data to be displayed on the screen based on information on at least one three-dimensional object arranged in the three-dimensional space and information on the viewpoint position;
Element image generation step of generating element image data applied to the formation surface of the three-dimensional object, in which at least one element image is drawn in an image region corresponding to the formation surface of the three-dimensional object When,
Combining the generated elemental image data with display image data generated based on the information of the three-dimensional object, and generating combined display image data to be displayed on the screen;
An image processing step of applying an image blurring process, which is a process of correcting the color of surrounding pixels, at least partially to the composite display image data,
The display image generation step generates display image data in which the original texture map image data stored in the storage means is applied to the formation surface of the three-dimensional object when generating the display image data.
The original texture map image data includes synthesis area specifying information for specifying an area where image data different from the original texture image can be synthesized,
In the element image generation step, the drawing position of the element image whose color is adjusted based on the original texture map image data is determined from the outline of the three-dimensional object based on the synthesis area specifying information of the original texture map image data. Decide to protrude,
The element image data includes composite area specifying information for specifying an area where image data different from the element image can be combined,
The image processing step determines at least one application part of the image blurring process based on synthesis region specifying information included in each of the element image data and the original texture map image data, and determines the determined application part. Applying the image blur processing to
Image generation method characterized by and this.
3次元空間内に配置される少なくとも1つの3次元オブジェクトの情報と、視点位置の情報とに基づき、画面に表示する表示画像データを生成する表示画像生成手順と、
前記3次元オブジェクトの形成面に適用される要素画像データであって、前記3次元オブジェクトの形成面に対応する画像領域内に少なくとも1つの要素画像を描画した要素画像データを生成する要素画像生成手順と、
前記生成された要素画像データを、前記3次元オブジェクトの情報に基づいて生成された表示画像データに合成し、前記画面に表示する合成表示画像データを生成する合成手順と、
前記合成表示画像データに対して、少なくとも部分的に、周囲のピクセルの色を補正する処理である画像ぼかし処理を適用する画像処理手順と、
を実行させるプログラムであって、
前記表示画像生成手順は、表示画像データの生成の際に、記憶手段に記憶されているオリジナルテクスチャマップ画像データを3次元オブジェクトの形成面に適用した表示画像データを生成し、
前記オリジナルテクスチャマップ画像データは、オリジナルテクスチャ画像とは異なる画像データを合成可能な領域を特定する合成領域特定情報を含み、
前記要素画像生成手順は、前記オリジナルテクスチャマップ画像データの合成領域特定情報に基づいて、前記オリジナルテクスチャマップ画像データに基づいて色が調整された要素画像の描画位置を、前記3次元オブジェクトの輪郭から突出するよう決定し、
前記要素画像データは、要素画像とは異なる画像データを合成可能な領域を特定する合成領域特定情報を含み、
前記画像処理手順は、前記要素画像データと前記オリジナルテクスチャマップ画像データとのそれぞれに含まれる合成領域特定情報に基づいて前記画像ぼかし処理の適用部分を少なくとも一つ決定し、当該決定した適用部分に対して前記画像ぼかし処理を適用する、
ことを特徴とするプログラム。On the computer,
A display image generation procedure for generating display image data to be displayed on the screen based on information on at least one three-dimensional object arranged in the three-dimensional space and information on the viewpoint position;
Element image generation procedure for generating element image data to be applied to the formation surface of the three-dimensional object, in which at least one element image is drawn in an image region corresponding to the formation surface of the three-dimensional object When,
Combining the generated element image data with display image data generated based on the information of the three-dimensional object, and generating combined display image data to be displayed on the screen;
An image processing procedure for applying an image blurring process, which is a process of correcting the color of surrounding pixels, at least in part to the composite display image data;
A program for executing
The display image generation procedure generates display image data in which the original texture map image data stored in the storage means is applied to the formation surface of the three-dimensional object when generating the display image data.
The original texture map image data includes synthesis area specifying information for specifying an area where image data different from the original texture image can be synthesized,
The element image generation procedure is configured to determine a drawing position of an element image whose color is adjusted based on the original texture map image data from the outline of the three-dimensional object based on the synthesis area specifying information of the original texture map image data. Decide to protrude,
The element image data includes composite area specifying information for specifying an area where image data different from the element image can be combined,
In the image processing procedure, at least one application portion of the image blurring process is determined based on the synthesis area specifying information included in each of the element image data and the original texture map image data. Applying the image blur processing to
Program which is characterized a call.
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003028178A JP3748554B2 (en) | 2003-02-05 | 2003-02-05 | Image generating apparatus, image generating method, and program |
PCT/JP2003/012526 WO2004070662A1 (en) | 2003-02-05 | 2003-09-30 | Image generation device, image generation method, and program |
AU2003266720A AU2003266720A1 (en) | 2003-02-05 | 2003-09-30 | Image generation device, image generation method, and program |
EP03815741A EP1591964A4 (en) | 2003-02-05 | 2003-09-30 | Image generation device, image generation method, and program |
US10/769,751 US20040198505A1 (en) | 2003-02-05 | 2004-02-03 | Image generating apparatus, image generating method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003028178A JP3748554B2 (en) | 2003-02-05 | 2003-02-05 | Image generating apparatus, image generating method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004240631A JP2004240631A (en) | 2004-08-26 |
JP3748554B2 true JP3748554B2 (en) | 2006-02-22 |
Family
ID=32844196
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003028178A Expired - Fee Related JP3748554B2 (en) | 2003-02-05 | 2003-02-05 | Image generating apparatus, image generating method, and program |
Country Status (5)
Country | Link |
---|---|
US (1) | US20040198505A1 (en) |
EP (1) | EP1591964A4 (en) |
JP (1) | JP3748554B2 (en) |
AU (1) | AU2003266720A1 (en) |
WO (1) | WO2004070662A1 (en) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3728183B2 (en) * | 2000-06-23 | 2005-12-21 | キヤノン株式会社 | Printing control apparatus, drawing control apparatus, data processing method, and storage medium |
JP2011097192A (en) * | 2009-10-27 | 2011-05-12 | Hanamaru Kk | Encrypted message transmission device, program, encrypted message transmission method, and authentication system |
US8608550B1 (en) | 2010-11-12 | 2013-12-17 | Wms Gaming, Inc | Coordinating three dimensional wagering game content presentations |
US8784206B1 (en) | 2011-04-15 | 2014-07-22 | Wms Gaming, Inc. | Modifying presentation of three-dimensional, wagering-game content |
IN2015DN03807A (en) * | 2012-11-20 | 2015-10-02 | Jolla Oy | |
US20170105023A1 (en) * | 2015-10-08 | 2017-04-13 | Qualcomm Incorporated | Signaling of updated video regions |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2792376B2 (en) * | 1993-02-02 | 1998-09-03 | 松下電器産業株式会社 | Image blur processing device |
GB9616262D0 (en) * | 1996-08-02 | 1996-09-11 | Philips Electronics Nv | Post-processing generation of focus/defocus effects for computer graphics images |
JP4291892B2 (en) * | 1996-12-06 | 2009-07-08 | 株式会社セガ | Image processing apparatus and method |
GB2325131B (en) * | 1997-03-27 | 2002-01-16 | British Broadcasting Corp | Improvements in artificial image generation |
CA2316611A1 (en) * | 1999-08-31 | 2001-02-28 | Nintendo Co. Ltd. | Method and apparatus for providing depth blur effects within a 3d videographics system |
JP2001229403A (en) * | 2000-02-17 | 2001-08-24 | Namco Ltd | Game system and information storage medium |
TW469415B (en) * | 2000-08-03 | 2001-12-21 | Ulead Systems Inc | Image-based method for providing lighting effect in three-dimensional scenario image |
-
2003
- 2003-02-05 JP JP2003028178A patent/JP3748554B2/en not_active Expired - Fee Related
- 2003-09-30 WO PCT/JP2003/012526 patent/WO2004070662A1/en active Application Filing
- 2003-09-30 AU AU2003266720A patent/AU2003266720A1/en not_active Abandoned
- 2003-09-30 EP EP03815741A patent/EP1591964A4/en not_active Withdrawn
-
2004
- 2004-02-03 US US10/769,751 patent/US20040198505A1/en not_active Abandoned
Also Published As
Publication number | Publication date |
---|---|
US20040198505A1 (en) | 2004-10-07 |
AU2003266720A1 (en) | 2004-08-30 |
JP2004240631A (en) | 2004-08-26 |
WO2004070662A1 (en) | 2004-08-19 |
EP1591964A4 (en) | 2007-10-17 |
EP1591964A1 (en) | 2005-11-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7298374B2 (en) | Scheme for providing wrinkled look in computer simulation of materials | |
US8115774B2 (en) | Application of selective regions of a normal map based on joint position in a three-dimensional model | |
US11027201B2 (en) | Composing an image | |
US20090027386A1 (en) | Image generating apparatus, method of generating image, program, and recording medium | |
EP3324364B1 (en) | Image processing method and computer-readable medium | |
EP1355276A2 (en) | System and method for distance adjusted rendering | |
JP3792149B2 (en) | Image processing apparatus and image processing program | |
US20240202005A1 (en) | Encoding stereo splash screen in static image | |
JP3748554B2 (en) | Image generating apparatus, image generating method, and program | |
JP3502796B2 (en) | 3D model display method and apparatus in video game, game apparatus, and computer-readable recording medium storing 3D model display program for video game | |
US6982717B2 (en) | Game apparatus, storage medium and computer program | |
JP2007272356A (en) | Program, information storage medium and image generation system | |
JP2006252426A (en) | Program, information storage medium, and image generation system | |
JP2006011539A (en) | Program, information storage medium, and image generating system | |
CN115830210A (en) | Rendering method and device of virtual object, electronic equipment and storage medium | |
JP2006268103A (en) | Program, information storage medium, model data structure, and image generation system | |
JP2005319106A (en) | Program, information storage medium, and image forming system | |
JP3763057B2 (en) | Image generation device | |
JP2010033302A (en) | Image generation system, program and information storage medium | |
JP2007164323A (en) | Program, information storage medium and image generation system | |
JP4641831B2 (en) | Program, information storage medium, and image generation system | |
JP2006252423A (en) | Program, information storage medium and image generation system | |
JP4521811B2 (en) | Program, information storage medium, and image generation system | |
JP2006252425A (en) | Program, information storage medium, and image generation system | |
JP2006004363A (en) | Program, information storage medium and image generation system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20050301 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050428 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20050428 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20050705 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050829 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20051122 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20051128 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20081209 Year of fee payment: 3 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20081209 Year of fee payment: 3 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20081209 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091209 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101209 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101209 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111209 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121209 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131209 Year of fee payment: 8 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S802 | Written request for registration of partial abandonment of right |
Free format text: JAPANESE INTERMEDIATE CODE: R311802 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |