JP3748554B2 - Image generating apparatus, image generating method, and program - Google Patents

Image generating apparatus, image generating method, and program Download PDF

Info

Publication number
JP3748554B2
JP3748554B2 JP2003028178A JP2003028178A JP3748554B2 JP 3748554 B2 JP3748554 B2 JP 3748554B2 JP 2003028178 A JP2003028178 A JP 2003028178A JP 2003028178 A JP2003028178 A JP 2003028178A JP 3748554 B2 JP3748554 B2 JP 3748554B2
Authority
JP
Japan
Prior art keywords
image data
image
dimensional object
original texture
display image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003028178A
Other languages
Japanese (ja)
Other versions
JP2004240631A (en
Inventor
敬仁 畑田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konami Corp
Original Assignee
Konami Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konami Corp filed Critical Konami Corp
Priority to JP2003028178A priority Critical patent/JP3748554B2/en
Priority to PCT/JP2003/012526 priority patent/WO2004070662A1/en
Priority to AU2003266720A priority patent/AU2003266720A1/en
Priority to EP03815741A priority patent/EP1591964A4/en
Priority to US10/769,751 priority patent/US20040198505A1/en
Publication of JP2004240631A publication Critical patent/JP2004240631A/en
Application granted granted Critical
Publication of JP3748554B2 publication Critical patent/JP3748554B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、3次元画像データを利用するゲーム装置などで用いられる画像生成装置、画像生成方法及びプログラムに関する。
【0002】
【従来の技術】
3次元空間内を移動しながら、いわゆる敵キャラクタと戦闘を繰り広げたり、仮想的な冒険ゲームを楽しんだりといったゲームが近年ますます増えている。このような背景の下、ゲームのために供されるハードウエア(家庭用ゲーム装置やパーソナルコンピュータ等を含む)の画像生成能力の向上も近年めざましいものがあり、種々の画像表現が可能となっている。
【0003】
【発明が解決しようとする課題】
しかしながら、従来の画像生成装置においては、ポリゴンで構成される3次元オブジェクトについてその形成面の凹凸を正確に表現しようとすれば、ポリゴンを凹凸に沿って配置しなければならず、ポリゴン数が増大して演算時間が多大になってしまうという問題点があった。
【0004】
また、ポリゴンの形成面について、形成面上の各位置の法線方向の情報を調整して、光の反射方向を異ならせ、あたかも凹凸ができているかのように見せかける方法(バンプマップ法)を利用すれば、形成面部分には凹凸ができているように見えるが、実際にポリゴン自体の形状が変更されているわけではないので、ポリゴンのエッジ部分には凹凸の形状が現れるわけではない。
【0005】
そのため例えば、窓枠がゆがんでいるような表現や、窓枠が軟弱に揺れているような表現であるとか、ポリゴンで作られたキャラクタの表面があたかも呼吸をしているかのように揺れ動いているといった表現をポリゴン数を増大させることなく行うことができなかった。
【0006】
本発明は上記実情に鑑みて為されたもので、ポリゴン数の増大など、演算処理負荷を増大させることなく、柔軟性ある物体の表現をすることができる、画像生成装置、画像生成方法、及びプログラムを提供することを目的とする。
【0007】
【課題を解決するための手段】
上記従来例の問題点を解決するための本発明は、画像生成装置であって、3次元空間内に配置される少なくとも1つの3次元オブジェクトの情報と、視点位置の情報とに基づき、画面に表示する表示画像データを生成する表示画像生成手段と、前記表示画像データのうち、前記3次元オブジェクトに対応する画像領域を特定する画像領域特定データを記憶する画像領域特定データ記憶手段と、前記表示画像データに対して、前記画像領域特定データに基づき、少なくとも部分的に画像ぼかし処理を適用する画像処理手段と、を含むことを特徴としている。
このように画像ぼかし処理を用いることで、ポリゴン数の増大など、演算処理負荷を増大させることなく、柔軟性ある物体の表現をすることができる。
【0008】
また、上記従来例の問題点を解決するための本発明は、画像生成装置であって、3次元空間内に配置される少なくとも1つの3次元オブジェクトの情報と、視点位置の情報とに基づき、画面に表示する表示画像データを生成する表示画像生成手段と、前記3次元オブジェクト形成面に適用される要素画像データであって、前記3次元オブジェクトの形成面に対応する画像領域内に少なくとも1つの要素画像を描画した要素画像データを生成する要素画像生成手段と、前記生成された要素画像データを、前記3次元オブジェクトの情報に基づいて生成された表示画像データに合成し、前記画面に表示する合成表示画像データを生成する合成手段と、前記合成表示画像データに対して、少なくとも部分的に画像ぼかし処理を適用する画像処理手段と、を含むことを特徴としている。
このように要素画像データを合成して得た合成表示画像データに対して画像ぼかし処理を用いることで、ポリゴン数の増大など、演算処理負荷を増大させることなく、柔軟性ある物体の表現をすることができる。
【0009】
ここでさらに、前記3次元オブジェクトの形成面に適用されるオリジナルテクスチャマップ画像データを記憶する記憶手段を含み、前記表示画像生成手段は、表示画像データの生成の際に、前記記憶手段に記憶されているオリジナルテクスチャマップ画像データを3次元オブジェクトの形成面に適用した表示画像データを生成することとしてもよい。
【0010】
さらに前記オリジナルテクスチャマップ画像データは、オリジナルテクスチャ画像とは異なる画像データを合成可能な領域を特定する合成領域特定情報を含み、前記要素画像生成手段は、前記オリジナルテクスチャマップ画像データの合成領域特定情報に基づいて要素画像の描画位置を決定することとしてもよい。
【0011】
さらに前記要素画像データは、要素画像とは異なる画像データを合成可能な領域を特定する合成領域特定情報を含み、前記画像処理手段は、前記要素画像データと前記オリジナルテクスチャマップ画像データとのそれぞれに含まれる合成領域特定情報に基づいて画像ぼかし処理の適用部分を少なくとも一つ決定し、当該決定した適用部分に対して画像ぼかし処理を適用することとしてもよい。
【0012】
さらに前記要素画像データ又は前記画像ぼかし処理を適用する部分を時間経過とともに変更することとしてもよい。
【0013】
また、本発明のある態様に係る画像生成方法は、コンピュータを用い、3次元空間内に配置される少なくとも1つの3次元オブジェクトの情報と、視点位置の情報とに基づき、画面に表示する表示画像を生成する表示画像生成ステップと、前記表示画像のうち、前記3次元オブジェクトに対応する画像領域を特定する画像領域特定データを記憶する画像領域特定データ記憶ステップと、前記表示画像に対して、前記画像領域特定データに基づき、少なくとも部分的に画像ぼかし処理を適用する画像処理ステップと、を実行する画像生成方法である。
【0014】
さらに、本発明の別の態様に係るプログラムは、コンピュータに、3次元空間内に配置される少なくとも1つの3次元オブジェクトの情報と、視点位置の情報とに基づき、画面に表示する表示画像を生成する表示画像生成手順と、前記表示画像のうち、前記3次元オブジェクトに対応する画像領域を特定する画像領域特定データを記憶する画像領域特定データ記憶手順と、前記表示画像に対して、前記画像領域特定データに基づき、少なくとも部分的に画像ぼかし処理を適用する画像処理手順と、を実行させることとしたものである。
【0015】
さらに本発明の別の態様に係る表示画像データは、上記画像生成方法によって生成される表示画像データである。
【0016】
【発明の実施の形態】
本発明の実施の形態について図面を参照しながら説明する。本発明の実施の形態に係る画像生成装置は、例えば家庭用ゲーム装置を利用して実現でき、図1に示すように、制御部11と、描画部12と、表示部13と、記憶部14と、操作部15とを含んで構成されている。なお、ここでは家庭用ゲーム装置を例として説明するが、本発明の画像生成装置は、業務用ゲーム装置、パーソナルコンピュータ、映画製作などに利用されるコンピュータグラフィックス用のワークステーション、その他のコンピュータシステムにより実現できる。
【0017】
制御部11は、記憶部14からプログラムを読み出して、当該プログラムを実行する。具体的に、この制御部11は、当該読み出したプログラムに従ってゲームの処理を実行する。すなわち、制御部11は、描画部12に対してゲーム画面となる画像データを生成させる指示を出力し、操作部15から入力されるプレイヤの指示操作の内容に基づいてゲームの処理を行う。
【0018】
本実施の形態においては、この制御部11がプレイヤに行わせるゲームは、例えば3次元空間内を移動しながら、いわゆる敵キャラクタと戦闘を繰り広げたり、仮想的な冒険ゲームを楽しんだりといった、3次元空間内に配置された3次元オブジェクトの情報(例えばポリゴンの情報(ポリゴンの位置、色などの情報)や光源の情報(光源の位置、光の強さや色などの情報)等)に基づいて生成される画像データがゲーム画面として表示されるものである。
【0019】
描画部12は、制御部11から入力される指示に従い、3次元空間内に配置される3次元オブジェクトの情報に基づいて画面に表示する画像データを生成し、当該生成した画像データを表示部13に出力する。具体的に、この描画部12は、制御部11から別途与えられた視点情報を利用し、当該視点から3次元空間を見たときの状況を表す画像データを生成する。本実施の形態では画像データは、2次元に配列されたピクセル群を含んでなるビットマップである。
【0020】
本実施の形態において特徴的なことの一つは、この描画部12が、制御部11によって指示された3次元オブジェクトについて、そのエッジ部分に凹凸形状を付する、エッジ処理を行うことである。これら制御部11と描画部12との具体的な処理の内容については、後に詳しく述べる。
【0021】
表示部13は、描画部12から入力される画像データを記憶し、外部の表示用デバイスに当該画像データを表示させるための信号を出力する。例えば、この表示部13は、家庭用テレビ受像器に対して画像データを表示させるためのRF信号やNTSC信号等を出力する。またこの画像データを表示させるための信号は、ディスプレイに表示させるためのRGB信号等であってもよい。
【0022】
記憶部14は、制御部11によって実行されるべきプログラムを記憶している。この記憶部14は、RAM(Random Access Memory)のような半導体記憶素子だけでなく、CD−ROMやDVD−ROMなどのコンピュータ読み取り可能な記憶媒体に格納されているデータやプログラムを読み出す外部記憶デバイスを含んでもよい。また、プログラムをサーバに備えられたデータベースに格納して、当該サーバからプログラムを配信させる場合、このサーバに備えられたデータベースも、このような情報記憶媒体に含まれる。またこの記憶部14には、描画の対象となる3次元オブジェクトの情報と、3次元オブジェクトに対してそれぞれ適用されるべきテクスチャマップ画像データ(オリジナルテクスチャマップ画像データ)とを格納している。操作部15は、プレイヤの指示操作を受け入れて、その内容を制御部11に出力するゲームコントローラ等である。
【0023】
ここで、制御部11と描画部12とによって行われる処理の具体的な内容について、図2を参照しながら説明する。なお以下の説明において、柔軟性ある表現の対象となる3次元オブジェクトを柔軟処理対象オブジェクトと呼ぶ。図2は、本実施の形態に係る制御部11及び描画部12の処理の内容を表す機能ブロック図である。図2に示すように、本実施の形態に係る制御部11及び描画部12により実行される処理プログラムは、表示画像生成部21と、要素画像生成部22と、画像合成部23と、画像処理部24と、画像データ記憶部25と、を含んで構成される。
【0024】
表示画像生成部21は、3次元空間内に配置される3次元オブジェクトの情報を記憶部14から読み出し、当該3次元オブジェクトの情報と、所与の視点位置の情報とに基づいて画面に表示される表示画像データを生成し、画像データ記憶部25に格納する。具体的にこの表示画像データは、2次元的に配列されたピクセルの集合であり、表示画像生成部21は、各ピクセルを所定の順序で選択しながら、選択したピクセルの色を3次元オブジェクトの情報と、所与の視点位置の情報とに基づいて決定する。表示画像生成部21は、複数の3次元オブジェクトがある場合は、図3に示すように、仮想的なスクリーンS上に表示画像データを形成し、この表示画像データ上の各ピクセルを選択しながら、当該選択した各ピクセルを通じて、視点位置Oから見通される3次元オブジェクトのうち、最も視点位置に近い3次元オブジェクトの形成面のうち、視点位置側の面(以下、表面と呼ぶ)に適用される色を用いて当該選択したピクセルの色を決定する。例えば図3では円板状の3次元オブジェクトとスクリーンSとの間に、3角形の板状の3次元オブジェクトを配置した例を示しているが、ここでスクリーンS上に形成した表示画像データのピクセルPを通じて見通される3次元オブジェクトの表面上の点のうち、最も視点位置に近いものは円板上の点P′であり、一方ピクセルQを通じて見通される3次元オブジェクトの表面上の点のうち、最も視点位置に近いものは三角形の板上の点Q′である。従ってピクセルPの色は、P′部分の色を用い、ピクセルQの色はQ′部分の色を用いて決定される。なお、表示画像データの各ピクセルの情報には、当該ピクセルの色の情報とともに、当該ピクセルの色を決定した3次元オブジェクト上の位置までの視点位置からの距離の情報(Z値)が含まれる。
また、このように視点位置の情報に基づいて表示画像データを生成しているので、視点位置が変化した場合、表示画像データに表される3次元オブジェクトの見え方も変化する。つまり、視点位置を変化させると、柔軟処理の対象となるオブジェクト方向を見た場合の、当該柔軟処理対象オブジェクトの表示画像データ上の状態(見え方)も変化することになる。
【0025】
また、この表示画像生成部21は、表示画像データのうち、柔軟処理対象オブジェクトが描画されている領域、すなわち各ピクセルのうち、柔軟処理対象オブジェクトの表面の色を用いてその色を決定したピクセル群の位置(画像領域)を特定する情報を画像領域特定データとして生成し、対応する表示画像データに併せて画像データ記憶部25に格納する。この例では、この画像領域特定データによって、3次元オブジェクトの表面に対応する画像領域が特定される。さらに表示画像生成部21は、各ピクセルの色を決定するにあたり、記憶部14に格納されている、各3次元オブジェクトの表面に適用するべきオリジナルテクスチャマップ画像データを参照する。
【0026】
要素画像生成部22は、柔軟処理対象オブジェクトの表面に対応する画像領域内(画像領域特定データで示される領域内)に、少なくともその一部が重なり合う、少なくとも1つの図形(要素画像)を描画した画像データ(要素画像データ)を生成する。この図形は円形、三角形など任意の形状で構わない。また、この図形の色は、柔軟処理対象オブジェクトに適用されるべきオリジナルテクスチャマップ画像データに基づいて、その明度、彩度、色相の少なくともいずれかを調整した(例えば明度を乱数などによってランダムにばらつかせながら、図形内部の各ピクセルの色を決定していく)ものとしてもよい。さらに、要素画像を描画する位置は、画像領域特定データで示される領域のエッジ部分近傍としてもよい。
【0027】
画像合成部23は、表示画像生成部21が生成した表示画像データと、画像領域特定データと、要素画像生成部22が生成した要素画像データとを用い、まず表示画像データに要素画像データを合成して画像処理部24に出力する。ここで合成は、オリジナルテクスチャマップ画像データに含まれるα値マップ(他の画像データを合成可能な領域を特定する合成領域特定情報)に基づいて半透明合成を行うこととしてもよい。
【0028】
画像処理部24は、画像合成部23から入力される、合成後の表示画像データ(合成表示画像データ)のうち、少なくとも部分的にぼかし処理を行う。ここでぼかし処理としては、例えば合成表示画像データに対して2次元的なガウスフィルタを適用して行う処理などで構わない。さらに、ここでぼかし処理を行う部分としては、画像領域特定データにより特定される領域(つまり柔軟処理対象オブジェクトの表面に適用されるオリジナルテクスチャマップ画像データによりその色を定めたピクセル群の部分)及びその周囲に影響を与える部分とする。
【0029】
すなわち、このぼかし処理は、例えば合成表示画像データのうち、画像領域特定データにより特定される領域に含まれるいずれかのピクセルを中心に、当該中心となったピクセルの周囲のピクセルの色を補正するものであり、画像領域特定データにより特定される領域を超えてその周辺のピクセルの色にも影響を与える。これにより、柔軟処理対象オブジェクトの輪郭がふくれたり、へこんだりといった柔軟性のある状態が表現されるのである。
【0030】
また、この補正の際に、補正しようとするピクセルの情報に含まれるZ値(補正対象Z値)と、ぼかし処理の中心となったピクセルの情報に含まれるZ値(中心Z値)との大きさを比較し、その比較結果に基づいて補正を行うか否かを決定し、補正を行うと決定したときに、ぼかし処理による補正を行うようにしてもよい。例えば補正対象Z値が中心Z値よりも大きい場合にのみ、補正対象となったピクセルの色を補正するようにすればよい。また、補正対象Z値が中心Z値以下であっても、その差が予め定めた値(乱数によって定めてもよい)の範囲内であれば、ぼかし処理による補正を行うようにしてもよい。このようにすれば、柔軟に動く結果、手前側にある近傍のオブジェクトを掩蔽しているかのような表現もできるようになる。この画像処理部24によって処理された画像データは、画像データ記憶部25に格納され、表示部13に出力されるようになる。画像データ記憶部25は、これらの処理過程で利用又は生成される画像データを格納するもので、記憶部14に含まれていてもよいし、表示部13内に特にVRAM(Video RAM)を設けて、当該VRAMによって実現してもよい。
【0031】
この処理によると、例えば図4(a)に示す柔軟処理対象オブジェクトに基づく表示画像データを表示画像生成部21が生成して(図4(b))、画像合成部23に出力する。また、要素画像生成部22は、当該表示画像データ上で、柔軟処理対象オブジェクトに対応する画像領域特定データ(図4(c))によって特定される領域内に、要素画像を描画した要素画像データを生成して(図4(d))、画像合成部23に出力する。
画像合成部23は、表示画像生成部21から入力される表示画像データに、要素画像生成部22から入力される要素画像データを合成して(図4(e))、画像処理部24に出力する。画像処理部24は、合成された表示画像データ(合成表示画像データ)に、ぼかし処理を適用した画像データ(図4(f))を生成する。そして、このぼかし処理適用後の画像データが表示部13に出力される。このぼかし処理は、合成表示画像データ上でのオリジナルテクスチャマップ画像データと要素画像との輪郭をぼんやりとさせて馴染ませるとともに、輪郭を柔軟にさせるのに役立っている。
【0032】
この処理により、3次元空間内に配置されるオブジェクトについて、その端部があたかも変形しているような画像を、簡便に生成できる。さらに、ぼかし用画像データを時間とともにランダムに生成したり、ぼかし処理のパラメータを時間とともにランダムに変更してもよく、そのようにすることで、端部が柔軟に伸び縮みしているかのような画像データを生成できる。またランダムに変更するだけでなく、例えば時間とともに一定の規則に基づいて変更してもよい。
【0033】
本実施の形態に係る家庭用ゲーム装置を利用した画像生成装置によると、例えば、3次元空間内を移動しながら、いわゆる敵キャラクタと戦闘を繰り広げるゲームにおいて、敵キャラクタが呼吸をしているかのような表現が可能となる。さらに、3次元空間内を移動する冒険ゲームでは、例えば図4に示したような窓の開いた3次元オブジェクトに、当初は上記処理を適用しておき、何らかのゲームアイテムを取得するなどの所定条件が満足された場合に、上記処理の適用を停止することで、あたかも窓部分の輪郭が柔軟に変形してその部分の通過が阻まれていたものが、ゲームアイテムの取得などの所定条件により、窓部分の輪郭がはっきりと現れ、その部分を通過して次のゲームシーンに移動できるようになる、といった演出が可能となる。
【0034】
また、後者のように柔軟に変形しているかのように見せる処理と、そうでない処理とを任意の順序で順次行う場合には、合成処理やぼかし処理の適用量(適用範囲や合成の場合は合成率)、あるいは要素画像データに含まれる要素画像の色の濃さを時間とともに変更することで、徐々に柔軟性が失われていくかのような演出や、その逆に柔軟性が増していくかのような演出も可能になる。
【0035】
さらに、この処理の内容は、ここで説明した実施形態に限られるものではない。例えばここでは、表示画像生成部21により、各3次元オブジェクトまでの距離関係を考慮して表示画像データが生成されているが、まず各3次元オブジェクトに係る表示画像データを個別に生成して、そのうちの柔軟処理対象オブジェクトに係る表示画像データについて、要素画像データの生成、合成、及びぼかし処理の適用を行い、ピクセルごとに、各表示画像データ上の対応するピクセルのうち、Z値が最も小さいものを選択した画像データを生成することとしてもよい。
【0036】
また、ここまでの説明では、表示画像生成部21が、表示画像データのうち、柔軟処理対象オブジェクトが描画されている領域を特定する情報を画像領域特定データとして生成し、この画像領域特定データに基づいてぼかし処理を適用しているが、例えば柔軟処理対象オブジェクトに適用するオリジナルテクスチャマップ画像データのα値に基づいてぼかし処理を適用する部分を定めてもよい。この場合、表示画像データに含まれる、オリジナルテクスチャマップ画像データのα値を参照しながら、当該α値によって合成可能と示されている部分に含まれるピクセルを中心としてぼかし処理を適用する。
【0037】
さらに、この場合に、要素画像データのα値も参照し、要素画像データと、オリジナルテクスチャマップ画像データとのそれぞれのα値のいずれかにより合成可能と示されている部分に含まれているピクセルを中心としてぼかし処理を適用してもよい。このようにすると、柔軟処理対象オブジェクトの輪郭から突出して描画された要素画像部分も、ぼかし処理の中心となり得ることになる。
【0038】
さらにこの要素画像データについても、画像領域特定データだけでなく、又はその代わりに、オリジナルテクスチャマップ画像データのα値により合成可能と示されている部分に、少なくともその一部が重なり合う、少なくとも一つの要素画像を描画することで生成するようにしても構わない。
【0039】
このように要素画像データ及びぼかし処理を適用する部分をいずれかの画像データのα値などによって決定し、画像領域特定データを利用しない場合は、画像領域特定データは必ずしも必要でなく、表示画像生成部21は、当該データを生成しないものであっても構わない。
【0040】
またこのようにα値を用いる場合には、当該α値を時間とともに変更することでも、柔軟処理対象オブジェクトが徐々に柔軟性を獲得していったり、柔軟性を失っていったりといった処理が可能となる。
【0041】
さらに、ここまでの説明では、要素画像データを合成することとしているが、要素画像データを合成しなくとも、表示画像データのうち、画像領域特定データに示される部分又はオリジナルテクスチャマップ画像データのα値により合成可能と示されている部分の少なくとも一方に含まれるピクセルを中心に、単にぼかし処理を行うことでも、柔軟処理対象オブジェクトの輪郭部分をぼかして柔軟な物体を表現できる。この場合、画像領域特定データに示される部分又はオリジナルテクスチャマップ画像データのα値により合成可能と示されている部分の輪郭線上、又は輪郭線近傍を中心にぼかし処理を行うこととするのもよい。
【0042】
さらに、本実施の形態ではゲーム装置におけるゲーム上の表現を行う例を示したが、例えば映画や、3次元グラフィックスソフトウエアなどにおいて同種の表現をする場合にも本発明を適用することができる。
【0043】
【発明の効果】
本発明によれば、演算処理負荷を増大させることなく、柔軟性ある物体の表現をすることができる。
【図面の簡単な説明】
【図1】 本発明の実施の形態に係る画像生成装置の一例としての構成ブロック図である。
【図2】 本発明の実施の形態に係る画像生成装置の処理の一例を表す機能ブロック図である。
【図3】 本発明の実施の形態に係る画像生成装置が行う表示画像データの生成処理の例を表す説明図である。
【図4】 本発明の実施の形態に係る画像生成の処理の状況の例を表す説明図である。
【符号の説明】
11 制御部、12 描画部、13 表示部、14 記憶部、15 操作部、21 表示画像生成部、22 要素画像生成部、23 画像合成部、24 画像処理部、25 画像データ記憶部。
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image generation apparatus, an image generation method, and a program used in a game apparatus that uses three-dimensional image data.
[0002]
[Prior art]
In recent years, games such as fighting against so-called enemy characters and enjoying virtual adventure games while moving in a three-dimensional space have been increasing. Under such circumstances, there has been a remarkable improvement in image generation capability of hardware (including home game devices and personal computers) provided for games in recent years, and various image representations have become possible. Yes.
[0003]
[Problems to be solved by the invention]
However, in the conventional image generation apparatus, if it is intended to accurately express the unevenness of the formation surface of a three-dimensional object composed of polygons, the polygons must be arranged along the unevenness, and the number of polygons increases. As a result, there is a problem in that the computation time becomes enormous.
[0004]
Also, on the polygon formation surface, adjust the information of the normal direction of each position on the formation surface to change the light reflection direction, and make it appear as if unevenness (bump map method) If it is used, the formation surface portion appears to be uneven, but since the shape of the polygon itself is not actually changed, the uneven shape does not appear at the edge portion of the polygon.
[0005]
Therefore, for example, the expression that the window frame is distorted, the expression that the window frame is swaying softly, or the surface of the character made of polygons is shaking as if breathing. Such an expression could not be performed without increasing the number of polygons.
[0006]
The present invention has been made in view of the above circumstances, and an image generation apparatus, an image generation method, and an image generation apparatus capable of expressing a flexible object without increasing an operation processing load such as an increase in the number of polygons. The purpose is to provide a program.
[0007]
[Means for Solving the Problems]
The present invention for solving the problems of the conventional example described above is an image generation apparatus, which is based on information on at least one three-dimensional object arranged in a three-dimensional space and information on a viewpoint position. Display image generating means for generating display image data to be displayed; image area specifying data storage means for storing image area specifying data for specifying an image area corresponding to the three-dimensional object in the display image data; and the display Image processing means for applying image blurring processing at least partially to the image data based on the image area specifying data.
By using the image blurring process in this way, a flexible object can be expressed without increasing the calculation processing load such as an increase in the number of polygons.
[0008]
In addition, the present invention for solving the problems of the conventional example is an image generation device based on information on at least one three-dimensional object arranged in a three-dimensional space and information on a viewpoint position. Display image generation means for generating display image data to be displayed on the screen, and element image data applied to the three-dimensional object formation surface, wherein at least one image area corresponds to the formation surface of the three-dimensional object Element image generation means for generating element image data in which an element image is drawn, and the generated element image data are combined with display image data generated based on the information of the three-dimensional object and displayed on the screen. Compositing means for generating composite display image data, and image processing means for applying image blurring processing at least partially to the composite display image data It is characterized in that it comprises a.
By using image blurring processing on the combined display image data obtained by combining element image data in this way, a flexible object can be expressed without increasing the processing load such as an increase in the number of polygons. be able to.
[0009]
Here, the image processing apparatus further includes a storage unit that stores original texture map image data applied to the formation surface of the three-dimensional object, and the display image generation unit is stored in the storage unit when generating the display image data. Display image data obtained by applying the original texture map image data applied to the formation surface of the three-dimensional object may be generated.
[0010]
Further, the original texture map image data includes synthesis area specifying information for specifying an area in which image data different from the original texture image can be synthesized, and the element image generating means includes the synthesis area specifying information of the original texture map image data. The drawing position of the element image may be determined based on the above.
[0011]
Further, the element image data includes synthesis area specifying information for specifying an area in which image data different from the element image can be combined, and the image processing means includes each of the element image data and the original texture map image data. It is also possible to determine at least one application part of the image blurring process based on the synthesis area specifying information included and apply the image blurring process to the determined application part.
[0012]
Furthermore, it is good also as changing the part which applies the said element image data or the said image blurring process with progress of time.
[0013]
Further, an image generation method according to an aspect of the present invention is a display image displayed on a screen based on information on at least one three-dimensional object arranged in a three-dimensional space and information on a viewpoint position using a computer. A display image generation step of generating, an image region specification data storage step of storing image region specification data for specifying an image region corresponding to the three-dimensional object among the display images, and the display image, An image generation method that executes an image processing step that applies image blurring processing at least partially based on image area specifying data.
[0014]
Furthermore, a program according to another aspect of the present invention generates a display image to be displayed on a screen based on information on at least one three-dimensional object arranged in a three-dimensional space and information on a viewpoint position. A display image generating procedure for storing, an image region specifying data storing procedure for storing image region specifying data for specifying an image region corresponding to the three-dimensional object, and the image region for the display image And an image processing procedure for applying an image blurring process at least partially based on the specific data.
[0015]
Furthermore, display image data according to another aspect of the present invention is display image data generated by the image generation method.
[0016]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of the present invention will be described with reference to the drawings. The image generation device according to the embodiment of the present invention can be realized by using, for example, a home game device. As shown in FIG. 1, the control unit 11, the drawing unit 12, the display unit 13, and the storage unit 14 are used. And the operation unit 15. Although the home game device will be described as an example here, the image generation device of the present invention is a game machine for business use, a personal computer, a workstation for computer graphics used for movie production, and other computer systems. Can be realized.
[0017]
The control unit 11 reads a program from the storage unit 14 and executes the program. Specifically, the control unit 11 executes game processing according to the read program. That is, the control unit 11 outputs an instruction for generating image data to be a game screen to the drawing unit 12, and performs game processing based on the content of the player's instruction operation input from the operation unit 15.
[0018]
In the present embodiment, the game that the control unit 11 causes the player to perform is a three-dimensional game such as a battle with a so-called enemy character or a virtual adventure game while moving in a three-dimensional space. Generated based on information about 3D objects placed in space (for example, polygon information (polygon position, color information, etc.) and light source information (light source position, light intensity, color information, etc.)) The image data to be displayed is displayed as a game screen.
[0019]
The drawing unit 12 generates image data to be displayed on the screen based on the information of the three-dimensional object arranged in the three-dimensional space according to the instruction input from the control unit 11, and displays the generated image data on the display unit 13. Output to. Specifically, the drawing unit 12 uses viewpoint information separately provided from the control unit 11 and generates image data representing a situation when the three-dimensional space is viewed from the viewpoint. In the present embodiment, the image data is a bitmap that includes a group of pixels arranged in two dimensions.
[0020]
One of the characteristic features of the present embodiment is that the drawing unit 12 performs edge processing on the three-dimensional object instructed by the control unit 11 to give an uneven shape to the edge portion. Specific processing contents of the control unit 11 and the drawing unit 12 will be described in detail later.
[0021]
The display unit 13 stores the image data input from the drawing unit 12 and outputs a signal for displaying the image data on an external display device. For example, the display unit 13 outputs an RF signal, an NTSC signal, or the like for displaying image data on a home television receiver. The signal for displaying the image data may be an RGB signal for displaying on the display.
[0022]
The storage unit 14 stores a program to be executed by the control unit 11. The storage unit 14 is not only a semiconductor storage element such as a RAM (Random Access Memory) but also an external storage device that reads data and programs stored in a computer-readable storage medium such as a CD-ROM or DVD-ROM. May be included. Further, when the program is stored in a database provided in the server and the program is distributed from the server, the database provided in the server is also included in such an information storage medium. In addition, the storage unit 14 stores information on a 3D object to be drawn and texture map image data (original texture map image data) to be applied to each 3D object. The operation unit 15 is a game controller or the like that receives an instruction operation of the player and outputs the content to the control unit 11.
[0023]
Here, the specific content of the process performed by the control part 11 and the drawing part 12 is demonstrated, referring FIG. In the following description, a three-dimensional object that is a target of flexible expression is called a flexible processing target object. FIG. 2 is a functional block diagram showing the contents of processing of the control unit 11 and the drawing unit 12 according to the present embodiment. As illustrated in FIG. 2, the processing program executed by the control unit 11 and the drawing unit 12 according to the present embodiment includes a display image generation unit 21, an element image generation unit 22, an image synthesis unit 23, and image processing. The unit 24 and the image data storage unit 25 are included.
[0024]
The display image generation unit 21 reads information on a three-dimensional object arranged in the three-dimensional space from the storage unit 14, and displays the information on the screen based on the information on the three-dimensional object and information on a given viewpoint position. Display image data is generated and stored in the image data storage unit 25. Specifically, the display image data is a set of two-dimensionally arranged pixels, and the display image generation unit 21 selects each pixel in a predetermined order and changes the color of the selected pixel of the three-dimensional object. It is determined based on the information and information on a given viewpoint position. When there are a plurality of three-dimensional objects, the display image generation unit 21 forms display image data on a virtual screen S and selects each pixel on the display image data as shown in FIG. Among the three-dimensional objects seen from the viewpoint position O through the selected pixels, the three-dimensional object formation surface closest to the viewpoint position is applied to a surface on the viewpoint position side (hereinafter referred to as a surface). The color is used to determine the color of the selected pixel. For example, FIG. 3 shows an example in which a triangular plate-shaped three-dimensional object is arranged between a disk-shaped three-dimensional object and the screen S. Here, the display image data formed on the screen S is shown here. Of the points on the surface of the three-dimensional object seen through the pixel P, the one closest to the viewpoint position is the point P ′ on the disk, while among the points on the surface of the three-dimensional object seen through the pixel Q, The point closest to the viewpoint position is a point Q ′ on the triangular plate. Accordingly, the color of the pixel P is determined using the color of the P ′ portion, and the color of the pixel Q is determined using the color of the Q ′ portion. Note that information on each pixel of the display image data includes information on the distance from the viewpoint position to the position on the three-dimensional object that determined the color of the pixel, as well as information on the color of the pixel. .
In addition, since display image data is generated based on the viewpoint position information as described above, when the viewpoint position changes, the appearance of the three-dimensional object represented in the display image data also changes. That is, when the viewpoint position is changed, the state (appearance) on the display image data of the flexible processing target object when the direction of the object to be subjected to the flexible processing is viewed also changes.
[0025]
In addition, the display image generation unit 21 determines the color of the display image data using the color of the surface of the flexible processing target object in the region where the flexible processing target object is drawn, that is, among the pixels. Information for specifying the position (image area) of the group is generated as image area specifying data, and stored in the image data storage unit 25 together with the corresponding display image data. In this example, the image area corresponding to the surface of the three-dimensional object is specified by the image area specifying data. Further, when determining the color of each pixel, the display image generation unit 21 refers to the original texture map image data to be applied to the surface of each three-dimensional object stored in the storage unit 14.
[0026]
The element image generation unit 22 draws at least one figure (element image) that overlaps at least part of the image area (in the area indicated by the image area specifying data) corresponding to the surface of the flexible processing target object. Image data (element image data) is generated. This figure may be any shape such as a circle or a triangle. Also, the color of this figure is adjusted at least one of its brightness, saturation, and hue based on the original texture map image data to be applied to the flexible processing target object (for example, the brightness is randomly dispersed by a random number or the like). It is also possible to determine the color of each pixel inside the figure while keeping it on. Furthermore, the position where the element image is drawn may be in the vicinity of the edge portion of the area indicated by the image area specifying data.
[0027]
The image synthesis unit 23 first synthesizes the element image data with the display image data using the display image data generated by the display image generation unit 21, the image area specifying data, and the element image data generated by the element image generation unit 22. And output to the image processing unit 24. Here, the composition may be performed by translucent composition based on an α value map (composition region specifying information for specifying a region where other image data can be combined) included in the original texture map image data.
[0028]
The image processing unit 24 performs at least partial blurring processing on the combined display image data (combined display image data) input from the image combining unit 23. Here, the blurring process may be, for example, a process performed by applying a two-dimensional Gaussian filter to the composite display image data. Further, the part to be blurred here is an area specified by the image area specifying data (that is, a part of a pixel group whose color is determined by the original texture map image data applied to the surface of the flexible processing target object) and A part that affects the surrounding area.
[0029]
That is, in this blurring process, for example, one of the pixels included in the area specified by the image area specifying data in the composite display image data is corrected, and the color of the pixels around the center pixel is corrected. It affects the color of the surrounding pixels beyond the area specified by the image area specifying data. As a result, a flexible state is expressed such that the contour of the flexible processing target object is swollen or dented.
[0030]
In this correction, the Z value (correction target Z value) included in the information of the pixel to be corrected and the Z value (center Z value) included in the information of the pixel that is the center of the blurring process It is also possible to compare the sizes, determine whether to perform correction based on the comparison result, and perform correction by blurring processing when it is determined to perform correction. For example, only when the correction target Z value is larger than the center Z value, the color of the pixel to be corrected may be corrected. Even if the correction target Z value is equal to or less than the center Z value, correction by blurring may be performed if the difference is within a predetermined value range (which may be determined by a random number). In this way, as a result of flexible movement, it is possible to express as if the nearby object on the near side is obscured. The image data processed by the image processing unit 24 is stored in the image data storage unit 25 and output to the display unit 13. The image data storage unit 25 stores image data used or generated in these processing steps, and may be included in the storage unit 14, and in particular, a VRAM (Video RAM) is provided in the display unit 13. Thus, it may be realized by the VRAM.
[0031]
According to this processing, for example, the display image generation unit 21 generates display image data based on the flexible processing target object shown in FIG. 4A (FIG. 4B) and outputs it to the image composition unit 23. In addition, the element image generation unit 22 renders element image data in which an element image is drawn in an area specified by the image area specifying data (FIG. 4C) corresponding to the flexible processing target object on the display image data. (FIG. 4D) and output to the image composition unit 23.
The image synthesizing unit 23 synthesizes the element image data input from the element image generating unit 22 with the display image data input from the display image generating unit 21 (FIG. 4E), and outputs it to the image processing unit 24. To do. The image processing unit 24 generates image data (FIG. 4F) obtained by applying blurring processing to the combined display image data (synthesized display image data). Then, the image data after applying this blurring process is output to the display unit 13. This blurring process is used to make the contours of the original texture map image data and the element image on the combined display image data blurry and familiar, and to make the contours flexible.
[0032]
By this processing, an image in which the end portion of the object arranged in the three-dimensional space is deformed can be easily generated. Furthermore, blur image data may be randomly generated with time, or blur processing parameters may be randomly changed with time. By doing so, it is as if the end portion is flexibly expanded and contracted. Image data can be generated. In addition to changing randomly, for example, the time may be changed based on a certain rule with time.
[0033]
According to the image generation device using the home game device according to the present embodiment, for example, in a game in which a battle with a so-called enemy character is performed while moving in a three-dimensional space, the enemy character seems to be breathing. Expression is possible. Furthermore, in an adventure game that moves in a three-dimensional space, for example, a predetermined condition such as acquiring some game item by initially applying the above process to a three-dimensional object with a window as shown in FIG. Is satisfied, by stopping the application of the above processing, it is as if the outline of the window part was deformed flexibly and the passage of that part was blocked by the predetermined conditions such as acquisition of game items, It is possible to produce an effect that the outline of the window portion appears clearly, and it is possible to move to the next game scene through that portion.
[0034]
In addition, when the processing that makes it appear as if it is deformed flexibly as in the latter case and the processing that is not so are sequentially performed in an arbitrary order, the amount of synthesis processing or blurring processing (in the case of application range or composition) By changing the color density of the element image included in the element image data over time, the effect of gradually losing flexibility and vice versa It will be possible to produce some kind of performance.
[0035]
Furthermore, the contents of this processing are not limited to the embodiment described here. For example, here, the display image data is generated by the display image generation unit 21 in consideration of the distance relationship to each three-dimensional object, but first, display image data related to each three-dimensional object is individually generated, Among the display image data related to the flexible processing target object, element image data is generated, combined, and blurred, and the Z value is the smallest among the corresponding pixels on each display image data. It is also possible to generate image data in which one is selected.
[0036]
In the description so far, the display image generation unit 21 generates information for specifying an area in which the flexible processing target object is drawn in the display image data as image area specifying data, and the image area specifying data is used as the image area specifying data. Although the blurring process is applied based on this, for example, a part to which the blurring process is applied may be determined based on the α value of the original texture map image data applied to the flexible processing target object. In this case, while referring to the α value of the original texture map image data included in the display image data, the blurring process is applied centering on the pixel included in the portion indicated by the α value that can be combined.
[0037]
Further, in this case, the pixel included in the portion that is also referred to as the compositible by one of the respective α values of the element image data and the original texture map image data with reference to the α value of the element image data. The blurring process may be applied around the center. In this way, the element image portion drawn so as to protrude from the outline of the flexible processing target object can also be the center of the blurring process.
[0038]
Further, this elemental image data is not limited to the image area specifying data, or instead, at least one part of which overlaps at least a part of the original texture map image data that is indicated as being compositable by the α value. You may make it produce | generate by drawing an element image.
[0039]
In this way, when the element image data and the part to which the blurring process is applied are determined by the α value of any image data and the image area specifying data is not used, the image area specifying data is not necessarily required, and the display image is generated. The unit 21 may not generate the data.
[0040]
In addition, when the α value is used in this way, the flexible processing target object can gradually acquire flexibility or lose flexibility by changing the α value with time. It becomes.
[0041]
Further, in the above description, the element image data is synthesized. However, even if the element image data is not synthesized, the portion of the display image data indicated by the image area specifying data or the α of the original texture map image data is used. A flexible object can be expressed by blurring the contour portion of the object to be processed by simply performing the blurring process around pixels included in at least one of the parts indicated to be compositable by value. In this case, the blurring process may be performed on the contour line of the portion indicated in the image area specifying data or the portion indicated as compositable by the α value of the original texture map image data or around the contour line. .
[0042]
Furthermore, in the present embodiment, an example in which a game apparatus is used to express a game has been described. However, the present invention can also be applied to a case where the same kind of expression is used in, for example, a movie or 3D graphics software. .
[0043]
【The invention's effect】
According to the present invention, it is possible to represent a flexible object without increasing the calculation processing load.
[Brief description of the drawings]
FIG. 1 is a configuration block diagram as an example of an image generation apparatus according to an embodiment of the present invention.
FIG. 2 is a functional block diagram illustrating an example of processing of the image generation apparatus according to the embodiment of the present invention.
FIG. 3 is an explanatory diagram illustrating an example of display image data generation processing performed by the image generation apparatus according to the embodiment of the present invention.
FIG. 4 is an explanatory diagram illustrating an example of a status of image generation processing according to the embodiment of the present invention.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 11 Control part, 12 Drawing part, 13 Display part, 14 Storage part, 15 Operation part, 21 Display image generation part, 22 Element image generation part, 23 Image composition part, 24 Image processing part, 25 Image data storage part

Claims (4)

3次元空間内に配置される少なくとも1つの3次元オブジェクトの情報と、視点位置の情報とに基づき、画面に表示する表示画像データを生成する表示画像生成手段と、
前記3次元オブジェクトの形成面に適用される要素画像データであって、前記3次元オブジェクトの形成面に対応する画像領域内に少なくとも1つの要素画像を描画した要素画像データを生成する要素画像生成手段と、
前記生成された要素画像データを、前記3次元オブジェクトの情報に基づいて生成された表示画像データに合成し、前記画面に表示する合成表示画像データを生成する合成手段と、
前記合成表示画像データに対して、少なくとも部分的に、周囲のピクセルの色を補正する処理である画像ぼかし処理を適用する画像処理手段と、
前記3次元オブジェクトの形成面に適用されるオリジナルテクスチャマップ画像データを記憶する記憶手段と、を含み、
前記表示画像生成手段は、表示画像データの生成の際に、前記記憶手段に記憶されているオリジナルテクスチャマップ画像データを3次元オブジェクトの形成面に適用した表示画像データを生成し、
前記オリジナルテクスチャマップ画像データは、オリジナルテクスチャ画像とは異なる画像データを合成可能な領域を特定する合成領域特定情報を含み、
前記要素画像生成手段は、前記オリジナルテクスチャマップ画像データの合成領域特定情報に基づいて、前記オリジナルテクスチャマップ画像データに基づいて色が調整された要素画像の描画位置を、前記3次元オブジェクトの輪郭から突出するよう決定し、
前記要素画像データは、要素画像とは異なる画像データを合成可能な領域を特定する合成領域特定情報を含み、
前記画像処理手段は、前記要素画像データと前記オリジナルテクスチャマップ画像データとのそれぞれに含まれる合成領域特定情報に基づいて前記画像ぼかし処理の適用部分を少なくとも一つ決定し、当該決定した適用部分に対して前記画像ぼかし処理を適用する、
とを特徴とする画像生成装置。
Display image generating means for generating display image data to be displayed on the screen based on information on at least one three-dimensional object arranged in the three-dimensional space and information on the viewpoint position;
Element image generation means for generating element image data to be applied to the formation surface of the three-dimensional object, in which at least one element image is drawn in an image region corresponding to the formation surface of the three-dimensional object When,
Combining the generated element image data with display image data generated based on the information of the three-dimensional object, and generating combined display image data to be displayed on the screen;
Image processing means for applying image blurring processing, which is processing for correcting the color of surrounding pixels, at least in part to the composite display image data;
Storage means for storing original texture map image data applied to the formation surface of the three-dimensional object,
The display image generation unit generates display image data in which the original texture map image data stored in the storage unit is applied to the formation surface of the three-dimensional object when generating the display image data.
The original texture map image data includes synthesis area specifying information for specifying an area where image data different from the original texture image can be synthesized,
The element image generation means is configured to determine a drawing position of an element image whose color is adjusted based on the original texture map image data from the outline of the three-dimensional object based on the synthesis area specifying information of the original texture map image data. Decide to protrude,
The element image data includes composite area specifying information for specifying an area where image data different from the element image can be combined,
The image processing means determines at least one application part of the image blurring process based on composite area specifying information included in each of the element image data and the original texture map image data, and determines the determined application part. Applying the image blur processing to
Image generating device comprising a call.
請求項に記載の画像生成装置において、
前記要素画像データ又は前記画像ぼかし処理を適用する部分を時間経過とともに変更することを特徴とする画像生成装置。
The image generation apparatus according to claim 1 ,
An image generating apparatus, wherein the element image data or a portion to which the image blurring process is applied is changed over time.
コンピュータを用い、
3次元空間内に配置される少なくとも1つの3次元オブジェクトの情報と、視点位置の情報とに基づき、画面に表示する表示画像データを生成する表示画像生成ステップと、
前記3次元オブジェクトの形成面に適用される要素画像データであって、前記3次元オブジェクトの形成面に対応する画像領域内に少なくとも1つの要素画像を描画した要素画像データを生成する要素画像生成ステップと、
前記生成された要素画像データを、前記3次元オブジェクトの情報に基づいて生成された表示画像データに合成し、前記画面に表示する合成表示画像データを生成する合成ステップと、
前記合成表示画像データに対して、少なくとも部分的に、周囲のピクセルの色を補正する処理である画像ぼかし処理を適用する画像処理ステップと、を含み、
前記表示画像生成ステップは、表示画像データの生成の際に、記憶手段に記憶されているオリジナルテクスチャマップ画像データを3次元オブジェクトの形成面に適用した表示画像データを生成し、
前記オリジナルテクスチャマップ画像データは、オリジナルテクスチャ画像とは異なる画像データを合成可能な領域を特定する合成領域特定情報を含み、
前記要素画像生成ステップは、前記オリジナルテクスチャマップ画像データの合成領域特定情報に基づいて、前記オリジナルテクスチャマップ画像データに基づいて色が調整された要素画像の描画位置を、前記3次元オブジェクトの輪郭から突出するよう決定し、
前記要素画像データは、要素画像とは異なる画像データを合成可能な領域を特定する合成領域特定情報を含み、
前記画像処理ステップは、前記要素画像データと前記オリジナルテクスチャマップ画像データとのそれぞれに含まれる合成領域特定情報に基づいて前記画像ぼかし処理の適用部分を少なくとも一つ決定し、当該決定した適用部分に対して前記画像ぼかし処理を適用する、
とを特徴とする画像生成方法。
Using a computer
A display image generation step of generating display image data to be displayed on the screen based on information on at least one three-dimensional object arranged in the three-dimensional space and information on the viewpoint position;
Element image generation step of generating element image data applied to the formation surface of the three-dimensional object, in which at least one element image is drawn in an image region corresponding to the formation surface of the three-dimensional object When,
Combining the generated elemental image data with display image data generated based on the information of the three-dimensional object, and generating combined display image data to be displayed on the screen;
An image processing step of applying an image blurring process, which is a process of correcting the color of surrounding pixels, at least partially to the composite display image data,
The display image generation step generates display image data in which the original texture map image data stored in the storage means is applied to the formation surface of the three-dimensional object when generating the display image data.
The original texture map image data includes synthesis area specifying information for specifying an area where image data different from the original texture image can be synthesized,
In the element image generation step, the drawing position of the element image whose color is adjusted based on the original texture map image data is determined from the outline of the three-dimensional object based on the synthesis area specifying information of the original texture map image data. Decide to protrude,
The element image data includes composite area specifying information for specifying an area where image data different from the element image can be combined,
The image processing step determines at least one application part of the image blurring process based on synthesis region specifying information included in each of the element image data and the original texture map image data, and determines the determined application part. Applying the image blur processing to
Image generation method characterized by and this.
コンピュータに、
3次元空間内に配置される少なくとも1つの3次元オブジェクトの情報と、視点位置の情報とに基づき、画面に表示する表示画像データを生成する表示画像生成手順と、
前記3次元オブジェクトの形成面に適用される要素画像データであって、前記3次元オブジェクトの形成面に対応する画像領域内に少なくとも1つの要素画像を描画した要素画像データを生成する要素画像生成手順と、
前記生成された要素画像データを、前記3次元オブジェクトの情報に基づいて生成された表示画像データに合成し、前記画面に表示する合成表示画像データを生成する合成手順と、
前記合成表示画像データに対して、少なくとも部分的に、周囲のピクセルの色を補正する処理である画像ぼかし処理を適用する画像処理手順と、
を実行させるプログラムであって、
前記表示画像生成手順は、表示画像データの生成の際に、記憶手段に記憶されているオリジナルテクスチャマップ画像データを3次元オブジェクトの形成面に適用した表示画像データを生成し、
前記オリジナルテクスチャマップ画像データは、オリジナルテクスチャ画像とは異なる画像データを合成可能な領域を特定する合成領域特定情報を含み、
前記要素画像生成手順は、前記オリジナルテクスチャマップ画像データの合成領域特定情報に基づいて、前記オリジナルテクスチャマップ画像データに基づいて色が調整された要素画像の描画位置を、前記3次元オブジェクトの輪郭から突出するよう決定し、
前記要素画像データは、要素画像とは異なる画像データを合成可能な領域を特定する合成領域特定情報を含み、
前記画像処理手順は、前記要素画像データと前記オリジナルテクスチャマップ画像データとのそれぞれに含まれる合成領域特定情報に基づいて前記画像ぼかし処理の適用部分を少なくとも一つ決定し、当該決定した適用部分に対して前記画像ぼかし処理を適用する、
とを特徴とするプログラム。
On the computer,
A display image generation procedure for generating display image data to be displayed on the screen based on information on at least one three-dimensional object arranged in the three-dimensional space and information on the viewpoint position;
Element image generation procedure for generating element image data to be applied to the formation surface of the three-dimensional object, in which at least one element image is drawn in an image region corresponding to the formation surface of the three-dimensional object When,
Combining the generated element image data with display image data generated based on the information of the three-dimensional object, and generating combined display image data to be displayed on the screen;
An image processing procedure for applying an image blurring process, which is a process of correcting the color of surrounding pixels, at least in part to the composite display image data;
A program for executing
The display image generation procedure generates display image data in which the original texture map image data stored in the storage means is applied to the formation surface of the three-dimensional object when generating the display image data.
The original texture map image data includes synthesis area specifying information for specifying an area where image data different from the original texture image can be synthesized,
The element image generation procedure is configured to determine a drawing position of an element image whose color is adjusted based on the original texture map image data from the outline of the three-dimensional object based on the synthesis area specifying information of the original texture map image data. Decide to protrude,
The element image data includes composite area specifying information for specifying an area where image data different from the element image can be combined,
In the image processing procedure, at least one application portion of the image blurring process is determined based on the synthesis area specifying information included in each of the element image data and the original texture map image data. Applying the image blur processing to
Program which is characterized a call.
JP2003028178A 2003-02-05 2003-02-05 Image generating apparatus, image generating method, and program Expired - Fee Related JP3748554B2 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2003028178A JP3748554B2 (en) 2003-02-05 2003-02-05 Image generating apparatus, image generating method, and program
PCT/JP2003/012526 WO2004070662A1 (en) 2003-02-05 2003-09-30 Image generation device, image generation method, and program
AU2003266720A AU2003266720A1 (en) 2003-02-05 2003-09-30 Image generation device, image generation method, and program
EP03815741A EP1591964A4 (en) 2003-02-05 2003-09-30 Image generation device, image generation method, and program
US10/769,751 US20040198505A1 (en) 2003-02-05 2004-02-03 Image generating apparatus, image generating method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003028178A JP3748554B2 (en) 2003-02-05 2003-02-05 Image generating apparatus, image generating method, and program

Publications (2)

Publication Number Publication Date
JP2004240631A JP2004240631A (en) 2004-08-26
JP3748554B2 true JP3748554B2 (en) 2006-02-22

Family

ID=32844196

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003028178A Expired - Fee Related JP3748554B2 (en) 2003-02-05 2003-02-05 Image generating apparatus, image generating method, and program

Country Status (5)

Country Link
US (1) US20040198505A1 (en)
EP (1) EP1591964A4 (en)
JP (1) JP3748554B2 (en)
AU (1) AU2003266720A1 (en)
WO (1) WO2004070662A1 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3728183B2 (en) * 2000-06-23 2005-12-21 キヤノン株式会社 Printing control apparatus, drawing control apparatus, data processing method, and storage medium
JP2011097192A (en) * 2009-10-27 2011-05-12 Hanamaru Kk Encrypted message transmission device, program, encrypted message transmission method, and authentication system
US8608550B1 (en) 2010-11-12 2013-12-17 Wms Gaming, Inc Coordinating three dimensional wagering game content presentations
US8784206B1 (en) 2011-04-15 2014-07-22 Wms Gaming, Inc. Modifying presentation of three-dimensional, wagering-game content
IN2015DN03807A (en) * 2012-11-20 2015-10-02 Jolla Oy
US20170105023A1 (en) * 2015-10-08 2017-04-13 Qualcomm Incorporated Signaling of updated video regions

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2792376B2 (en) * 1993-02-02 1998-09-03 松下電器産業株式会社 Image blur processing device
GB9616262D0 (en) * 1996-08-02 1996-09-11 Philips Electronics Nv Post-processing generation of focus/defocus effects for computer graphics images
JP4291892B2 (en) * 1996-12-06 2009-07-08 株式会社セガ Image processing apparatus and method
GB2325131B (en) * 1997-03-27 2002-01-16 British Broadcasting Corp Improvements in artificial image generation
CA2316611A1 (en) * 1999-08-31 2001-02-28 Nintendo Co. Ltd. Method and apparatus for providing depth blur effects within a 3d videographics system
JP2001229403A (en) * 2000-02-17 2001-08-24 Namco Ltd Game system and information storage medium
TW469415B (en) * 2000-08-03 2001-12-21 Ulead Systems Inc Image-based method for providing lighting effect in three-dimensional scenario image

Also Published As

Publication number Publication date
US20040198505A1 (en) 2004-10-07
AU2003266720A1 (en) 2004-08-30
JP2004240631A (en) 2004-08-26
WO2004070662A1 (en) 2004-08-19
EP1591964A4 (en) 2007-10-17
EP1591964A1 (en) 2005-11-02

Similar Documents

Publication Publication Date Title
US7298374B2 (en) Scheme for providing wrinkled look in computer simulation of materials
US8115774B2 (en) Application of selective regions of a normal map based on joint position in a three-dimensional model
US11027201B2 (en) Composing an image
US20090027386A1 (en) Image generating apparatus, method of generating image, program, and recording medium
EP3324364B1 (en) Image processing method and computer-readable medium
EP1355276A2 (en) System and method for distance adjusted rendering
JP3792149B2 (en) Image processing apparatus and image processing program
US20240202005A1 (en) Encoding stereo splash screen in static image
JP3748554B2 (en) Image generating apparatus, image generating method, and program
JP3502796B2 (en) 3D model display method and apparatus in video game, game apparatus, and computer-readable recording medium storing 3D model display program for video game
US6982717B2 (en) Game apparatus, storage medium and computer program
JP2007272356A (en) Program, information storage medium and image generation system
JP2006252426A (en) Program, information storage medium, and image generation system
JP2006011539A (en) Program, information storage medium, and image generating system
CN115830210A (en) Rendering method and device of virtual object, electronic equipment and storage medium
JP2006268103A (en) Program, information storage medium, model data structure, and image generation system
JP2005319106A (en) Program, information storage medium, and image forming system
JP3763057B2 (en) Image generation device
JP2010033302A (en) Image generation system, program and information storage medium
JP2007164323A (en) Program, information storage medium and image generation system
JP4641831B2 (en) Program, information storage medium, and image generation system
JP2006252423A (en) Program, information storage medium and image generation system
JP4521811B2 (en) Program, information storage medium, and image generation system
JP2006252425A (en) Program, information storage medium, and image generation system
JP2006004363A (en) Program, information storage medium and image generation system

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050301

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050428

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20050428

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050705

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050829

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20051122

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20051128

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081209

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081209

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081209

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091209

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101209

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101209

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111209

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121209

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131209

Year of fee payment: 8

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S802 Written request for registration of partial abandonment of right

Free format text: JAPANESE INTERMEDIATE CODE: R311802

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees