JP5423276B2 - Image processing program and computer-readable recording medium - Google Patents

Image processing program and computer-readable recording medium Download PDF

Info

Publication number
JP5423276B2
JP5423276B2 JP2009217161A JP2009217161A JP5423276B2 JP 5423276 B2 JP5423276 B2 JP 5423276B2 JP 2009217161 A JP2009217161 A JP 2009217161A JP 2009217161 A JP2009217161 A JP 2009217161A JP 5423276 B2 JP5423276 B2 JP 5423276B2
Authority
JP
Japan
Prior art keywords
color information
vertex
color
image processing
processing program
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009217161A
Other languages
Japanese (ja)
Other versions
JP2011065536A (en
Inventor
隆 東郷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sega Corp
Original Assignee
Sega Corp
Sega Games Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sega Corp, Sega Games Co Ltd filed Critical Sega Corp
Priority to JP2009217161A priority Critical patent/JP5423276B2/en
Publication of JP2011065536A publication Critical patent/JP2011065536A/en
Application granted granted Critical
Publication of JP5423276B2 publication Critical patent/JP5423276B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Generation (AREA)

Description

本発明は、ビデオゲームやCG(Computer Graphics)ビデオ等における表示画像の生成技術に関する。   The present invention relates to a display image generation technique in a video game, a CG (Computer Graphics) video, or the like.

ビデオゲームやCGビデオ等においては、雨が降る画像が必要とされるシーンがしばしば存在する。更に、単に雨が降るだけでなく、夜のシーンにおいて街灯等の発する光によって光源周囲の雨筋が光る雨グレアと呼ばれる表現が要望される場合がある。   In video games, CG videos, etc., there are often scenes that require raining images. Furthermore, there is a case where an expression called rain glare in which rain stripes around a light source shine by light emitted from a street lamp or the like in a night scene in addition to raining may be desired.

特許文献1には、雪や雨が降っている様子をゲーム画面に表示する場合に、3次元ゲーム空間全体に雪オブジェクト等を配置することによる処理負荷の増大を抑制するため、仮想カメラの面前の限られた領域にのみ雪オブジェクト等を配置する技術が開示されている。   In Patent Document 1, in order to suppress an increase in processing load caused by placing snow objects or the like in the entire three-dimensional game space when displaying a snow or rain state on a game screen, A technique for arranging a snow object or the like only in a limited area is disclosed.

また、特許文献2には、剣等のオブジェクトに光源からの反射光(グレア)をインパクトのある形で表現する技術が開示されている。   Patent Document 2 discloses a technique for expressing reflected light (glare) from a light source in an impactable form on an object such as a sword.

特開2007−82859号公報JP 2007-82859 A 特開2006−323514号公報JP 2006-323514 A

上述した特許文献1に開示された技術によれば、少ない処理負荷で雪や雨が降っている様子を表示することができるが、夜のシーンにおいて街灯等の発する光によって光源周囲の雨筋が光る雨グレアを表現することはできない。   According to the technique disclosed in Patent Document 1 described above, it is possible to display a state in which snow and rain are falling with a small processing load. However, in the night scene, rain lines around the light source are caused by light emitted from street lamps and the like. It cannot express shining rain glare.

また、特許文献2に開示された技術は剣等のオブジェクトによる光源の反射光を表現するものである。特許文献2に開示された技術を街灯等の発する光によって光源周囲の雨筋が光る雨グレアに適用する場合には、反射光を表現するための複雑な計算を3次元ゲーム空間に多数設定される全ての雨筋オブジェクト毎に行う必要があり、計算処理の負荷が増大してしまう。   The technique disclosed in Patent Document 2 expresses reflected light of a light source by an object such as a sword. When the technique disclosed in Patent Document 2 is applied to rain glare in which rain stripes around a light source shine by light emitted from a streetlight or the like, a number of complicated calculations for expressing reflected light are set in a three-dimensional game space. This must be done for every rain streak object, which increases the load of calculation processing.

本発明は上記の従来の問題点に鑑み提案されたものであり、その目的とするところは、簡易な処理により、街灯等の発する光によって光源周囲の雨筋が光る雨グレアを表現することのできる画像処理プログラムおよびコンピュータ読み取り可能な記録媒体を提供することにある。   The present invention has been proposed in view of the above-described conventional problems, and the object of the present invention is to express rain glare in which rain stripes around a light source shine by light emitted from a streetlight or the like by simple processing. An image processing program and a computer-readable recording medium are provided.

上記の課題を解決するため、本発明にあっては、請求項1に記載されるように、コンピュータを、少なくとも自己発光オブジェクトを含むオブジェクトが配置された仮想空間に対し、仮想視点を設定し、当該仮想視点を基準とした視錐台の内部に配置されたオブジェクトを投影平面に投影する座標変換手段、前記自己発光オブジェクトの周囲を通過する通過オブジェクトを前記仮想空間に発生させる通過オブジェクト発生手段、前記投影平面のピクセル毎に前記仮想空間における前記自己発光オブジェクトの色情報および前記オブジェクトの深度情報をメモリに保持する保持手段、前記投影平面上における前記通過オブジェクトの近傍座標を算出する近傍座標計算手段、前記保持手段から算出された前記近傍座標における前記自己発光オブジェクトの色情報と深度情報を取得し、当該色情報と深度情報を乗算して影響色情報を取得する色情報取得手段、取得した影響色情報を前記通過オブジェクトの色に反映させる色設定手段として機能させる画像処理プログラムを要旨としている。   In order to solve the above problems, in the present invention, as described in claim 1, a computer is set with a virtual viewpoint for a virtual space in which an object including at least a self-luminous object is arranged, Coordinate transformation means for projecting an object arranged inside the viewing frustum with the virtual viewpoint as a reference onto a projection plane; passing object generation means for generating a passing object passing around the self-luminous object in the virtual space; Holding means for holding color information of the self-luminous object and depth information of the object in the virtual space for each pixel of the projection plane in a memory, neighborhood coordinate calculation means for calculating the neighborhood coordinates of the passing object on the projection plane The self-luminous object in the neighborhood coordinates calculated from the holding means. Color information acquisition means for acquiring the color information and depth information of the image, multiplying the color information and the depth information to acquire the influence color information, and color setting means for reflecting the acquired influence color information on the color of the passing object The gist of the image processing program is to function.

また、請求項2に記載されるように、請求項1に記載の画像処理プログラムであって、前記色情報取得手段は、前記近傍座標における前記自己発光オブジェクトの深度が小さいほど前記通過オブジェクトの色を明るくする影響色情報を取得し、前記色設定手段は、前記通過オブジェクトの深度が小さいほど前記通過オブジェクトの色を明るく設定するようにすることができる。   In addition, as described in claim 2, in the image processing program according to claim 1, the color information acquisition unit is configured such that the color of the passing object decreases as the depth of the self-luminous object in the vicinity coordinates decreases. In this case, the color setting means can set the color of the passing object to be brighter as the depth of the passing object is smaller.

また、請求項3に記載されるように、請求項2に記載の画像処理プログラムであって、前記通過オブジェクト発生手段は、前記通過オブジェクトを複数の頂点から構成されるラインポリゴンとしてランダムに発生させ、前記仮想空間で落下する速度を与え、前記色情報取得手段は、前記頂点ごとに前記近傍座標の色情報と輝度情報を乗算して影響色情報を取得し、前記色設定手段は、前記影響色情報を前記通過オブジェクトの各頂点の色に反映させるようにすることができる。   According to a third aspect of the present invention, in the image processing program according to the second aspect, the passing object generating means randomly generates the passing object as a line polygon composed of a plurality of vertices. The color information acquisition unit obtains the influence color information by multiplying the color information of the neighboring coordinates and the luminance information for each vertex, and the color setting unit acquires the influence color information. Color information can be reflected in the color of each vertex of the passing object.

また、請求項4に記載されるように、請求項3に記載の画像処理プログラムであって、コンピュータを、前記通過オブジェクトの一番上の頂点に対してy軸の値に正方向の値、一番下の頂点に対してy軸の値に負方向の値のベクトルを設定し、その間の頂点に連続してベクトルを設定するベクトル設定手段として機能させ、前記近傍座標計算手段は、それぞれx軸の値が正方向の値とx軸の値が負方向の値の2つのベクトルを、前記通過オブジェクトの各頂点に設定されたベクトルに加算し、前記色情報取得手段は、2つの前記加算したベクトルに対応する前記投影平面上の座標から得た色情報と深度情報との乗算値を加算して影響色情報を取得するようにすることができる。   According to a fourth aspect of the present invention, in the image processing program according to the third aspect, the computer is configured to set a positive value to a y-axis value with respect to the top vertex of the passing object. A vector of a negative value is set to the y-axis value for the bottom vertex, and the vector is set as a vector setting unit that continuously sets the vector between the vertices between them. Two vectors having a positive value for the axis and a negative value for the x-axis are added to the vectors set at the vertices of the passing object, and the color information acquisition means is configured to add the two additions. The influence color information can be acquired by adding the multiplication value of the color information and the depth information obtained from the coordinates on the projection plane corresponding to the vector.

また、請求項5に記載されるように、請求項4に記載の画像処理プログラムであって、コンピュータを、前記通過オブジェクトの一番上の頂点に対してy軸の値を+1、一番下の頂点に対してy軸の値を−1としてベクトルを設定し、その間の頂点に連続してベクトルを設定するベクトル設定手段として機能させ、前記近傍座標計算手段は、それぞれx軸の値が+1とx軸の値が−1の2つのベクトルを、前記通過オブジェクトの各頂点に設定されたベクトルに加算し、前記色情報取得手段は、2つの前記加算したベクトルに対応する前記投影平面上の座標から得た色情報と深度情報との乗算値を加算して影響色情報を取得するようにすることができる。   The image processing program according to claim 4, wherein the computer sets the y-axis value to +1 with respect to the top vertex of the passing object, and the bottom The y-axis value is set to −1 with respect to the vertices of the vector, and the vector is set as a vector setting means for continuously setting the vectors between the vertices between them. And two vectors whose x-axis values are −1 are added to vectors set at the vertices of the passing object, and the color information acquisition means is on the projection plane corresponding to the two added vectors. The influence color information can be acquired by adding the multiplication value of the color information and the depth information obtained from the coordinates.

また、請求項6に記載されるように、請求項1乃至5のいずれか一項に記載の画像処理プログラムを記録するコンピュータ読み取り可能な記録媒体として構成することができる。   Further, as described in claim 6, it can be configured as a computer-readable recording medium for recording the image processing program according to any one of claims 1 to 5.

本発明の画像処理プログラムおよびコンピュータ読み取り可能な記録媒体にあっては、簡易な処理により、街灯等の発する光によって光源周囲の雨筋が光る雨グレアを表現することができる。   With the image processing program and computer-readable recording medium of the present invention, it is possible to express rain glare in which rain stripes around the light source shine by light emitted from a streetlight or the like by simple processing.

本発明の一実施形態にかかる画像処理装置の構成例を示す図である。It is a figure which shows the structural example of the image processing apparatus concerning one Embodiment of this invention. グレアテクスチャの生成処理の例を示すフローチャートである。It is a flowchart which shows the example of the production | generation process of a glare texture. グレアテクスチャの例を示す図である。It is a figure which shows the example of a glare texture. 通過オブジェクトの描画処理の例を示すフローチャートである。It is a flowchart which shows the example of the drawing process of a passage object. 雨オブジェクトの頂点および法線の例を示す図である。It is a figure which shows the example of the vertex and normal line of a rain object. 雨オブジェクトの頂点および法線に基づく処理例を示す図(その1)である。It is FIG. (1) which shows the process example based on the vertex and normal of a rain object. ビュー空間および射影空間の例を示す図である。It is a figure which shows the example of view space and projection space. 雨オブジェクトの頂点および法線に基づく処理例を示す図(その2)である。It is FIG. (2) which shows the process example based on the vertex and normal of a rain object. 深度情報テクスチャの例を示す図である。It is a figure which shows the example of a depth information texture. 生成画像例を示す図である。It is a figure which shows the example of a production | generation image.

以下、本発明の好適な実施形態につき説明する。   Hereinafter, preferred embodiments of the present invention will be described.

<構成>
図1は本発明の一実施形態にかかる画像処理装置の構成例を示す図である。
<Configuration>
FIG. 1 is a diagram illustrating a configuration example of an image processing apparatus according to an embodiment of the present invention.

図1において、画像処理装置は、ゲームアプリケーション等の3D(3 Dimension)オブジェクトの描画命令を含む3Dアプリケーション(3Dアプリケーションプログラム)2と、この3Dアプリケーション2から描画命令等を受け取るOpenGL、Direct3D等の3D−API(Application Program Interface)3と、描画処理を実行するGPU(Graphics Processing Unit)4とを備えている。なお、図示を省略しているが、3Dアプリケーション2および3D−API3の実行環境として、一般的なコンピュータのCPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disk Drive)等のハードウェア資源が設けられている。   In FIG. 1, the image processing apparatus includes a 3D application (3D application program) 2 including a drawing command of a 3D (3 Dimension) object such as a game application, and a 3D such as OpenGL or Direct3D that receives a drawing command or the like from the 3D application 2. An API (Application Program Interface) 3 and a GPU (Graphics Processing Unit) 4 that executes drawing processing are provided. Although not shown, the execution environment of the 3D application 2 and 3D-API 3 is a general computer CPU (Central Processing Unit), ROM (Read Only Memory), RAM (Random Access Memory), HDD ( Hardware resources such as Hard Disk Drive) are provided.

GPU4は、3D−API3からGPUコマンドおよびデータストリームを受け付けるGPUフロントエンド部41と、このGPUフロントエンド部41から3D頂点データを受け取って2Dスクリーン空間に投影した座標変換(行列の転置)等を行うプログラマブル頂点プロセッサ(VS:Vertex Processor)42と、GPUフロントエンド部41から与えられる頂点インデックスストリームとプログラマブル頂点プロセッサ42で座標変換された頂点データとを組み立てる基本アセンブリ部43とを備えている。プログラマブル頂点プロセッサ42および基本アセンブリ部43の部分は、バーテックスシェーダと呼ばれている。   The GPU 4 receives a GPU command and a data stream from the 3D-API 3, performs a coordinate transformation (matrix transposition) and the like by receiving 3D vertex data from the GPU front end 41 and projecting it to the 2D screen space. A programmable vertex processor (VS) 42 and a basic assembly unit 43 that assembles a vertex index stream supplied from the GPU front-end unit 41 and vertex data coordinate-converted by the programmable vertex processor 42 are provided. The parts of the programmable vertex processor 42 and the basic assembly unit 43 are called vertex shaders.

また、GPU4は、基本アセンブリ部43で組み立てられた多角形、線および点のデータからラスタライズおよび補間を行うラスタライズ/補間部44と、このラスタライズ/補間部44からラスタライズ済のピクセル(フラグメント)データを受け取ってテクスチャマッピング等を行うプログラマブルピクセルプロセッサ(PS:Pixel Processor)45と、ラスタライズ/補間部44から与えられるピクセル位置ストリームとプログラマブルピクセルプロセッサ45から与えられるテクスチャマッピング済のデータからラスタ演算(ピクセルデータの画面上での配置)を行うラスタ演算部46とを備えている。ラスタライズ/補間部44、プログラマブルピクセルプロセッサ45およびラスタ演算部46の部分は、ピクセルシェーダと呼ばれている。   In addition, the GPU 4 performs rasterization / interpolation unit 44 that performs rasterization and interpolation from the polygon, line, and point data assembled by the basic assembly unit 43, and rasterized pixel (fragment) data from the rasterization / interpolation unit 44. A raster processing (pixel data of pixel data) is received from a programmable pixel processor (PS: Pixel Processor) 45 that receives and performs texture mapping, a pixel position stream given from the rasterizing / interpolating unit 44, and texture mapped data given from the programmable pixel processor 45. And a raster calculation unit 46 that performs arrangement on the screen. The portions of the rasterizing / interpolating unit 44, the programmable pixel processor 45, and the raster computing unit 46 are called pixel shaders.

また、GPU4は、ラスタ演算部46により描画内容が書込・更新されるとともに、GPU4内の各部から参照・更新が可能なグレアテクスチャ471および深度情報テクスチャ472と、ラスタ演算部46により描画内容が書込・更新されるフレームバッファ48とを備えている。   In the GPU 4, the rendering content is written / updated by the raster computing unit 46, the glare texture 471 and the depth information texture 472 that can be referred to / updated from each unit in the GPU 4, and the rendered content is rendered by the raster computing unit 46. And a frame buffer 48 to be written and updated.

グレアテクスチャ471および深度情報テクスチャ472は、雨オブジェクトの描画処理において使用される。グレアテクスチャ471については、その生成処理を含め、後述する。   The glare texture 471 and the depth information texture 472 are used in the drawing process of the rain object. The glare texture 471 will be described later, including its generation process.

深度情報テクスチャ472は、描画フレームの各ピクセルの深度情報(視点からのz方向距離)を保持するテクスチャである。テクスチャは、テクスチャ空間のU座標(一般的に、0≦U≦1)とV座標(一般的に、0≦V≦1)に対応して値を保持するマップデータである。テクスチャは一般に色情報のデータを保持する形式となっているため、色情報以外の情報を保持する場合には色情報の形式に変換されて格納される。   The depth information texture 472 is a texture that holds depth information (z-direction distance from the viewpoint) of each pixel of the drawing frame. The texture is map data that holds values corresponding to the U coordinate (generally 0 ≦ U ≦ 1) and the V coordinate (generally 0 ≦ V ≦ 1) of the texture space. Since the texture generally has a format for holding color information data, when information other than the color information is held, it is converted into the color information format and stored.

フレームバッファ48に書き込まれた内容は周期的に読み出されてビデオ信号に変換され、モニタ装置等によって表示される。   The content written in the frame buffer 48 is periodically read out and converted into a video signal and displayed by a monitor device or the like.

また、処理に必要なデータがデータ保持部5に保持されている。主なデータとしては、モデルデータと、モデル姿勢と、視点・視方向・画角とがある。モデルデータには、マテリアルと、頂点座標と、法線と、テクスチャと、頂点カラー(ディフューズ色)とが含まれる。   Data necessary for processing is held in the data holding unit 5. Main data includes model data, model posture, viewpoint, viewing direction, and angle of view. The model data includes material, vertex coordinates, normal, texture, and vertex color (diffuse color).

モデルデータは、仮想3次元空間内のモデルの標準姿勢における形態を表現したポリゴンデータである。インスタンス化されて仮想3次元空間内に配置されたモデルはオブジェクトと呼ぶ場合がある。後述する雨オブジェクトは、単純な構成であるため、モデルとして保持しておかなくても、プログラムから直接に生成することができる。マテリアルは、モデルの種別を区別する情報であり、街灯のように発光するオブジェクトである場合には自己発光値(Emissive)が設定される。頂点座標は、モデルのポリゴンの頂点の座標(x座標、y座標、z座標)である。法線は、各頂点の面する方向を示すベクトル値である。テクスチャは、ポリゴンの面に貼り付けられる画像データである。頂点カラーは、各頂点のカラーを示すRGB(Red Green Blue)等の値である。   The model data is polygon data representing the form of the model in the virtual three-dimensional space in the standard posture. A model that is instantiated and placed in a virtual three-dimensional space may be referred to as an object. Since a rain object described later has a simple configuration, it can be generated directly from a program without being stored as a model. The material is information for distinguishing the type of model, and a self-emission value (Emissive) is set in the case of an object that emits light like a streetlight. The vertex coordinates are coordinates (x coordinate, y coordinate, z coordinate) of the polygon of the model. The normal is a vector value indicating the direction in which each vertex faces. The texture is image data that is pasted on the surface of the polygon. The vertex color is a value such as RGB (Red Green Blue) indicating the color of each vertex.

モデル姿勢は、各モデルの仮想3次元空間内における位置および回転角度を示す値である。視点・視方向・画角は、仮想3次元空間内のモデルを投影面上の2次元画像として描画する際の仮想カメラ(仮想視点)の3次元位置、視線中心方向および視野角である。   The model posture is a value indicating the position and rotation angle of each model in the virtual three-dimensional space. The viewpoint, the viewing direction, and the angle of view are the three-dimensional position, the line-of-sight center direction, and the viewing angle of the virtual camera (virtual viewpoint) when the model in the virtual three-dimensional space is drawn as a two-dimensional image on the projection plane.

なお、画像処理装置1にGPU4を用いた構成について説明したが、汎用的なコンピュータのハードウェア上でソフトウェア的にグラフィックエンジンを実現した場合にも本発明を適用できることは言うまでもない。この場合、GPU4の機能は3Dアプリケーション2や3D−API3と同様にソフトウェア的に実現され、テクスチャ471、472やフレームバッファ48はメモリ(RAM)上に配置される。   Although the configuration using the GPU 4 for the image processing apparatus 1 has been described, it goes without saying that the present invention can also be applied to a case where a graphic engine is realized by software on general-purpose computer hardware. In this case, the function of the GPU 4 is realized by software like the 3D application 2 and 3D-API 3, and the textures 471 and 472 and the frame buffer 48 are arranged on a memory (RAM).

<動作>
図2はグレアテクスチャ471の生成処理の例を示すフローチャートである。グレアテクスチャ471は、マテリアルに自己発光値が設定されたモデル(自己発光オブジェクト)の発光部分のピクセル毎の色情報を格納したテクスチャである。グレアテクスチャ471の生成処理は、主にピクセルシェーダにより行われる。
<Operation>
FIG. 2 is a flowchart showing an example of the generation process of the glare texture 471. The glare texture 471 is a texture that stores color information for each pixel of a light emitting portion of a model (self-luminous object) in which a self-luminous value is set for the material. The generation process of the glare texture 471 is mainly performed by a pixel shader.

図2において、毎フレームもしくは数フレームおきに処理を開始すると(ステップS101)、マテリアルに自己発光値が設定されたモデルのピクセルを、予め用意されたテクスチャバッファであるグレアテクスチャ471に描画し(ステップS102)、処理を終了する(ステップS103)。   In FIG. 2, when processing is started every frame or every several frames (step S101), the pixel of the model in which the self-luminous value is set for the material is drawn on the glare texture 471 that is a texture buffer prepared in advance (step S101). S102), the process is terminated (step S103).

図3はグレアテクスチャ471の例を示す図であり、ピクセル毎の発光色を示している。図では、6個の立方体状の発光部を持つ街灯が画面中央に配置され、画面の右端にも他の街灯の一部が見えている。図において、白い部分は発光強度が高い部分であり、黒い部分は発光強度が低い部分である。   FIG. 3 is a diagram showing an example of the glare texture 471, and shows the emission color for each pixel. In the figure, a streetlight having six cubic light-emitting portions is arranged at the center of the screen, and a part of other streetlights can be seen at the right end of the screen. In the figure, the white part is a part with high emission intensity, and the black part is a part with low emission intensity.

図4は通過オブジェクトの描画処理の例を示すフローチャートである。通過オブジェクトとして、例えば、雨筋を表現する雨オブジェクト、雪の粒を表現する雪オブジェクト、噴水等で生じる水しぶきを表現する水滴オブジェクトなどが想定される。以下、通過オブジェクトの一例として、雨オブジェクトに関して本発明の詳細な説明を行う。   FIG. 4 is a flowchart showing an example of a passing object drawing process. As the passing object, for example, a rain object expressing a rain stripe, a snow object expressing a snow grain, a water drop object expressing a splash generated in a fountain, and the like are assumed. Hereinafter, the present invention will be described in detail with respect to a rain object as an example of a passing object.

なお、通過オブジェクトを除くその他のモデルのポリゴンについては通常の描画処理が行われ、通過オブジェクトの描画処理結果とフレームバッファ48上で合成される。   It should be noted that normal drawing processing is performed on the polygons of other models excluding the passing object, and the result is combined on the frame buffer 48 with the drawing processing result of the passing object.

図4において、毎フレームもしくは数フレームおきに処理を開始すると(ステップS201)、降雨範囲(x、y、z値の範囲)を設定する(ステップS202)。   In FIG. 4, when the process is started every frame or every several frames (step S201), a rainfall range (range of x, y, z values) is set (step S202).

次いで、設定した降雨範囲内で雨オブジェクトを生成する(ステップS203)。雨オブジェクトは、降雨範囲の最大y座標から開始し、最小y座標に達して消滅するまで、座標を所定の速度ベクトルに基づいて毎回更新する。図5(a)は雨オブジェクトの例を示しており、ここでは5つの頂点VT1〜VT5を結んだラインポリゴンにより雨のライン(雨筋)を表現している。なお、頂点の数は5つに限られず、頂点の間隔も等間隔である必要はない。頂点が直線状のラインに沿う必要もなく、曲線状のラインに沿うようにしてもよい。また、図では垂直方向に落ちる雨のラインを示しているが、斜め方向に雨が落ちるようにしてもよく、その場合、頂点は斜め方向に配置される。   Next, a rain object is generated within the set rain range (step S203). The rain object starts from the maximum y coordinate of the rainfall range and updates the coordinate every time based on a predetermined velocity vector until it reaches the minimum y coordinate and disappears. FIG. 5A shows an example of a rain object. Here, a rain line (rain line) is expressed by a line polygon connecting five vertices VT1 to VT5. Note that the number of vertices is not limited to five, and the intervals between the vertices need not be equal. The apex need not be along a straight line, but may be along a curved line. Moreover, although the rain line falling in the vertical direction is shown in the figure, the rain may fall in an oblique direction, and in that case, the apex is arranged in the oblique direction.

次いで、頂点座標の周囲に位置する近傍座標を求める処理を行う。図4に戻り、雨オブジェクトの各頂点と対になる法線に、y軸にのみ値を設定したベクトルを設定する(ステップS204)。ベクトルのy軸の値は、例えば、一番上の頂点から一番下の頂点にかけて1.0〜−1.0とする。図5(b)は頂点VT1に法線(0,1,0)、頂点VT2に法線(0,0.5,0)、頂点VT3に法線(0,0,0)、頂点VT4に法線(0,−0.5,0)、頂点VT5に法線(0,−1,0)を設定した状態を示している。   Next, a process for obtaining neighboring coordinates located around the vertex coordinates is performed. Returning to FIG. 4, a vector in which a value is set only on the y-axis is set to the normal line paired with each vertex of the rain object (step S204). The y-axis value of the vector is, for example, 1.0 to −1.0 from the top vertex to the bottom vertex. FIG. 5B shows a normal (0, 1, 0) at the vertex VT1, a normal (0, 0.5, 0) at the vertex VT2, a normal (0, 0, 0) at the vertex VT3, and a vertex VT4. The normal line (0, -0.5, 0) and the normal line (0, -1, 0) are set on the vertex VT5.

次いで、図4に戻り、バーテックスシェーダによる処理を行う(ステップS205)。   Next, returning to FIG. 4, processing by the vertex shader is performed (step S205).

先ず、x軸の正方向に値を設定したベクトルv1と、x軸の負方向に値を設定したベクトルv2を、雨オブジェクトの各頂点の法線にそれぞれ加算したベクトルv1'、v2'を計算する(ステップS206)。ベクトルv1とベクトルv2のx軸の値の絶対値は所定のスケーリング値とする。図6は処理内容を概念的に示しており、頂点VT1の法線(ベクトル)にベクトルv1とベクトルv2をそれぞれ加算し、ベクトルv1'、v2'を求めた状態を示している。ここで求めたベクトルv1'、v2'が3次元空間内の近傍座標である。他の頂点VT2〜VT5についても同様にベクトルv1'、v2'を求める。なお、上記手順で求めたベクトルv1'、v2'にさらに係数を乗算した各ベクトルを近傍座標としてもよい。   First, vectors v1 ′ and v2 ′ are calculated by adding a vector v1 having a value set in the positive direction of the x-axis and a vector v2 having a value set in the negative direction of the x-axis to the normal of each vertex of the rain object. (Step S206). The absolute value of the x-axis values of the vectors v1 and v2 is a predetermined scaling value. FIG. 6 conceptually shows the processing contents, and shows a state in which the vectors v1 ′ and v2 ′ are obtained by adding the vector v1 and the vector v2 to the normal (vector) of the vertex VT1, respectively. The vectors v1 ′ and v2 ′ obtained here are the neighboring coordinates in the three-dimensional space. Similarly, vectors v1 ′ and v2 ′ are obtained for the other vertices VT2 to VT5. Each vector obtained by multiplying the vectors v1 ′ and v2 ′ obtained by the above procedure by a coefficient may be used as the neighborhood coordinates.

次いで、図4に戻り、雨オブジェクトの各頂点に周知のビュー変換行列を乗算し、ビュー空間に移動した雨オブジェクトの頂点座標を計算する(ステップS207)。   Next, returning to FIG. 4, each vertex of the rain object is multiplied by a known view transformation matrix, and the vertex coordinates of the rain object moved to the view space are calculated (step S207).

図7(a)はビュー空間の例を示している。ビュー空間は視点(仮想カメラ)VPを基準とした座標空間であり、視点VPから視方向に対して横軸がx軸、縦軸がy軸、奥行きがz軸となる。視点VPの視方向に対してx軸方向およびy軸方向にそれぞれ画角だけ振った範囲の、視点VPに近い側には近クリップ平面CP1が設定され、遠い側には遠クリップ平面CP2が設定される。近クリップ平面CP1と遠クリップ平面CP2と画角を示す面で囲われる6面体は視錐台と呼ばれ、その内部に配置されるモデル(オブジェクト)が描画対象となる。視錐台の位置は、ビデオゲームの場合、プレイヤ(遊戯者)が操作手段により操作するプレイヤキャラクタを含むように決定される。図7(b)は射影空間の例を示しており、図7(a)に示したビュー空間を、−1≦x≦1、−1≦y≦1、0≦z≦1の範囲に変換したものである。   FIG. 7A shows an example of a view space. The view space is a coordinate space based on the viewpoint (virtual camera) VP, and the horizontal axis is the x axis, the vertical axis is the y axis, and the depth is the z axis with respect to the viewing direction from the viewpoint VP. A near clip plane CP1 is set on the side closer to the viewpoint VP, and a far clip plane CP2 is set on the far side within the range where the angle of view is swung in the x axis direction and the y axis direction with respect to the viewing direction of the viewpoint VP. Is done. The hexahedron surrounded by the near clip plane CP1 and the far clip plane CP2 and the plane showing the angle of view is called a view frustum, and a model (object) arranged inside is a drawing target. In the case of a video game, the position of the viewing frustum is determined so as to include a player character operated by an operation means by a player (player). FIG. 7B shows an example of a projection space, and the view space shown in FIG. 7A is converted into ranges of −1 ≦ x ≦ 1, −1 ≦ y ≦ 1, and 0 ≦ z ≦ 1. It is a thing.

次いで、図4に戻り、ベクトルv1'、v2'にビュー空間の雨オブジェクトの各頂点座標を加算したビュー空間座標p1、p2を算出する(ステップS208)。   Next, returning to FIG. 4, view space coordinates p1 and p2 obtained by adding the vertex coordinates of the rain object in the view space to the vectors v1 ′ and v2 ′ are calculated (step S208).

次いで、ビュー空間座標p1、p2に周知の射影変換行列を乗算して射影空間座標p1'、p2'を算出する(ステップS209)。   Next, the projection space coordinates p1 ′ and p2 ′ are calculated by multiplying the view space coordinates p1 and p2 by a known projective transformation matrix (step S209).

次いで、射影空間座標p1'、p2'からテクスチャ空間座標p1"、p2"を算出する(ステップS210)。変換式は、例えば、
pi"(x)=0.5・pi'(x)+0.5
pi"(y)=−0.5・pi'(y)+0.5
を用いる。図8は、雨オブジェクトの頂点VT1の法線にベクトルv1、v2をそれぞれ加算し、種々の変換を経て、テクスチャ空間座標p1"、p2"が求められた状態を示している。ここで求めたp1"、p2"がテクスチャ空間上での近傍座標である。
Next, texture space coordinates p1 "and p2" are calculated from the projection space coordinates p1 'and p2' (step S210). The conversion formula is, for example,
pi "(x) = 0.5.pi '(x) +0.5
pi "(y) =-0.5.pi '(y) +0.5
Is used. FIG. 8 shows a state where the vectors v1 and v2 are added to the normal line of the vertex VT1 of the rain object, and the texture space coordinates p1 ″ and p2 ″ are obtained through various transformations. The p1 "and p2" obtained here are the near coordinates on the texture space.

次いで、図4に戻り、ピクセルシェーダによるピクセル毎の処理を行う(ステップS211)。   Next, returning to FIG. 4, processing for each pixel by the pixel shader is performed (step S211).

先ず、テクスチャ空間座標p1"、p2"を使用してグレアテクスチャ471(図3)から色情報c1、c2を取得する(ステップS212)。   First, the color information c1 and c2 are acquired from the glare texture 471 (FIG. 3) using the texture space coordinates p1 ″ and p2 ″ (step S212).

次いで、テクスチャ空間座標p1"、p2"を使用して深度情報テクスチャ472から深度情報d1、d2を取得する(ステップS213)。図9は深度情報テクスチャ472の例を示しており、図3のグレアテクスチャ471の例と同じシーンでの値を示している。深度情報テクスチャ472では、視点側により近い自己発光オブジェクトに対応するピクセルほど高い輝度が設定されている。つまり、図9において、白い部分は視点側に近い位置にオブジェクトが存在することを示し、黒い部分は視点から遠い位置にオブジェクトが存在することを示している。   Next, depth information d1 and d2 are acquired from the depth information texture 472 using the texture space coordinates p1 "and p2" (step S213). FIG. 9 shows an example of the depth information texture 472, and shows values in the same scene as the example of the glare texture 471 of FIG. In the depth information texture 472, a higher luminance is set for a pixel corresponding to a self-luminous object closer to the viewpoint side. That is, in FIG. 9, the white portion indicates that the object exists at a position close to the viewpoint side, and the black portion indicates that the object exists at a position far from the viewpoint.

次いで、図4に戻り、色情報c1に深度情報d1を輝度値として乗算して色情報c1・d1を計算するとともに、色情報c2に深度情報d2を輝度値として乗算して色情報c2・d2を計算し、色情報c1・d1と色情報c2・d2を加算した色情報Dを計算する(ステップS214)。色情報に深度情報を乗算するのは、抽出した自己発光オブジェクトの色情報に対し、隔たった距離によって強弱を持たせるためである。   Next, returning to FIG. 4, the color information c1 is multiplied by the depth information d1 as the luminance value to calculate the color information c1 · d1, and the color information c2 is multiplied by the depth information d2 as the luminance value to obtain the color information c2 · d2. The color information D obtained by adding the color information c1 · d1 and the color information c2 · d2 is calculated (step S214). The reason why the color information is multiplied by the depth information is to give strength to the color information of the extracted self-luminous object depending on the distance.

次いで、色情報Dを雨オブジェクトの頂点のディフューズ色に加算し、その色を頂点の出力色(フレームバッファ48への出力色)に設定する(ステップS215)。   Next, the color information D is added to the diffuse color at the vertex of the rain object, and the color is set as the vertex output color (the output color to the frame buffer 48) (step S215).

そして、雨オブジェクトに設定された全ての頂点に対し出力色の設定が行われた後に、既に設定された各頂点の出力色をもとに各頂点間のピクセルの出力色を補間して算出し、雨オブジェクト全体の出力色を設定し(ステップS216)、処理を終了する(ステップS217)。   After setting the output color for all the vertices set in the rain object, the output color of the pixels between the vertices is interpolated and calculated based on the output color of each vertex that has already been set. Then, the output color of the entire rain object is set (step S216), and the process ends (step S217).

以上のように、図4に記載した処理では、雨オブジェクトの各頂点の近傍に位置する近傍座標(テクスチャ空間座標p1"、p2")を算出し、近傍座標の色情報を加味して雨オブジェクトの頂点の出力色を設定する処理を実行する。これにより、街灯などの光源の周辺を雨オブジェクト等の通過オブジェクトが通過した場合において、雨筋が光る雨グレア等を表現することができる。   As described above, in the process illustrated in FIG. 4, the neighbor coordinates (texture space coordinates p1 ″ and p2 ″) located in the vicinity of each vertex of the rain object are calculated, and the rain object is added with the color information of the neighbor coordinates. Execute the process to set the output color of the vertex. Thereby, when a passing object such as a rain object passes around a light source such as a streetlight, it is possible to express rain glare or the like in which rain lines shine.

図10は生成画像例を示す図であり、画面中央の街灯の周辺を落ちる雨のラインが、街灯の明かりにより部分的に照らされている状態が表現されている。   FIG. 10 is a diagram illustrating an example of a generated image, in which a rain line falling around the street lamp at the center of the screen is partially illuminated by the streetlight.

<総括>
以上説明したように、本実施形態によれば、雨オブジェクトの各頂点座標と、その近傍の座標における色情報、および深度情報から雨オブジェクトの出力色を決定するため、簡易な処理により、街灯等の発する光によって光源周囲の雨筋が光る雨グレアを表現することができるという利点がある。
<Summary>
As described above, according to the present embodiment, in order to determine the output color of the rain object from the vertex information of the rain object, the color information at the coordinates in the vicinity thereof, and the depth information, the street light etc. There is an advantage that rain glare in which rain streaks around the light source shine can be expressed by the light emitted by.

なお、本実施形態によれば、雨オブジェクトの出力色の設定をより簡易な処理とするために、雨筋をラインポリゴンで形成する場合について述べたが、本発明はこれに限らず、幅を持ったポリゴン(例えば、矩形状、円形状)で雨筋や雪の粒を表現する場合にも適用が可能である。   In addition, according to this embodiment, in order to make the setting of the output color of the rain object a simpler process, the case where the rain stripe is formed by the line polygon has been described. However, the present invention is not limited to this, and the width is not limited. The present invention can also be applied to a case in which rain stripes or snow grains are expressed by polygons (for example, rectangular shape or circular shape).

また、本実施形態によれば、雨ポリゴンの上端の頂点は、より上方位置の座標の光源の影響を受け、雨ポリゴンの下端の頂点はより下方位置の座標の光源の影響を受けることで、より自然な雨グレアを表現するために、上端の位置ではより上方の、下端の位置では寄り下方の座標を近傍座標と設定するべく法線値を設定する場合について述べたが、本発明はこれに限らず、頂点座標の近傍の座標を取得できる範囲であれば各頂点の法線値はどのような値であってもよい。   Further, according to the present embodiment, the top vertex of the rain polygon is affected by the light source of the upper position coordinate, and the bottom vertex of the rain polygon is affected by the light source of the lower position coordinate, In order to express more natural rain glare, the case where the normal value is set to set the coordinates above the upper end position and near the lower end position as the neighboring coordinates has been described. The normal value of each vertex may be any value as long as the coordinates in the vicinity of the vertex coordinates can be acquired.

また、本実施形態によれば、ラインポリゴンでは通常使用されない法線値を用いて近傍座標を求めることで、より無駄のない処理で雨グレアを表現している場合について述べたが、本発明はこれに限らず、各頂点の法線値を設定せずに、各頂点座標に所定のベクトルを加算することで、近傍座標を求める構成する場合にも適用可能である。   Further, according to the present embodiment, the case where rain glare is expressed with less wasteful processing by calculating the neighborhood coordinates using normal values that are not normally used in the line polygon has been described. However, the present invention is not limited to this, and the present invention can also be applied to a case in which the neighborhood coordinates are obtained by adding a predetermined vector to each vertex coordinate without setting the normal value of each vertex.

また、本実施形態によれば、簡易な処理でより自然な雨オブジェクトを生成するために、頂点ごとに法線の値を使用して近傍座標を2点算出し、各近傍座標の色情報を頂点の出力色に加味する場合について述べたが、近傍座標の数は2点に限らず1点でもよいし、3点以上算出してもよい。   Further, according to the present embodiment, in order to generate a more natural rain object with simple processing, two neighboring coordinates are calculated using the normal value for each vertex, and the color information of each neighboring coordinate is obtained. Although the case of adding to the output color of the vertex has been described, the number of neighboring coordinates is not limited to two, but may be one point, or three or more may be calculated.

以上、本発明の好適な実施の形態により本発明を説明した。ここでは特定の具体例を示して本発明を説明したが、特許請求の範囲に定義された本発明の広範な趣旨および範囲から逸脱することなく、これら具体例に様々な修正および変更を加えることができることは明らかである。すなわち、具体例の詳細および添付の図面により本発明が限定されるものと解釈してはならない。   The present invention has been described above by the preferred embodiments of the present invention. While the invention has been described with reference to specific embodiments, various modifications and changes may be made to the embodiments without departing from the broad spirit and scope of the invention as defined in the claims. Obviously you can. In other words, the present invention should not be construed as being limited by the details of the specific examples and the accompanying drawings.

1 画像処理装置
2 3Dアプリケーション
3 3D−API
4 GPU
41 GPUフロントエンド部
42 プログラマブル頂点プロセッサ
43 基本アセンブリ部
44 ラスタライズ/補間部
45 プログラマブルピクセルプロセッサ
46 ラスタ演算部
471 グレアテクスチャ
472 深度情報テクスチャ
48 フレームバッファ
5 データ保持部
1 Image processing device 2 3D application 3 3D-API
4 GPU
41 GPU front end part 42 Programmable vertex processor 43 Basic assembly part 44 Rasterization / interpolation part 45 Programmable pixel processor 46 Raster operation part 471 Glare texture 472 Depth information texture 48 Frame buffer 5 Data holding part

Claims (6)

コンピュータを、
少なくとも自己発光オブジェクトを含むオブジェクトが配置された仮想空間に対し、仮想視点を設定し、当該仮想視点を基準とした視錐台の内部に配置されたオブジェクトを投影平面に投影する座標変換手段、
前記自己発光オブジェクトの周囲を通過する通過オブジェクトを前記仮想空間に発生させる通過オブジェクト発生手段、
前記投影平面のピクセル毎に前記仮想空間における前記自己発光オブジェクトの色情報および前記オブジェクトの深度情報をメモリに保持する保持手段、
前記投影平面上における前記通過オブジェクトの近傍座標を算出する近傍座標計算手段、
前記保持手段から算出された前記近傍座標における前記自己発光オブジェクトの色情報と深度情報を取得し、当該色情報と深度情報を乗算して影響色情報を取得する色情報取得手段、
取得した影響色情報を前記通過オブジェクトの色に反映させる色設定手段
として機能させる画像処理プログラム。
Computer
Coordinate conversion means for setting a virtual viewpoint for a virtual space in which an object including at least a self-luminous object is arranged, and projecting the object arranged inside the viewing frustum based on the virtual viewpoint onto a projection plane;
Passing object generating means for generating a passing object passing around the self-luminous object in the virtual space;
Holding means for holding color information of the self-luminous object in the virtual space and depth information of the object in a memory for each pixel of the projection plane;
Neighborhood coordinate calculation means for calculating neighborhood coordinates of the passing object on the projection plane;
Color information acquisition means for acquiring color information and depth information of the self-luminous object in the vicinity coordinates calculated from the holding means, and multiplying the color information and depth information to acquire influence color information;
An image processing program for functioning as color setting means for reflecting acquired influence color information on the color of the passing object.
請求項1に記載の画像処理プログラムであって、
前記色情報取得手段は、前記近傍座標における前記自己発光オブジェクトの深度が小さいほど前記通過オブジェクトの色を明るくする影響色情報を取得し、
前記色設定手段は、前記通過オブジェクトの深度が小さいほど前記通過オブジェクトの色を明るく設定する
画像処理プログラム。
An image processing program according to claim 1,
The color information acquisition means acquires influence color information that brightens the color of the passing object as the depth of the self-luminous object in the neighboring coordinates is smaller.
The color setting means is an image processing program for setting the color of the passing object brighter as the depth of the passing object is smaller.
請求項2に記載の画像処理プログラムであって、
前記通過オブジェクト発生手段は、前記通過オブジェクトを複数の頂点から構成されるラインポリゴンとしてランダムに発生させ、前記仮想空間で落下する速度を与え、
前記色情報取得手段は、前記頂点ごとに前記近傍座標の色情報と輝度情報を乗算して影響色情報を取得し、
前記色設定手段は、前記影響色情報を前記通過オブジェクトの各頂点の色に反映させる
画像処理プログラム。
An image processing program according to claim 2,
The passing object generating means randomly generates the passing object as a line polygon composed of a plurality of vertices, and gives a speed of falling in the virtual space,
The color information acquisition means acquires influence color information by multiplying color information and luminance information of the neighboring coordinates for each vertex,
The color setting means is an image processing program for reflecting the influence color information on the color of each vertex of the passing object.
請求項3に記載の画像処理プログラムであって、
コンピュータを、
前記通過オブジェクトの一番上の頂点に対してy軸の値に正方向の値、一番下の頂点に対してy軸の値に負方向の値のベクトルを設定し、その間の頂点に連続してベクトルを設定するベクトル設定手段
として機能させ、
前記近傍座標計算手段は、それぞれx軸の値が正方向の値とx軸の値が負方向の値の2つのベクトルを、前記通過オブジェクトの各頂点に設定されたベクトルに加算し、
前記色情報取得手段は、2つの前記加算したベクトルに対応する前記投影平面上の座標から得た色情報と深度情報との乗算値を加算して影響色情報を取得する
画像処理プログラム。
An image processing program according to claim 3,
Computer
A vector of positive values is set for the y-axis value for the top vertex of the passing object, and a negative value vector is set for the y-axis value for the bottom vertex. Function as a vector setting means for setting a vector,
The neighborhood coordinate calculation means adds two vectors each having an x-axis value in the positive direction and an x-axis value in the negative direction to a vector set at each vertex of the passing object,
The color information acquisition unit is an image processing program for acquiring influence color information by adding a multiplication value of color information and depth information obtained from coordinates on the projection plane corresponding to the two added vectors.
請求項4に記載の画像処理プログラムであって、
コンピュータを、
前記通過オブジェクトの一番上の頂点に対してy軸の値を+1、一番下の頂点に対してy軸の値を−1としてベクトルを設定し、その間の頂点に連続してベクトルを設定するベクトル設定手段
として機能させ、
前記近傍座標計算手段は、それぞれx軸の値が+1とx軸の値が−1の2つのベクトルを、前記通過オブジェクトの各頂点に設定されたベクトルに加算し、
前記色情報取得手段は、2つの前記加算したベクトルに対応する前記投影平面上の座標から得た色情報と深度情報との乗算値を加算して影響色情報を取得する
画像処理プログラム。
An image processing program according to claim 4,
Computer
A vector is set with a y-axis value of +1 for the top vertex of the passing object and a y-axis value of -1 for the bottom vertex, and a vector is set continuously between the vertices between them. Function as a vector setting means,
The neighborhood coordinate calculation means adds two vectors each having an x-axis value of +1 and an x-axis value of −1 to a vector set at each vertex of the passing object,
The color information acquisition unit is an image processing program for acquiring influence color information by adding a multiplication value of color information and depth information obtained from coordinates on the projection plane corresponding to the two added vectors.
請求項1乃至5のいずれか一項に記載の画像処理プログラムを記録するコンピュータ読み取り可能な記録媒体。   A computer-readable recording medium for recording the image processing program according to any one of claims 1 to 5.
JP2009217161A 2009-09-18 2009-09-18 Image processing program and computer-readable recording medium Expired - Fee Related JP5423276B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009217161A JP5423276B2 (en) 2009-09-18 2009-09-18 Image processing program and computer-readable recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009217161A JP5423276B2 (en) 2009-09-18 2009-09-18 Image processing program and computer-readable recording medium

Publications (2)

Publication Number Publication Date
JP2011065536A JP2011065536A (en) 2011-03-31
JP5423276B2 true JP5423276B2 (en) 2014-02-19

Family

ID=43951688

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009217161A Expired - Fee Related JP5423276B2 (en) 2009-09-18 2009-09-18 Image processing program and computer-readable recording medium

Country Status (1)

Country Link
JP (1) JP5423276B2 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3720890B2 (en) * 1995-12-12 2005-11-30 株式会社ルネサステクノロジ Image generation device
JP3700928B2 (en) * 2001-02-21 2005-09-28 コナミ株式会社 Image representation method and program used therefor
JP3456648B2 (en) * 2001-09-27 2003-10-14 株式会社ナムコ PROGRAM, INFORMATION STORAGE MEDIUM, AND GAME DEVICE
JP2009140371A (en) * 2007-12-07 2009-06-25 Namco Bandai Games Inc Program, information storage medium, and image generation system

Also Published As

Publication number Publication date
JP2011065536A (en) 2011-03-31

Similar Documents

Publication Publication Date Title
EP3673463B1 (en) Rendering an image from computer graphics using two rendering computing devices
US10467805B2 (en) Image rendering of laser scan data
JP4291892B2 (en) Image processing apparatus and method
WO2017206325A1 (en) Calculation method and apparatus for global illumination
CN111508052B (en) Rendering method and device of three-dimensional grid body
WO2022111619A1 (en) Image processing method and related apparatus
TWI475513B (en) Method and apparatus for real-time luminosity dependent subdivision
US9460553B2 (en) Point-based global illumination directional importance mapping
US7843463B1 (en) System and method for bump mapping setup
EP2831848B1 (en) Method for estimating the opacity level in a scene and corresponding device
US8294713B1 (en) Method and apparatus for illuminating objects in 3-D computer graphics
KR20170040698A (en) Method and apparatus for performing graphics pipelines
KR20040024550A (en) Painting method
US11120611B2 (en) Using bounding volume representations for raytracing dynamic units within a virtual space
US11804008B2 (en) Systems and methods of texture super sampling for low-rate shading
US9406165B2 (en) Method for estimation of occlusion in a virtual environment
KR101118597B1 (en) Method and System for Rendering Mobile Computer Graphic
KR100559127B1 (en) Image processing device
KR20090059800A (en) Asterization engine and three-dimension graphics system for rasterizing by order adapted characteristic of polygon
JP5423276B2 (en) Image processing program and computer-readable recording medium
KR101227155B1 (en) Graphic image processing apparatus and method for realtime transforming low resolution image into high resolution image
JP5321385B2 (en) Image processing program and computer-readable recording medium
JP6235926B2 (en) Information processing apparatus, generation method, program, and recording medium
JP2009163469A (en) Global illumination circuit
US20180005432A1 (en) Shading Using Multiple Texture Maps

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120906

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131021

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131029

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131111

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5423276

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees