JP5321385B2 - Image processing program and computer-readable recording medium - Google Patents

Image processing program and computer-readable recording medium Download PDF

Info

Publication number
JP5321385B2
JP5321385B2 JP2009217160A JP2009217160A JP5321385B2 JP 5321385 B2 JP5321385 B2 JP 5321385B2 JP 2009217160 A JP2009217160 A JP 2009217160A JP 2009217160 A JP2009217160 A JP 2009217160A JP 5321385 B2 JP5321385 B2 JP 5321385B2
Authority
JP
Japan
Prior art keywords
pixel
intersection
coordinate
reflection
line segment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009217160A
Other languages
Japanese (ja)
Other versions
JP2011065535A (en
Inventor
英嗣 高木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sega Corp
Original Assignee
Sega Corp
Sega Games Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sega Corp, Sega Games Co Ltd filed Critical Sega Corp
Priority to JP2009217160A priority Critical patent/JP5321385B2/en
Publication of JP2011065535A publication Critical patent/JP2011065535A/en
Application granted granted Critical
Publication of JP5321385B2 publication Critical patent/JP5321385B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To generate a reflection image that shows the surroundings reflected on a wet road surface, etc., in the rain, by simple processing. <P>SOLUTION: A computer functions as: a coordinate converting means for projecting onto a projection plane an object which is arranged inside a view frustum based on a virtual point of view; a holding means for holding color information and depth information of the object in a memory; a calculating means for calculating the normal line value and coordinate value of a reflection object corresponding to a pixel when the pixel on the reflection object is processed; a reflection line segment calculating means for determining in a virtual space, a reflection line segment beginning with the coordinate value; an intersection determining means for determining whether there is an intersection coordinate where the reflection segment intersects the object in the view frustum; and a pixel color reflecting means for reflecting the held color information of a reflection pixel on the color information of the pixel when there is the intersection coordinate, and reflecting predetermined color information on the color information of the pixel when there is no intersection coordinate. <P>COPYRIGHT: (C)2011,JPO&amp;INPIT

Description

本発明は、ビデオゲームやCG(Computer Graphics)ビデオ等における表示画像の生成技術に関する。   The present invention relates to a display image generation technique in a video game, a CG (Computer Graphics) video, or the like.

ビデオゲームやCGビデオ等においては、雨で濡れた路面や水面あるいは鏡面等により周囲の景色が反射して見える画像が必要とされるシーンがしばしば存在する。   In video games, CG videos, and the like, there are often scenes that require an image in which the surrounding scenery is reflected by a road surface wet with rain, a water surface, or a mirror surface.

特許文献1には、太陽からの光の反射により生じる水面のきらめき(グリッター)を、少ない処理負荷でリアルタイムに実現するための技術が開示されている。ただし、水面のきらめきを表現するのみであり、周囲の景色の反射の画像を水面上に表現するものではない。   Patent Document 1 discloses a technique for realizing real-time glitter (glitter) on the water surface caused by reflection of light from the sun with a small processing load. However, it only represents the sparkle of the water surface and does not represent an image of the reflection of the surrounding scenery on the water surface.

一方、特許文献2には、鏡面反射画像を生成する技術が開示されている。すなわち、第1の3次元画像データを生成した後、第1の3次元画像データを鏡面反射させた第2の3次元画像データを生成し、第2の3次元画像データに対して、くり抜き表示領域を設定する。そして、第1、第2の3次元画像データを第1、第2の2次元画像データに変換した後、第1の2次元画像データに、くり抜き表示領域の第2の2次元画像データを加算描画する。   On the other hand, Patent Document 2 discloses a technique for generating a specular reflection image. That is, after the first three-dimensional image data is generated, second three-dimensional image data obtained by specularly reflecting the first three-dimensional image data is generated, and the second three-dimensional image data is displayed in a cutout manner. Set the area. Then, after the first and second 3D image data is converted into the first and second 2D image data, the second 2D image data in the cut-out display area is added to the first 2D image data. draw.

特許第4001556号公報Japanese Patent No. 4001556 特開2007−259942号公報JP 2007-259942 A

上述した特許文献2に開示された技術によれば、画面内に鏡面反射画像を表示することができるが、基本的な第1の3次元画像データとは別に、第1の3次元画像データを鏡面反射させた第2の3次元画像データを生成し、これを第2の2次元画像データに変換しなければならず、処理負荷が過大になるという問題がある。   According to the technique disclosed in Patent Document 2 described above, a specular reflection image can be displayed on the screen. However, the first three-dimensional image data is separated from the basic first three-dimensional image data. There is a problem in that the second three-dimensional image data subjected to specular reflection must be generated and converted to the second two-dimensional image data, resulting in an excessive processing load.

また、第2の2次元画像データのうち、くり抜き表示領域の画像のみが最終的に表示されるものであるにもかかわらず、それ以外の全体的な3次元画像データおよび2次元画像データが生成されることから、処理内容に無駄があるという問題もあった。   In addition, although only the image in the cutout display area is finally displayed in the second 2D image data, other overall 3D image data and 2D image data are generated. Therefore, there is a problem that the processing contents are wasteful.

更に、第1の3次元画像データを鏡面反射させた第2の3次元画像データを生成するにあたり、床面等の平坦な鏡面に対して鏡面対象となる位置に一律にオブジェクトを配置することから、途中で傾斜が変化する反射物や、傾斜の異なる複数の反射物が存在する場合には、個別に鏡面反射画像を生成しなければならず、処理が複雑になりすぎるという問題があった。   Furthermore, in generating the second 3D image data obtained by specularly reflecting the first 3D image data, the object is uniformly arranged at a position to be mirrored with respect to a flat mirror surface such as a floor surface. In the case where there are reflectors whose inclination changes in the middle or a plurality of reflectors having different slopes, a specular reflection image must be generated individually, which causes a problem that the processing becomes too complicated.

本発明は上記の従来の問題点に鑑み提案されたものであり、その目的とするところは、簡易な処理により、雨で濡れた路面等により周囲の景色が反射して見える画像を生成することのできる画像処理プログラムおよびコンピュータ読み取り可能な記録媒体を提供することにある。   The present invention has been proposed in view of the above-described conventional problems, and an object of the present invention is to generate an image in which the surrounding scenery is reflected by a road surface wet with rain by a simple process. An image processing program and a computer-readable recording medium are provided.

上記の課題を解決するため、本発明にあっては、請求項1に記載されるように、コンピュータを、少なくとも反射オブジェクトを含むオブジェクトが配置された仮想空間に対し、仮想視点を設定し、当該仮想視点を基準とした視錐台の内部に配置されたオブジェクトを投影平面に投影する座標変換手段、前記投影平面のピクセル毎に前記仮想空間における前記オブジェクトの色情報および深度情報をメモリに保持する保持手段、前記反射オブジェクト上の前記ピクセルの処理に際し、当該ピクセルに対応する前記反射オブジェクトの法線値および座標値を算出する計算手段、前記算出された座標値および法線値と、前記仮想視点の位置とに基づき、前記座標値を始点とする反射線分を仮想空間内に求める反射線分計算手段、前記視錐台内で、前記反射線分が前記オブジェクトと交差する交差座標があるか否かを判定する交差判定手段、前記交差座標があると判定した場合、前記座標値から最も近い交差座標に対応する被反射ピクセルを算出し、前記保持された当該被反射ピクセルの色情報を前記ピクセルの色情報に反映し、前記交差座標がないと判定した場合、所定の色情報を前記ピクセルの色情報に反映するピクセル色反映手段として機能させる画像処理プログラムを要旨としている。   In order to solve the above problems, according to the present invention, as described in claim 1, a computer sets a virtual viewpoint for a virtual space in which an object including at least a reflective object is arranged, and Coordinate conversion means for projecting an object arranged inside the viewing frustum with respect to the virtual viewpoint onto the projection plane, and color information and depth information of the object in the virtual space are held in the memory for each pixel of the projection plane Holding means, calculation means for calculating a normal value and a coordinate value of the reflection object corresponding to the pixel in processing the pixel on the reflection object, the calculated coordinate value and normal value, and the virtual viewpoint Based on the position of the reflection line segment calculation means for obtaining the reflection line segment starting from the coordinate value in the virtual space, in the viewing frustum, An intersection determination means for determining whether or not there is an intersection coordinate where the reflection line segment intersects with the object. When it is determined that there is the intersection coordinate, a reflected pixel corresponding to the closest intersection coordinate is calculated from the coordinate value. And pixel color reflecting means for reflecting the color information of the reflected pixel held in the color information of the pixel and reflecting predetermined color information in the color information of the pixel when it is determined that there is no intersection coordinate. The gist of the image processing program is to function as

また、請求項2に記載されるように、請求項1に記載の画像処理プログラムであって、前記交差判定手段は、前記反射線分と、前記視錐台の面との交点を求め、前記反射線分の始点から前記交点の間に複数個のサンプルポイントを設定し、前記反射線分の始点側から、隣り合う2つのサンプルポイントを決定し、当該サンプルポイントに対応する前記投影平面上の2つのサンプルピクセルを算出し、前記メモリから当該2つのサンプルピクセルの深度値を取得し、当該深度値から前記2つのサンプルピクセルに対応する前記オブジェクトの仮想空間上の座標値を算出し、当該2つの座標値の間を結ぶ線分が前記反射線分と交差するか否かを判定し、前記反射線分との交差がある場合は、前記交差した点の座標を前記交差座標として前記判定を終了し、前記反射線分との交差がない場合は、次の隣り合う2つのサンプルポイントを決定して前記判定までを繰り返し、前記設定した全てのサンプルポイントに基づく前記判定によって前記反射線分との交差がない場合には、前記交差座標はないものとして判定を終了するようにすることができる。   Moreover, as described in claim 2, in the image processing program according to claim 1, the intersection determination unit obtains an intersection between the reflection line segment and the surface of the viewing frustum, and A plurality of sample points are set between the start point of the reflection line segment and the intersection point, two adjacent sample points are determined from the start point side of the reflection line segment, and on the projection plane corresponding to the sample point Two sample pixels are calculated, the depth values of the two sample pixels are obtained from the memory, the coordinate values in the virtual space of the object corresponding to the two sample pixels are calculated from the depth values, and the 2 It is determined whether or not a line segment connecting two coordinate values intersects with the reflection line segment. When there is an intersection with the reflection line segment, the determination is performed with the coordinates of the intersected point as the intersection coordinate. If there is no intersection with the reflection line segment, the next two sample points are determined and the determination is repeated until the reflection line segment is determined by the determination based on all the set sample points. If there is no intersection, it can be determined that there is no intersection coordinate and the determination can be terminated.

また、請求項3に記載されるように、請求項1または2のいずれか一項に記載の画像処理プログラムであって、コンピュータを、前記反射オブジェクトの法線情報を変更するための法線マップを作成する手段、前記反射オブジェクトに対応する前記ピクセルの法線値と、当該ピクセルに対応する前記法線マップの法線値に基づいて、前記ピクセルの法線値を変更する手段として機能させるようにすることができる。   According to a third aspect of the present invention, in the image processing program according to the first or second aspect, the computer is a normal map for changing normal information of the reflection object. And a means for changing the normal value of the pixel based on the normal value of the pixel corresponding to the reflective object and the normal value of the normal map corresponding to the pixel. Can be.

また、請求項4に記載されるように、請求項1乃至3のいずれか一項に記載の画像処理プログラムであって、前記ピクセル色反映手段は、前記反射オブジェクトの法線値に基づいて、前記反射オブジェクトの前記ピクセルの色情報における輝度を変更するようにすることができる。   Also, as described in claim 4, in the image processing program according to any one of claims 1 to 3, the pixel color reflecting means is based on a normal value of the reflective object. The luminance in the color information of the pixel of the reflective object can be changed.

また、請求項5に記載されるように、請求項1乃至4のいずれか一項に記載の画像処理プログラムを記録するコンピュータ読み取り可能な記録媒体として構成することができる。   In addition, as described in claim 5, the image processing program according to any one of claims 1 to 4 can be configured as a computer-readable recording medium.

本発明の画像処理プログラムおよびコンピュータ読み取り可能な記録媒体にあっては、簡易な処理により、雨で濡れた路面等により周囲の景色が反射して見える画像を生成することができる。   With the image processing program and computer-readable recording medium of the present invention, it is possible to generate an image in which the surrounding scenery is reflected by a road surface wet with rain or the like by simple processing.

本発明の一実施形態にかかる画像処理装置の構成例を示す図である。It is a figure which shows the structural example of the image processing apparatus concerning one Embodiment of this invention. 雨路面高さテクスチャの生成処理の例を示すフローチャートである。It is a flowchart which shows the example of a production | generation process of a rainy road surface height texture. 雨路面高さテクスチャの例を示す図である。It is a figure which shows the example of a rainy road surface height texture. 雨路面法線テクスチャの生成処理の例を示すフローチャートである。It is a flowchart which shows the example of the production | generation process of a rain road surface normal texture. 雨路面法線テクスチャの例を示す図である。It is a figure which shows the example of a rain road surface normal texture. 濡れた路面等のポリゴン描画処理の例を示すフローチャートである。It is a flowchart which shows the example of polygon drawing processes, such as a wet road surface. ビュー空間および射影空間の例を示す図である。It is a figure which shows the example of view space and projection space. 処理例を示す図(その1)である。It is a figure (the 1) which shows a processing example. 処理例を示す図(その2)である。It is FIG. (2) which shows a processing example. 処理例を示す図(その3)である。It is FIG. (3) which shows a process example. 生成画像例を示す図(その1)である。It is a figure (the 1) which shows the example of a production | generation image. 生成画像例を示す図(その2)である。It is a figure (the 2) which shows the example of a generated image. 生成画像例を示す図(その3)である。FIG. 11 is a diagram (part 3) illustrating a generated image example;

以下、本発明の好適な実施形態につき説明する。   Hereinafter, preferred embodiments of the present invention will be described.

<構成>
図1は本発明の一実施形態にかかる画像処理装置の構成例を示す図である。
<Configuration>
FIG. 1 is a diagram illustrating a configuration example of an image processing apparatus according to an embodiment of the present invention.

図1において、画像処理装置は、ゲームアプリケーション等の3D(3 Dimension)オブジェクトの描画命令を含む3Dアプリケーション(3Dアプリケーションプログラム)2と、この3Dアプリケーション2から描画命令等を受け取るOpenGL、Direct3D等の3D−API(Application Program Interface)3と、描画処理を実行するGPU(Graphics Processing Unit)4とを備えている。なお、図示を省略しているが、3Dアプリケーション2および3D−API3の実行環境として、一般的なコンピュータのCPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disk Drive)等のハードウェア資源が設けられている。   In FIG. 1, the image processing apparatus includes a 3D application (3D application program) 2 including a drawing command of a 3D (3 Dimension) object such as a game application, and a 3D such as OpenGL or Direct3D that receives a drawing command or the like from the 3D application 2. An API (Application Program Interface) 3 and a GPU (Graphics Processing Unit) 4 that executes drawing processing are provided. Although not shown, the execution environment of the 3D application 2 and 3D-API 3 is a general computer CPU (Central Processing Unit), ROM (Read Only Memory), RAM (Random Access Memory), HDD ( Hardware resources such as Hard Disk Drive) are provided.

GPU4は、3D−API3からGPUコマンドおよびデータストリームを受け付けるGPUフロントエンド部41と、このGPUフロントエンド部41から3D頂点データを受け取って2Dスクリーン空間に投影した座標変換(行列の転置)等を行うプログラマブル頂点プロセッサ(VS:Vertex Processor)42と、GPUフロントエンド部41から与えられる頂点インデックスストリームとプログラマブル頂点プロセッサ42で座標変換された頂点データとを組み立てる基本アセンブリ部43とを備えている。プログラマブル頂点プロセッサ42および基本アセンブリ部43の部分は、バーテックスシェーダと呼ばれている。   The GPU 4 receives a GPU command and a data stream from the 3D-API 3, performs a coordinate transformation (matrix transposition) and the like by receiving 3D vertex data from the GPU front end 41 and projecting it to the 2D screen space. A programmable vertex processor (VS) 42 and a basic assembly unit 43 that assembles a vertex index stream supplied from the GPU front-end unit 41 and vertex data coordinate-converted by the programmable vertex processor 42 are provided. The parts of the programmable vertex processor 42 and the basic assembly unit 43 are called vertex shaders.

また、GPU4は、基本アセンブリ部43で組み立てられた多角形、線および点のデータからラスタライズおよび補間を行うラスタライズ/補間部44と、このラスタライズ/補間部44からラスタライズ済のピクセル(フラグメント)データを受け取ってテクスチャマッピング等を行うプログラマブルピクセルプロセッサ(PS:Pixel Processor)45と、ラスタライズ/補間部44から与えられるピクセル位置ストリームとプログラマブルピクセルプロセッサ45から与えられるテクスチャマッピング済のデータからラスタ演算(ピクセルデータの画面上での配置)を行うラスタ演算部46とを備えている。ラスタライズ/補間部44、プログラマブルピクセルプロセッサ45およびラスタ演算部46の部分は、ピクセルシェーダと呼ばれている。   In addition, the GPU 4 performs rasterization / interpolation unit 44 that performs rasterization and interpolation from the polygon, line, and point data assembled by the basic assembly unit 43, and rasterized pixel (fragment) data from the rasterization / interpolation unit 44. A raster processing (pixel data of pixel data) is received from a programmable pixel processor (PS: Pixel Processor) 45 that receives and performs texture mapping, a pixel position stream given from the rasterizing / interpolating unit 44, and texture mapped data given from the programmable pixel processor 45. And a raster calculation unit 46 that performs arrangement on the screen. The portions of the rasterizing / interpolating unit 44, the programmable pixel processor 45, and the raster computing unit 46 are called pixel shaders.

また、GPU4は、ラスタ演算部46により描画内容が書込・更新されるとともに、GPU4内の各部から参照・更新が可能な雨路面高さテクスチャ471、雨路面法線テクスチャ472、深度情報テクスチャ473および色情報テクスチャ474と、ラスタ演算部46により描画内容が書込・更新されるフレームバッファ48とを備えている。   Further, in the GPU 4, the rendering contents are written / updated by the raster calculation unit 46, and the rain road surface height texture 471, the rain road surface normal texture 472, and the depth information texture 473 that can be referred to / updated from each unit in the GPU 4. And a color information texture 474 and a frame buffer 48 into which drawing contents are written / updated by the raster computing unit 46.

雨路面高さテクスチャ471、雨路面法線テクスチャ472、深度情報テクスチャ473および色情報テクスチャ474は、濡れた路面等の描画処理において使用される。雨路面高さテクスチャ471と雨路面法線テクスチャ472については、その生成処理を含め、後述する。   The rain road surface height texture 471, the rain road surface normal texture 472, the depth information texture 473, and the color information texture 474 are used in drawing processing of a wet road surface or the like. The rain road surface height texture 471 and the rain road surface normal texture 472 will be described later, including generation processing thereof.

深度情報テクスチャ473は、描画フレームの各ピクセルの深度情報(視点からのz方向距離)を保持するテクスチャである。色情報テクスチャ474は、描画フレームの各ピクセルの色情報を保持するテクスチャである。テクスチャは、テクスチャ空間のU座標(一般的に、0≦U≦1)とV座標(一般的に、0≦V≦1)に対応して値を保持するマップデータである。テクスチャは一般に色情報のデータを保持する形式となっているため、色情報以外の情報を保持する場合には色情報の形式に変換されて格納される。   The depth information texture 473 is a texture that holds depth information (z-direction distance from the viewpoint) of each pixel of the drawing frame. The color information texture 474 is a texture that holds color information of each pixel of the drawing frame. The texture is map data that holds values corresponding to the U coordinate (generally 0 ≦ U ≦ 1) and the V coordinate (generally 0 ≦ V ≦ 1) of the texture space. Since the texture generally has a format for holding color information data, when information other than the color information is held, it is converted into the color information format and stored.

フレームバッファ48に書き込まれた内容は周期的に読み出されてビデオ信号に変換され、モニタ装置等によって表示される。   The content written in the frame buffer 48 is periodically read out and converted into a video signal and displayed by a monitor device or the like.

また、処理に必要なデータがデータ保持部5に保持されている。主なデータとしては、モデルデータと、モデル姿勢と、視点・視方向・画角と、外部色とがある。モデルデータには、マテリアルと、頂点座標と、法線と、テクスチャと、頂点カラーとが含まれる。   Data necessary for processing is held in the data holding unit 5. Main data includes model data, model posture, viewpoint, viewing direction, angle of view, and external color. The model data includes materials, vertex coordinates, normals, textures, and vertex colors.

モデルデータは、仮想3次元空間内のモデルの標準姿勢における形態を表現したポリゴンデータである。インスタンス化されて仮想3次元空間内に配置されたモデルはオブジェクトと呼ぶ場合がある。マテリアルは、モデルの種別を区別する情報であり、雨により濡れた場合に反射する道路(路面)であるとか、鏡面であるとかを示す。頂点座標は、モデルのポリゴンの頂点の座標(x座標、y座標、z座標)である。法線は、各頂点の面する方向を示すベクトル値である。テクスチャは、ポリゴンの面に貼り付けられる画像データである。頂点カラーは、各頂点のカラーを示すRGB(Red Green Blue)等の値である。   The model data is polygon data representing the form of the model in the virtual three-dimensional space in the standard posture. A model that is instantiated and placed in a virtual three-dimensional space may be referred to as an object. The material is information for distinguishing the type of model, and indicates whether it is a road (road surface) that reflects when it gets wet due to rain or a mirror surface. The vertex coordinates are coordinates (x coordinate, y coordinate, z coordinate) of the polygon of the model. The normal is a vector value indicating the direction in which each vertex faces. The texture is image data that is pasted on the surface of the polygon. The vertex color is a value such as RGB (Red Green Blue) indicating the color of each vertex.

モデル姿勢は、各モデルの仮想3次元空間内における位置および回転角度を示す値である。視点・視方向・画角は、仮想3次元空間内のモデルを投影面上の2次元画像として描画する際の仮想カメラ(仮想視点)の3次元位置、視線中心方向および視野角である。外部色は、空の色等であり、他のモデルからの反射がない場合に反射光の色として用いられる。   The model posture is a value indicating the position and rotation angle of each model in the virtual three-dimensional space. The viewpoint, the viewing direction, and the angle of view are the three-dimensional position, the line-of-sight center direction, and the viewing angle of the virtual camera (virtual viewpoint) when the model in the virtual three-dimensional space is drawn as a two-dimensional image on the projection plane. The external color is a sky color or the like, and is used as a color of reflected light when there is no reflection from another model.

なお、画像処理装置1にGPU4を用いた構成について説明したが、汎用的なコンピュータのハードウェア上でソフトウェア的にグラフィックエンジンを実現した場合にも本発明を適用できることは言うまでもない。この場合、GPU4の機能は3Dアプリケーション2や3D−API3と同様にソフトウェア的に実現され、テクスチャ471〜474やフレームバッファ48はメモリ(RAM)上に配置される。   Although the configuration using the GPU 4 for the image processing apparatus 1 has been described, it goes without saying that the present invention can also be applied to a case where a graphic engine is realized by software on general-purpose computer hardware. In this case, the function of the GPU 4 is realized by software like the 3D application 2 and the 3D-API 3, and the textures 471 to 474 and the frame buffer 48 are arranged on a memory (RAM).

<動作>
図2は雨路面高さテクスチャ471の生成処理の例を示すフローチャートである。雨路面高さテクスチャ471は、道路の路面等に水膜による揺らぎを与えるために、水膜の厚さ(高さ)を示すテクスチャである。雨路面高さテクスチャ471の生成処理は、主にピクセルシェーダにより行われる。
<Operation>
FIG. 2 is a flowchart showing an example of the generation process of the rain road surface height texture 471. The rain road surface height texture 471 is a texture indicating the thickness (height) of the water film in order to give the road surface or the like of the road fluctuation due to the water film. The generation process of the rain road surface height texture 471 is mainly performed by a pixel shader.

図2において、毎フレームもしくは数フレームおきに処理を開始すると(ステップS101)、雨路面高さテクスチャ471の全体に水のパターンを示すノイズを描画する(ステップS102)。   In FIG. 2, when processing is started every frame or every several frames (step S101), noise indicating a water pattern is drawn on the entire rain road surface height texture 471 (step S102).

次いで、雨路面高さテクスチャ471に降雨による波紋を任意数だけ描画し(ステップS103)、処理を終了する(ステップS104)。   Next, an arbitrary number of ripples due to rainfall are drawn on the rain road surface height texture 471 (step S103), and the process is terminated (step S104).

図3は雨路面高さテクスチャ471の例を示す図であり、雨路面高さを色により示している。図では、白い部分は高さが高い部分であり、黒い部分は高さが低い部分である。   FIG. 3 is a diagram showing an example of a rainy road surface height texture 471, which shows the rainy road surface height by color. In the figure, the white part is a part with a high height, and the black part is a part with a low height.

図4は雨路面法線テクスチャ472の生成処理の例を示すフローチャートである。雨路面法線テクスチャ472は、道路の路面等に水膜による揺らぎを与えるために、水膜の表面の法線を示すテクスチャである。雨路面法線テクスチャ472は、前述した雨路面高さテクスチャ471に基づいて生成される。雨路面法線テクスチャ472の生成処理は、主にピクセルシェーダにより行われる。   FIG. 4 is a flowchart showing an example of the generation process of the rain road surface normal texture 472. The rain road surface normal texture 472 is a texture that indicates the normal of the surface of the water film in order to give fluctuation to the road surface of the road due to the water film. The rain road surface normal texture 472 is generated based on the rain road surface height texture 471 described above. The generation process of the rain road surface normal texture 472 is mainly performed by a pixel shader.

図4において、毎フレームもしくは数フレームおきに処理を開始すると(ステップS111)、全ピクセルの個々につき、該当ピクセル周辺の雨路面高さテクスチャ471の値からテクスチャ空間上の2D傾きベクトルを計算する(ステップS112)。   In FIG. 4, when processing is started every frame or every several frames (step S111), a 2D inclination vector in the texture space is calculated from the value of the rain road surface height texture 471 around each pixel for each individual pixel (step S111). Step S112).

次いで、テクスチャ空間上の2D傾きベクトルから法線ベクトルを計算し、色値として雨路面法線テクスチャ472に出力し(ステップS113)、処理を終了する(ステップS114)。   Next, a normal vector is calculated from the 2D inclination vector on the texture space, and is output as a color value to the rain road surface normal texture 472 (step S113), and the process is terminated (step S114).

図5は雨路面法線テクスチャ472の例を示す図であり、雨路面法線を色により示している。図では、白い部分は法線が路面等に対して垂直方向の部分であり、黒い部分は法線が路面に対して平行方向の部分である。   FIG. 5 is a diagram illustrating an example of the rain road surface normal texture 472, and the rain road surface normal is indicated by a color. In the figure, the white portion is a portion where the normal is perpendicular to the road surface and the black portion is the portion where the normal is parallel to the road surface.

図6は濡れた路面等のポリゴン描画処理の例を示すフローチャートである。なお、その他のモデルのポリゴンについては通常の描画処理が行われ、濡れた路面等のポリゴンの描画処理結果とフレームバッファ48上で合成される。   FIG. 6 is a flowchart showing an example of polygon drawing processing for a wet road surface or the like. The polygons of other models are subjected to normal drawing processing and synthesized on the frame buffer 48 with the drawing processing results of polygons such as wet road surfaces.

図6において、毎フレームもしくは数フレームおきに処理を開始すると(ステップS201)、バーテックスシェーダによる処理として、ポリゴンの頂点のビュー空間および射影空間への変換、ラスタライズ等を行う(ステップS202)。   In FIG. 6, when the processing is started every frame or every several frames (step S201), the vertex shader is converted into a view space and a projection space, rasterized, etc. as processing by the vertex shader (step S202).

図7(a)はビュー空間の例を示している。ビュー空間は視点(仮想カメラ)VPを基準とした座標空間であり、視点VPから視方向に対して横軸がx軸、縦軸がy軸、奥行きがz軸となる。視点VPの視方向に対してx軸方向およびy軸方向にそれぞれ画角だけ振った範囲の、視点VPに近い側には近クリップ平面CP1が設定され、遠い側には遠クリップ平面CP2が設定される。近クリップ平面CP1と遠クリップ平面CP2と画角を示す面で囲われる6面体は視錐台と呼ばれ、その内部に配置されるモデル(オブジェクト)が描画対象となる。視錐台の位置は、ビデオゲームの場合、プレイヤ(遊戯者)が操作手段により操作するプレイヤキャラクタを含むように決定される。図7(b)は射影空間の例を示しており、図7(a)に示したビュー空間を、−1≦x≦1、−1≦y≦1、0≦z≦1の範囲に変換したものである。   FIG. 7A shows an example of a view space. The view space is a coordinate space based on the viewpoint (virtual camera) VP, and the horizontal axis is the x axis, the vertical axis is the y axis, and the depth is the z axis with respect to the viewing direction from the viewpoint VP. A near clip plane CP1 is set on the side closer to the viewpoint VP, and a far clip plane CP2 is set on the far side within the range where the angle of view is swung in the x axis direction and the y axis direction with respect to the viewing direction of the viewpoint VP. Is done. The hexahedron surrounded by the near clip plane CP1 and the far clip plane CP2 and the plane showing the angle of view is called a view frustum, and a model (object) arranged inside is a drawing target. In the case of a video game, the position of the viewing frustum is determined so as to include a player character operated by an operation means by a player (player). FIG. 7B shows an example of a projection space, and the view space shown in FIG. 7A is converted into ranges of −1 ≦ x ≦ 1, −1 ≦ y ≦ 1, and 0 ≦ z ≦ 1. It is a thing.

次いで、図6に戻り、ピクセルシェーダによるピクセル毎の処理を行う(ステップS203)。   Next, returning to FIG. 6, processing for each pixel by the pixel shader is performed (step S203).

先ず、処理点法線(処理の対象となるピクセルの位置のオブジェクトの法線値)と雨路面法線テクスチャ472より変更後処理点法線を計算する(ステップS204)。すなわち、オブジェクトの持つもともとの法線値(ベクトル値)に雨路面法線テクスチャ472のUV空間上で対応する法線値を加算等することにより、水膜による揺らぎを与えた変更後処理点法線を求める。図8(a)は処理内容を概念的に示しており、道路オブジェクトOBの処理点PXについてもともとの法線がNであるとすると、雨路面法線テクスチャ472を用いた変更により変更後処理点法線N'を得る。   First, a post-change processing point normal is calculated from the processing point normal (the normal value of the object at the pixel position to be processed) and the rain road surface normal texture 472 (step S204). That is, a post-change processing point method in which a fluctuation due to a water film is given by adding the normal value corresponding to the rain road surface normal texture 472 in the UV space to the original normal value (vector value) of the object. Find a line. FIG. 8A conceptually shows the processing contents. If the original normal is N for the processing point PX of the road object OB, the post-change processing point is changed by the change using the rain road surface normal texture 472. A normal line N ′ is obtained.

次いで、図6に戻り、処理点座標と変更後処理点法線と視線ベクトルより反射方向ベクトルを計算する(ステップS205)。図8(b)は処理内容を概念的に示しており、視点VPから処理点PXへ向かう視線ベクトルVVと変更後処理点法線N'の為す入射角θと同じ反射角θとなる反射方向ベクトルRVを、幾何学的関係から得る。   Next, returning to FIG. 6, the reflection direction vector is calculated from the processing point coordinates, the post-change processing point normal, and the line-of-sight vector (step S205). FIG. 8B conceptually shows the processing contents, and the reflection direction θ is the same reflection angle θ as the incident angle θ formed by the line-of-sight vector VV from the viewpoint VP toward the processing point PX and the post-change processing point normal N ′. The vector RV is obtained from the geometric relationship.

次いで、図6に戻り、処理点座標と反射方向ベクトルから決まる反射線分と視錐台との交点である最遠反射座標を計算する(ステップS206)。図8(c)は処理内容を概念的に示しており、反射方向ベクトルRVを延伸した反射線分RLと視錐台との交点を、最遠反射座標MPとして幾何学的関係から得る。   Next, returning to FIG. 6, the farthest reflection coordinate which is the intersection of the reflection line segment determined from the processing point coordinates and the reflection direction vector and the view frustum is calculated (step S206). FIG. 8C conceptually shows the processing contents, and the intersection of the reflection line segment RL obtained by extending the reflection direction vector RV and the view frustum is obtained from the geometric relationship as the farthest reflection coordinate MP.

次いで、図6に戻り、処理点座標から最遠反射座標までの間にn個の3Dサンプルポイント(S(1)、S(2)、・・・、S(n))を処理点座標から近い順に設定する(ステップS207)。図9(a)は処理内容を概念的に示しており、処理点PXから反射線分RLに沿って最遠反射座標MPまでの間に3DサンプルポイントS(1)、S(2)、S(3)、・・・を設定した状態を示している。   Next, returning to FIG. 6, n 3D sample points (S (1), S (2),..., S (n)) from the processing point coordinates to the farthest reflection coordinates are extracted from the processing point coordinates. They are set in order of closeness (step S207). FIG. 9A conceptually shows the processing content, and the 3D sample points S (1), S (2), S between the processing point PX and the farthest reflection coordinate MP along the reflection line segment RL. The state where (3),... Are set is shown.

次いで、図6に戻り、変数iに「1」を設定する(ステップS208)。   Next, returning to FIG. 6, "1" is set to the variable i (step S208).

次いで、3DサンプルポイントS(i)、S(i+1)のテクスチャ空間2D座標(投影平面座標と同様)UV(i)、UV(i+1)を計算し、その位置の深度値D(i)、D(i+1)を深度情報テクスチャ473から取得する(ステップS209)。図9(b)は処理内容を概念的に示しており、3DサンプルポイントS(1)、S(2)に対応するテクスチャ空間2D座標UV(1)、UV(2)を求めた状態を示している。また、図9(c)は、テクスチャ空間2D座標UV(1)、UV(2)に基づき、深度情報テクスチャ473から深度値D(1)、D(2)を求めた状態を示している。深度値D(1)、D(2)は、視点から見て3DサンプルポイントS(1)、S(2)の奥に存在するオブジェクトの表面位置を示している。   Next, texture space 2D coordinates (similar to projection plane coordinates) UV (i) and UV (i + 1) of 3D sample points S (i) and S (i + 1) are calculated, and depth values D (i) and D of the positions are calculated. (I + 1) is acquired from the depth information texture 473 (step S209). FIG. 9B conceptually shows the processing contents and shows a state in which the texture space 2D coordinates UV (1) and UV (2) corresponding to the 3D sample points S (1) and S (2) are obtained. ing. FIG. 9C shows a state where the depth values D (1) and D (2) are obtained from the depth information texture 473 based on the texture space 2D coordinates UV (1) and UV (2). Depth values D (1) and D (2) indicate the surface positions of the objects existing behind 3D sample points S (1) and S (2) as viewed from the viewpoint.

次いで、図6に戻り、テクスチャ空間2D座標UV(i)と深度値D(i)から3D座標A(i)を計算し、同様にテクスチャ空間2D座標UV(i+1)と深度値D(i+1)から3D座標A(i+1)を計算する(ステップS210)。図10(a)は処理内容を概念的に示しており、視点VPから見て3DサンプルポイントS(1)、S(2)に重なり、視点VPからそれぞれ深度値D(1)、D(2)にある3D座標A(1)、A(2)を求めた状態を示している。   Next, returning to FIG. 6, the 3D coordinate A (i) is calculated from the texture space 2D coordinate UV (i) and the depth value D (i), and similarly, the texture space 2D coordinate UV (i + 1) and the depth value D (i + 1). 3D coordinates A (i + 1) are calculated from (Step S210). FIG. 10A conceptually shows the processing contents, which overlap with 3D sample points S (1) and S (2) when viewed from the viewpoint VP, and depth values D (1) and D (2) from the viewpoint VP, respectively. The 3D coordinates A (1) and A (2) in FIG.

次いで、図6に戻り、3D座標A(i)とA(i+1)からなる線分と反射線分との交差座標を計算する(ステップS211)。図10(b)は処理内容を概念的に示しており、3D座標A(1)、A(2)からなる線分ALと反射線分RLとが交差しない場合を示している。交差する場合、その交差座標は、被反射オブジェクトの表面上に投射された2つの3Dサンプルポイントの間の座標となる。   Next, returning to FIG. 6, the intersection coordinates of the line segment composed of the 3D coordinates A (i) and A (i + 1) and the reflection line segment are calculated (step S211). FIG. 10B conceptually shows the processing contents, and shows a case where the line segment AL composed of the 3D coordinates A (1) and A (2) and the reflection line segment RL do not intersect. When intersecting, the intersecting coordinates are coordinates between two 3D sample points projected on the surface of the reflected object.

次いで、図6に戻り、交差座標が存在するか否か判断する(ステップS212)。交差座標が存在するか否かは、2つの線分の間に交点が存在するか否かを判断する周知の数学公式により判断することができる。   Next, returning to FIG. 6, it is determined whether or not crossing coordinates exist (step S212). Whether or not an intersection coordinate exists can be determined by a well-known mathematical formula that determines whether or not an intersection exists between two line segments.

交差座標が存在する場合(ステップS212のYes)、交差座標のテクスチャ空間2D座標UVを計算し、色情報テクスチャ474から色情報を取得し、フレームバッファ48への出力色に設定する(ステップS213)。   If the intersection coordinates exist (Yes in step S212), the texture space 2D coordinates UV of the intersection coordinates are calculated, the color information is acquired from the color information texture 474, and is set as the output color to the frame buffer 48 (step S213). .

一方、交差座標が存在しない場合(ステップS212のNo)、変数iに1を加算する(ステップS214)。   On the other hand, when there is no intersection coordinate (No in step S212), 1 is added to the variable i (step S214).

次いで、変数iが3Dサンプルポイントの最大数n以上になったか否か判断する(ステップS215)。   Next, it is determined whether or not the variable i has reached the maximum number n of 3D sample points (step S215).

変数iが3Dサンプルポイントの最大数n以上になっていない場合(ステップS215のNo)、テクスチャ空間2D座標UV(i)、UV(i+1)の計算および深度値D(i)、D(i+1)の取得(ステップS209)に戻る。   When the variable i is not equal to or greater than the maximum number n of 3D sample points (No in step S215), calculation of the texture space 2D coordinates UV (i) and UV (i + 1) and depth values D (i) and D (i + 1) Return to (step S209).

変数iが3Dサンプルポイントの最大数n以上になっている場合(ステップS215のYes)、外部色をフレームバッファ48への出力色に設定する(ステップS216)。被反射オブジェクトが存在しない場合、出力色は空等の色が反映されるべきであるからである。   If the variable i is equal to or greater than the maximum number n of 3D sample points (Yes in step S215), the external color is set as the output color to the frame buffer 48 (step S216). This is because when there is no reflected object, the output color should reflect a color such as sky.

出力色の設定(ステップS213、S216)の後、変更後処理点法線の値により出力色の輝度を変更する(ステップS217)。これは、変更後処理点法線の値により入射角・反射角θが小さい場合に出力色の変動が大きくなり、例えば、人物の足下の反射画像の表示が不安定になる不都合を解消するためである。   After setting the output color (steps S213 and S216), the luminance of the output color is changed according to the value of the post-change processing point normal (step S217). This is to eliminate the inconvenience that the output color changes greatly when the incident angle / reflection angle θ is small due to the value of the post-change processing point normal, for example, the display of the reflected image under the feet of the person becomes unstable. It is.

上記の処理を全てのピクセルについて行った後、処理を終了する(ステップS218)。   After performing the above processing for all the pixels, the processing is terminated (step S218).

図11〜図13は生成画像例を示す図である。図11は画面の下から上方に向かって平面的な道路が存在するシーンであり、雨に濡れた路面に周囲のオブジェクトの画像が自然に反射している。図12は左下から右上に向かって平面的な道路が存在するとともに、画面中央部に、道路の端に傾斜した踏み板が置かれたシーンである。この場合、傾斜した踏み板には傾斜に応じて傾いた反射画像が表示される。図13は左側の平坦的な道路から、中央付近で右上に傾斜する道路が存在するシーンである。この場合も傾斜した道路の路面には傾斜に応じて傾いた反射画像が表示される。   11 to 13 are diagrams showing examples of generated images. FIG. 11 is a scene in which a planar road exists from the bottom to the top of the screen, and images of surrounding objects are naturally reflected on the road surface wet with rain. FIG. 12 shows a scene in which a planar road exists from the lower left to the upper right, and an inclined tread is placed at the end of the road in the center of the screen. In this case, a reflected image tilted according to the tilt is displayed on the tilted footboard. FIG. 13 shows a scene where there is a road that slopes to the upper right near the center from a flat road on the left side. Also in this case, a reflection image inclined according to the inclination is displayed on the road surface of the inclined road.

<総括>
以上説明したように、本実施形態によれば次のような利点がある。
(1)反射画像のために新たにオブジェクトを設定する必要がなく、そのための描画処理は不要となるため、処理負荷が小さい。
(2)濡れた路面等の反射オブジェクトの個々のピクセルの処理において、反射ベクトルを辿ることで被反射オブジェクトの色情報を取得し、表示に必要な最小限の処理しか行わないため、処理内容に無駄がない。
(3)濡れた路面等の反射オブジェクトの個々のピクセルに対応する法線を考慮して被反射オブジェクトを特定するため、途中で傾斜が変化する反射物や傾斜の異なる複数の反射物が存在する場合であっても、均一の処理により反射画像を描画することができる。
(4)反射オブジェクトの法線に対して水膜による揺らぎを与えることで、濡れた路面等における自然な反射を表現することができる。
(5)反射オブジェクトの法線値に応じて反射画像の輝度を制御することで、入射角・反射角が小さい場合の反射画像の表示の不安定さを解消することができる。
(6)ひいては、簡易な処理により、雨で濡れた路面等により周囲の景色が反射して見える画像を生成することができる。
<Summary>
As described above, the present embodiment has the following advantages.
(1) It is not necessary to set a new object for the reflected image, and a drawing process for that purpose is not required, so the processing load is small.
(2) In the processing of individual pixels of a reflective object such as a wet road surface, the color information of the reflected object is obtained by tracing the reflection vector, and only the minimum processing necessary for display is performed. There is no waste.
(3) In order to identify the object to be reflected in consideration of the normal corresponding to each pixel of the reflective object such as a wet road surface, there are reflectors whose slope changes or multiple reflectors with different slopes. Even in this case, the reflection image can be drawn by uniform processing.
(4) A natural reflection on a wet road surface or the like can be expressed by giving a fluctuation by a water film to the normal line of the reflective object.
(5) By controlling the brightness of the reflected image in accordance with the normal value of the reflective object, it is possible to eliminate the unstable display of the reflected image when the incident angle / reflective angle is small.
(6) As a result, it is possible to generate an image in which the surrounding scenery is reflected by a road surface wet with rain by a simple process.

以上、本発明の好適な実施の形態により本発明を説明した。ここでは特定の具体例を示して本発明を説明したが、特許請求の範囲に定義された本発明の広範な趣旨および範囲から逸脱することなく、これら具体例に様々な修正および変更を加えることができることは明らかである。すなわち、具体例の詳細および添付の図面により本発明が限定されるものと解釈してはならない。   The present invention has been described above by the preferred embodiments of the present invention. While the invention has been described with reference to specific embodiments, various modifications and changes may be made to the embodiments without departing from the broad spirit and scope of the invention as defined in the claims. Obviously you can. In other words, the present invention should not be construed as being limited by the details of the specific examples and the accompanying drawings.

1 画像処理装置
2 3Dアプリケーション
3 3D−API
4 GPU
41 GPUフロントエンド部
42 プログラマブル頂点プロセッサ
43 基本アセンブリ部
44 ラスタライズ/補間部
45 プログラマブルピクセルプロセッサ
46 ラスタ演算部
471 雨路面高さテクスチャ
472 雨路面法線テクスチャ
473 深度情報テクスチャ
474 色情報テクスチャ
48 フレームバッファ
5 データ保持部
1 Image processing device 2 3D application 3 3D-API
4 GPU
41 GPU front end unit 42 Programmable vertex processor 43 Basic assembly unit 44 Rasterization / interpolation unit 45 Programmable pixel processor 46 Raster operation unit 471 Rain road surface height texture 472 Rain road surface normal texture 473 Depth information texture 474 Color information texture 48 Frame buffer 5 Data holding part

Claims (5)

コンピュータを、
少なくとも反射オブジェクトを含むオブジェクトが配置された仮想空間に対し、仮想視点を設定し、当該仮想視点を基準とした視錐台の内部に配置されたオブジェクトを投影平面に投影する座標変換手段、
前記投影平面のピクセル毎に前記仮想空間における前記オブジェクトの色情報および深度情報をメモリに保持する保持手段、
前記反射オブジェクト上の前記ピクセルの処理に際し、当該ピクセルに対応する前記反射オブジェクトの法線値および座標値を算出する計算手段、
前記算出された座標値および法線値と、前記仮想視点の位置とに基づき、前記座標値を始点とする反射線分を仮想空間内に求める反射線分計算手段、
前記視錐台内で、前記反射線分が前記オブジェクトと交差する交差座標があるか否かを判定する交差判定手段、
前記交差座標があると判定した場合、前記座標値から最も近い交差座標に対応する被反射ピクセルを算出し、前記保持された当該被反射ピクセルの色情報を前記ピクセルの色情報に反映し、前記交差座標がないと判定した場合、所定の色情報を前記ピクセルの色情報に反映するピクセル色反映手段
として機能させる画像処理プログラム。
Computer
Coordinate conversion means for setting a virtual viewpoint for a virtual space in which an object including at least a reflection object is arranged, and projecting the object arranged inside the viewing frustum based on the virtual viewpoint onto a projection plane;
Holding means for holding, in a memory, color information and depth information of the object in the virtual space for each pixel of the projection plane;
Calculation means for calculating a normal value and a coordinate value of the reflective object corresponding to the pixel in processing the pixel on the reflective object;
Reflected line segment calculation means for obtaining a reflected line segment starting from the coordinate value in a virtual space based on the calculated coordinate value and normal value and the position of the virtual viewpoint,
An intersection determination means for determining whether or not there is an intersection coordinate where the reflection line segment intersects the object in the viewing frustum;
When it is determined that there is the intersection coordinate, the reflected pixel corresponding to the closest intersection coordinate from the coordinate value is calculated, and the color information of the reflected pixel that is held is reflected in the color information of the pixel, An image processing program for functioning as pixel color reflecting means for reflecting predetermined color information in the color information of the pixel when it is determined that there is no intersection coordinate.
請求項1に記載の画像処理プログラムであって、
前記交差判定手段は、
前記反射線分と、前記視錐台の面との交点を求め、
前記反射線分の始点から前記交点の間に複数個のサンプルポイントを設定し、
前記反射線分の始点側から、隣り合う2つのサンプルポイントを決定し、当該サンプルポイントに対応する前記投影平面上の2つのサンプルピクセルを算出し、
前記メモリから当該2つのサンプルピクセルの深度値を取得し、当該深度値から前記2つのサンプルピクセルに対応する前記オブジェクトの仮想空間上の座標値を算出し、当該2つの座標値の間を結ぶ線分が前記反射線分と交差するか否かを判定し、
前記反射線分との交差がある場合は、前記交差した点の座標を前記交差座標として前記判定を終了し、
前記反射線分との交差がない場合は、次の隣り合う2つのサンプルポイントを決定して前記判定までを繰り返し、
前記設定した全てのサンプルポイントに基づく前記判定によって前記反射線分との交差がない場合には、前記交差座標はないものとして判定を終了する
画像処理プログラム。
An image processing program according to claim 1,
The intersection determination means includes
Finding the intersection of the reflection line segment and the surface of the viewing frustum,
A plurality of sample points are set between the start point of the reflection line segment and the intersection point,
Two adjacent sample points are determined from the start point side of the reflection line segment, and two sample pixels on the projection plane corresponding to the sample points are calculated,
A line connecting the two coordinate values is obtained from the memory by obtaining the depth values of the two sample pixels, calculating coordinate values in the virtual space of the object corresponding to the two sample pixels from the depth values. Determine whether the minute intersects the reflection line,
When there is an intersection with the reflected line segment, the determination is terminated with the coordinates of the intersected point as the intersection coordinates,
If there is no intersection with the reflection line segment, determine the next two adjacent sample points and repeat the determination,
An image processing program for ending a determination that there is no intersection coordinate when there is no intersection with the reflection line segment by the determination based on all the set sample points.
請求項1または2のいずれか一項に記載の画像処理プログラムであって、
コンピュータを、
前記反射オブジェクトの法線情報を変更するための法線マップを作成する手段、
前記反射オブジェクトに対応する前記ピクセルの法線値と、当該ピクセルに対応する前記法線マップの法線値に基づいて、前記ピクセルの法線値を変更する手段
として機能させる画像処理プログラム。
An image processing program according to any one of claims 1 and 2,
Computer
Means for creating a normal map for changing normal information of the reflection object;
An image processing program that functions as means for changing a normal value of the pixel based on a normal value of the pixel corresponding to the reflective object and a normal value of the normal map corresponding to the pixel.
請求項1乃至3のいずれか一項に記載の画像処理プログラムであって、
前記ピクセル色反映手段は、
前記反射オブジェクトの法線値に基づいて、前記反射オブジェクトの前記ピクセルの色情報における輝度を変更する
画像処理プログラム。
An image processing program according to any one of claims 1 to 3,
The pixel color reflecting means includes
An image processing program for changing brightness in color information of the pixel of the reflective object based on a normal value of the reflective object.
請求項1乃至4のいずれか一項に記載の画像処理プログラムを記録するコンピュータ読み取り可能な記録媒体。   The computer-readable recording medium which records the image processing program as described in any one of Claims 1 thru | or 4.
JP2009217160A 2009-09-18 2009-09-18 Image processing program and computer-readable recording medium Expired - Fee Related JP5321385B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009217160A JP5321385B2 (en) 2009-09-18 2009-09-18 Image processing program and computer-readable recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009217160A JP5321385B2 (en) 2009-09-18 2009-09-18 Image processing program and computer-readable recording medium

Publications (2)

Publication Number Publication Date
JP2011065535A JP2011065535A (en) 2011-03-31
JP5321385B2 true JP5321385B2 (en) 2013-10-23

Family

ID=43951687

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009217160A Expired - Fee Related JP5321385B2 (en) 2009-09-18 2009-09-18 Image processing program and computer-readable recording medium

Country Status (1)

Country Link
JP (1) JP5321385B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7080456B2 (en) * 2021-02-10 2022-06-06 株式会社プレイド Server equipment, information processing methods, and programs

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4001556B2 (en) * 2003-02-10 2007-10-31 株式会社バンダイナムコゲームス GAME DEVICE AND INFORMATION STORAGE MEDIUM
JP2006318388A (en) * 2005-05-16 2006-11-24 Namco Bandai Games Inc Program, information storage medium, and image forming system
JP2007259942A (en) * 2006-03-27 2007-10-11 Samii Kk Image processing apparatus, method and program
JP4575937B2 (en) * 2007-07-13 2010-11-04 株式会社コナミデジタルエンタテインメント Image generating apparatus, image generating method, and program

Also Published As

Publication number Publication date
JP2011065535A (en) 2011-03-31

Similar Documents

Publication Publication Date Title
US11551418B2 (en) Image rendering of laser scan data
US10467805B2 (en) Image rendering of laser scan data
US6259461B1 (en) System and method for accelerating the rendering of graphics in a multi-pass rendering environment
CN110728740B (en) virtual photogrammetry
AU727603B2 (en) Method and system for determining and/or using illumination maps in rendering images
EP2831848B1 (en) Method for estimating the opacity level in a scene and corresponding device
JP5002742B2 (en) Apparatus and method for rendering 3D objects using parametric texture maps
US8294713B1 (en) Method and apparatus for illuminating objects in 3-D computer graphics
KR20170000190A (en) Apparatus and method for performing graphics pipeline
US7158133B2 (en) System and method for shadow rendering
JP2004005452A (en) Image processor, image processing method, semiconductor device, computer program and record medium
KR20040024550A (en) Painting method
EP0856815B1 (en) Method and system for determining and/or using illumination maps in rendering images
US6864889B2 (en) System for previewing a photorealistic rendering of a synthetic scene in real-time
JP5937957B2 (en) Real-time global lighting rendering system
JP3629243B2 (en) Image processing apparatus and method for rendering shading process using distance component in modeling
JPH09128562A (en) Three-dimensional shape display method
JP5321385B2 (en) Image processing program and computer-readable recording medium
KR101118597B1 (en) Method and System for Rendering Mobile Computer Graphic
US6781583B2 (en) System for generating a synthetic scene
KR100603134B1 (en) Method and apparatus for 3 dimension rendering processing using the monochromatic lighting
JP5423276B2 (en) Image processing program and computer-readable recording medium
US11727638B1 (en) Adaptive geometric smoothing
US12039660B1 (en) Rendering three-dimensional content based on a viewport
JP6487578B1 (en) Program, recording medium, and shadow drawing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120906

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130613

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130618

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130701

R150 Certificate of patent or registration of utility model

Ref document number: 5321385

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees