JP2013084155A - Image processing method, image processing program, image processing device, and image processing system - Google Patents

Image processing method, image processing program, image processing device, and image processing system Download PDF

Info

Publication number
JP2013084155A
JP2013084155A JP2011224305A JP2011224305A JP2013084155A JP 2013084155 A JP2013084155 A JP 2013084155A JP 2011224305 A JP2011224305 A JP 2011224305A JP 2011224305 A JP2011224305 A JP 2011224305A JP 2013084155 A JP2013084155 A JP 2013084155A
Authority
JP
Japan
Prior art keywords
image
mapping
texture
environment map
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011224305A
Other languages
Japanese (ja)
Inventor
Satoshi Miyagi
暁志 宮城
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nintendo Co Ltd
Original Assignee
Nintendo Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nintendo Co Ltd filed Critical Nintendo Co Ltd
Priority to JP2011224305A priority Critical patent/JP2013084155A/en
Publication of JP2013084155A publication Critical patent/JP2013084155A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide an image processing method, an image processing program, an image processing device, and an image processing system capable of realizing display of a 3D image having excellent appearance.SOLUTION: In an image processing device 1, a projection mapping processing unit 21 of a processing unit 10 performs texture image projection mapping on a background object in plural directions. In the image processing device 1, an environment mapping processing unit 23 performs environment mapping processing on the basis of environment map image data 34 acquired from a secondary storage unit 12 by an environment map image acquisition processing unit 22, to acquire a blend coefficient required for blend processing performed by a blend processing unit 24. The blend processing unit 24 performs blend processing on plural texture images in accordance with the acquired blend coefficient. The environment mapping processing unit 23 calculates a reflection vector indicating the reflection of a ray vector from a light source on the surface of the background object and acquires a pixel value corresponding to the reflection vector as a blend coefficient from an environment map image.

Description

本発明は、3次元コンピュータグラフィックスに関する画像処理を行う画像処理方法、画像処理プログラム、画像処理装置及び画像処理システムに関する。   The present invention relates to an image processing method, an image processing program, an image processing apparatus, and an image processing system for performing image processing related to three-dimensional computer graphics.

従来、3次元コンピュータグラフィックス(以下、3DCGという)は、例えばコンピュータゲーム、映画及びCAD(Computer Aided Design)システム等に広く利用されている。近年の3DCGでは、複数の多角形面(ポリゴン)の組み合わせで表現された立体オブジェクトに対して、予め用意された画像(テクスチャ)を表面に張り付けることにより立体オブジェクトの表面質感を向上させる画像処理が行われる。この画像処理は、テクスチャマッピングと呼ばれている。   Conventionally, three-dimensional computer graphics (hereinafter referred to as 3DCG) are widely used in, for example, computer games, movies, and CAD (Computer Aided Design) systems. In recent 3DCG, image processing for improving the surface texture of a three-dimensional object by pasting a prepared image (texture) on the surface of a three-dimensional object expressed by a combination of a plurality of polygonal surfaces (polygons). Is done. This image processing is called texture mapping.

特許文献1には、テクスチャマッピングとしてUVマッピングを行う画像処理装置が記載されている。特許文献1の画像処理装置は、参照アドレス生成部がシェーダからUV座標を受け取ってテクスチャを参照するための参照アドレスに変換し、参照アドレスに基づいてテクスチャメモリに格納されたテクスチャマップを参照する。画像処理装置は、参照した値を補間部へ供給し、補間部がテクスチャマッピング処理を行って、ピクセルのUV座標値に対応したカラー値を生成してシェーダへ供給する。また特許文献1の画像処理装置は、参照アドレスに基づいて命令マップを参照し、参照した命令を実行するための制御信号をシェーダへ与えることによって、ピクセル毎に異なる命令をシェーダに実行させることを可能としている。   Patent Document 1 describes an image processing apparatus that performs UV mapping as texture mapping. In the image processing apparatus of Patent Document 1, a reference address generation unit receives UV coordinates from a shader, converts them to a reference address for referring to a texture, and refers to a texture map stored in a texture memory based on the reference address. The image processing apparatus supplies the referenced value to the interpolation unit, and the interpolation unit performs texture mapping processing, generates a color value corresponding to the UV coordinate value of the pixel, and supplies the color value to the shader. Further, the image processing apparatus of Patent Document 1 refers to an instruction map based on a reference address, and gives a shader a control signal for executing the referenced instruction, thereby causing the shader to execute a different instruction for each pixel. It is possible.

特開2006−146721号公報JP 2006-146721 A

テクスチャマッピングの一手法として広く利用されているUVマッピングは、テクスチャの貼り付け対象である立体オブジェクトの3次元座標とテクスチャ画像の2次元座標(UV座標)とを対応付けることで貼り付けを行うものである。この対応付けは立体オブジェクトが変形しても維持されるため、立体オブジェクトを変形させた場合に貼り付けられたテクスチャに歪みが生じる。例えば立体モデルを構成する一のポリゴンのサイズが一方向へ拡大された場合、このポリゴンに貼り付けられていたテクスチャはポリゴンの拡大方向に引き伸ばされ、歪んだ画像となる。   UV mapping, which is widely used as a method for texture mapping, is a method of pasting by associating the three-dimensional coordinates of a solid object to which a texture is to be pasted with the two-dimensional coordinates (UV coordinates) of a texture image. is there. Since this association is maintained even when the three-dimensional object is deformed, distortion occurs in the pasted texture when the three-dimensional object is deformed. For example, when the size of one polygon constituting the three-dimensional model is enlarged in one direction, the texture pasted on this polygon is stretched in the polygon enlargement direction, resulting in a distorted image.

また、テクスチャマッピングの他の手法として、投影マッピング、ラップマッピング、ソリッドテクスチャマッピング、バンプマッピング、環境マッピング、変位マッピング及び透明度マッピング等の種々のアルゴリズムが利用されている。   As other methods of texture mapping, various algorithms such as projection mapping, lap mapping, solid texture mapping, bump mapping, environment mapping, displacement mapping, and transparency mapping are used.

本発明の目的とするところは、優れた美観の3次元画像表示を可能とするテクスチャマッピング処理を実現する画像処理方法、画像処理プログラム、画像処理装置及び画像処理システムを提供することにある。   An object of the present invention is to provide an image processing method, an image processing program, an image processing apparatus, and an image processing system that realize a texture mapping process that enables an excellent aesthetic 3D image display.

本発明に係る画像処理方法は、複数面で構成された立体オブジェクトにテクスチャ画像を貼り付ける画像処理方法であって、複数の画素で構成されており、各画素に複数のテクスチャ画像の合成に用いる合成係数が設定された環境マップ画像を取得する環境マップ画像取得ステップと、該環境マップ画像取得ステップにて取得した環境マップ画像を用いた前記立体オブジェクトに対する環境マッピング処理に基づき、前記立体オブジェクト表面に張り付けられるテクスチャ画像の各画素に対応する前記環境マップ画像における画素を特定し、特定した画素に設定された合成係数を取得するマッピングステップと、前記立体オブジェクトに対して複数のテクスチャ画像を貼り付ける貼付ステップと、前記マッピングステップにて取得した合成係数に応じて、前記立体オブジェクト表面に張り付けられた複数のテクスチャ画像を合成する合成ステップとを含むことを特徴とする。   An image processing method according to the present invention is an image processing method in which a texture image is pasted on a three-dimensional object composed of a plurality of surfaces, which is composed of a plurality of pixels, and is used for synthesizing a plurality of texture images for each pixel. An environment map image acquisition step for acquiring an environment map image in which a synthesis coefficient is set, and an environment mapping process for the three-dimensional object using the environment map image acquired in the environment map image acquisition step. A mapping step for identifying a pixel in the environment map image corresponding to each pixel of the texture image to be pasted, obtaining a synthesis coefficient set for the identified pixel, and pasting for pasting a plurality of texture images to the solid object Step and the composition unit acquired in the mapping step Depending on, characterized in that it comprises a synthesizing step of synthesizing a plurality of texture images attached on the solid object surface.

また、本発明に係る画像処理方法は、前記貼付ステップにおける複数のテクスチャ画像の貼り付けは、異なる複数の投影方向での投影マッピングにより行うことを特徴とする。   The image processing method according to the present invention is characterized in that the pasting of the plurality of texture images in the pasting step is performed by projection mapping in a plurality of different projection directions.

また、本発明に係る画像処理方法は、複数面で構成された立体オブジェクトにテクスチャ画像を貼り付ける画像処理方法であって、前記立体オブジェクトに対して所定方向からテクスチャ画像を投影マッピングする所定方向投影マッピングステップと、複数の画素で構成されており、各画素に複数のテクスチャ画像の合成に用いる合成係数が設定された環境マップ画像を取得する環境マップ画像取得ステップと、該環境マップ画像取得ステップにて取得した環境マップ画像を用いた前記立体オブジェクトに対する環境マッピング処理に基づき、前記立体オブジェクト表面に張り付けられるテクスチャ画像の各画素に対応する前記環境マップ画像における画素を特定し、特定した画素に設定された合成係数を取得するマッピングステップと、前記立体オブジェクトに対して、投影マッピング済みのテクスチャ画像の投影方向とは異なる方向から、テクスチャ画像を投影マッピングする異方向投影マッピングステップと、前記マッピングステップにて取得した合成係数に応じて、前記投影マッピング済みのテクスチャ画像及び前記異なる方向から投影マッピングしたテクスチャ画像を合成する合成ステップとを含み、前記マッピングステップ、前記異方向投影マッピングステップ及び前記合成ステップを反復して行い、前記立体オブジェクトに対して複数方向からテクスチャ画像を貼り付けることを特徴とする。   The image processing method according to the present invention is an image processing method for pasting a texture image onto a three-dimensional object composed of a plurality of surfaces, and is a predetermined direction projection for projecting and mapping a texture image from a predetermined direction on the three-dimensional object. A mapping step, an environment map image acquisition step for acquiring an environment map image that is composed of a plurality of pixels, and in which a combination coefficient used for combining a plurality of texture images is set for each pixel; and the environment map image acquisition step Based on the environment mapping process for the three-dimensional object using the environment map image acquired in this way, the pixel in the environment map image corresponding to each pixel of the texture image attached to the surface of the three-dimensional object is specified and set to the specified pixel. Mapping step to get the combined coefficient A projection mapping step for projecting and mapping a texture image from a direction different from the projection direction of the texture image that has been projected and mapped to the three-dimensional object, and the projection mapping according to the synthesis coefficient acquired in the mapping step A synthesis step of synthesizing the already textured image and the texture image projected and mapped from different directions, and repeatedly performing the mapping step, the different-direction projection mapping step and the synthesis step, A texture image is pasted from the direction.

また、本発明に係る画像処理方法は、前記環境マップ画像には、前記合成係数としてアルファ値が設定されており、前記合成ステップでは、複数のテクスチャ画像の各画素値をアルファブレンドにより合成することを特徴とする。   In the image processing method according to the present invention, an alpha value is set as the synthesis coefficient in the environment map image, and in the synthesis step, the pixel values of a plurality of texture images are synthesized by alpha blending. It is characterized by.

また、本発明に係る画像処理方法は、前記環境マッピング処理では、光源から前記立体オブジェクト表面への光線ベクトルに対する反射ベクトルを算出し、算出した反射ベクトルに対応する前記環境マップ画像の画素を特定し、特定した画素に設定された合成係数を前記環境マップ画像から取得することを特徴とする。   In the image processing method according to the present invention, in the environment mapping process, a reflection vector for a light vector from a light source to the surface of the three-dimensional object is calculated, and a pixel of the environment map image corresponding to the calculated reflection vector is specified. The synthesis coefficient set for the specified pixel is obtained from the environment map image.

また、本発明に係る画像処理方法は、前記立体オブジェクトが、移動体及び背景を含む仮想空間の前記背景を構成する立体オブジェクトであることを特徴とする。   The image processing method according to the present invention is characterized in that the three-dimensional object is a three-dimensional object constituting the background of a virtual space including a moving body and a background.

また、本発明に係る画像処理プログラムは、コンピュータに、複数面で構成された立体オブジェクトにテクスチャ画像を貼り付けさせる画像処理プログラムであって、コンピュータを、複数の画素で構成されており、各画素に複数のテクスチャ画像の合成に用いる合成係数が設定された環境マップ画像を取得する環境マップ画像取得手段と、該環境マップ画像取得手段が取得した環境マップ画像を用いた前記立体オブジェクトに対する環境マッピング処理に基づき、前記立体オブジェクト表面に貼り付けられるテクスチャ画像の各画素に対応する前記環境マップ画像における画素を特定し、特定した画素に設定された合成係数を取得するマッピング手段と、前記立体オブジェクトに対して複数のテクスチャ画像を貼り付ける貼付手段と、前記マッピング手段が取得した合成係数に応じて、前記立体オブジェクト表面に貼り付けられた複数のテクスチャ画像を合成する合成手段として動作させることを特徴とする。   An image processing program according to the present invention is an image processing program for causing a computer to paste a texture image on a solid object composed of a plurality of surfaces, the computer being composed of a plurality of pixels, and each pixel An environment map image acquisition means for acquiring an environment map image in which a synthesis coefficient used for combining a plurality of texture images is set, and an environment mapping process for the solid object using the environment map image acquired by the environment map image acquisition means A mapping means for identifying a pixel in the environment map image corresponding to each pixel of the texture image to be pasted on the surface of the solid object, and obtaining a synthesis coefficient set for the identified pixel; Pasting means for pasting a plurality of texture images, Mappings means in response to the acquired combination coefficient, characterized in that operate as synthesizing means for synthesizing the plurality of texture images attached to the solid object surface.

また、本発明に係る画像処理プログラムは、コンピュータに、複数面で構成された立体オブジェクトにテクスチャ画像を貼り付けさせる画像処理プログラムであって、コンピュータを、前記立体オブジェクトに対して所定方向からテクスチャ画像を投影マッピングする所定方向投影マッピング手段と、複数の画素で構成されており、各画素に複数のテクスチャ画像の合成に用いる合成係数が設定された環境マップ画像を取得する環境マップ画像取得手段と、該環境マップ画像取得手段が取得した環境マップ画像を用いた前記立体オブジェクトに対する環境マッピング処理に基づき、前記立体オブジェクト表面に貼り付けられるテクスチャ画像の各画素に対応する前記環境マップ画像における画素を特定し、特定した画素に設定された合成係数を取得するマッピング手段と、前記立体オブジェクトに対して、投影マッピング済みのテクスチャ画像の投影方向とは異なる方向から、テクスチャ画像を投影マッピングする異方向投影マッピング手段と、前記マッピング手段が取得した合成係数に応じて、前記投影マッピング済みのテクスチャ画像及び前記異なる方向から投影マッピングしたテクスチャ画像を合成する合成手段として動作させ、コンピュータに、前記マッピング手段による合成係数の取得、前記異方向投影マッピング手段によるテクスチャ画像の投影マッピング、及び、前記合成手段によるテクスチャ画像の合成を反復して行わせ、前記立体オブジェクトに対する複数方向からのテクスチャ画像の貼り付けを実行させることを特徴とする。   An image processing program according to the present invention is an image processing program for causing a computer to paste a texture image onto a solid object composed of a plurality of surfaces. A predetermined direction projection mapping means for projecting mapping, an environment map image obtaining means for obtaining an environment map image that is composed of a plurality of pixels, and each pixel is set with a synthesis coefficient used to synthesize a plurality of texture images; Based on the environment mapping process for the three-dimensional object using the environment map image acquired by the environment map image acquiring means, the pixel in the environment map image corresponding to each pixel of the texture image pasted on the surface of the three-dimensional object is specified. , The composition factor set for the specified pixel A mapping unit to obtain, a different direction projection mapping unit for project mapping a texture image from a direction different from a projection direction of a projection mapped texture image with respect to the solid object, and a synthesis coefficient obtained by the mapping unit. Accordingly, the computer is operated as a synthesis unit that synthesizes the texture image that has been subjected to projection mapping and the texture image that has been projected and mapped from different directions, and the computer acquires a synthesis coefficient by the mapping unit, and the texture image by the different direction projection mapping unit. Projection mapping and texture image synthesis by the synthesis means are repeatedly performed, and texture images are pasted to the solid object from a plurality of directions.

また、本発明に係る画像処理装置は、複数面で構成された立体オブジェクトにテクスチャ画像を貼り付ける処理を行う画像処理装置であって、複数の画素で構成されており、各画素に複数のテクスチャ画像の合成に用いる合成係数が設定された環境マップ画像を取得する環境マップ画像取得手段と、該環境マップ画像取得手段が取得した環境マップ画像を用いた前記立体オブジェクトに対する環境マッピング処理に基づき、前記立体オブジェクト表面に貼り付けられるテクスチャ画像の各画素に対応する前記環境マップ画像における画素を特定し、特定した画素に設定された合成係数を取得するマッピング手段と、前記立体オブジェクトに対して複数のテクスチャ画像を貼り付ける貼付手段と、前記マッピング手段が取得した合成係数に応じて、前記立体オブジェクト表面に貼り付けられた複数のテクスチャ画像を合成する合成手段とを備えることを特徴とする。   An image processing apparatus according to the present invention is an image processing apparatus that performs a process of pasting a texture image on a three-dimensional object composed of a plurality of surfaces, and includes a plurality of pixels, and each pixel includes a plurality of textures. Based on environment map image acquisition means for acquiring an environment map image in which a synthesis coefficient used for image synthesis is set, and environment mapping processing for the solid object using the environment map image acquired by the environment map image acquisition means, Mapping means for specifying a pixel in the environment map image corresponding to each pixel of the texture image to be pasted on the surface of the three-dimensional object, and obtaining a synthesis coefficient set for the specified pixel; and a plurality of textures for the three-dimensional object Depending on the pasting means for pasting the image and the synthesis coefficient obtained by the mapping means , Characterized in that it comprises a synthesizing means for synthesizing the plurality of texture images attached to the solid object surface.

また、本発明に係る画像処理装置は、複数面で構成された立体オブジェクトにテクスチャ画像を貼り付ける処理を行う画像処理装置であって、前記立体オブジェクトに対して所定方向からテクスチャ画像を投影マッピングする所定方向投影マッピング手段と、複数の画素で構成されており、各画素に複数のテクスチャ画像の合成に用いる合成係数が設定された環境マップ画像を取得する環境マップ画像取得手段と、該環境マップ画像取得手段が取得した環境マップ画像を用いた前記立体オブジェクトに対する環境マッピング処理に基づき、前記立体オブジェクト表面に貼り付けられるテクスチャ画像の各画素に対応する前記環境マップ画像における画素を特定し、特定した画素に設定された合成係数を取得するマッピング手段と、前記立体オブジェクトに対して、投影マッピング済みのテクスチャ画像の投影方向とは異なる方向から、テクスチャ画像を投影マッピングする異方向投影マッピング手段と、前記マッピング手段が取得した合成係数に応じて、前記投影マッピング済みのテクスチャ画像及び前記異なる方向から投影マッピングしたテクスチャ画像を合成する合成手段と、前記マッピング手段による合成係数の取得、前記異方向投影マッピング手段によるテクスチャ画像の投影マッピング、及び、前記合成手段によるテクスチャ画像の合成を反復して行い、前記立体オブジェクトに対して複数方向からテクスチャ画像を貼り付けるテクスチャマッピング手段とを備えることを特徴とする。   The image processing apparatus according to the present invention is an image processing apparatus that performs a process of pasting a texture image on a three-dimensional object composed of a plurality of surfaces, and projects and maps the texture image on the three-dimensional object from a predetermined direction. A predetermined direction projection mapping unit, an environment map image acquisition unit configured to acquire an environment map image which is configured by a plurality of pixels, and each pixel is set with a synthesis coefficient used to synthesize a plurality of texture images, and the environment map image Based on the environment mapping process for the solid object using the environment map image acquired by the acquisition unit, the pixel in the environment map image corresponding to each pixel of the texture image pasted on the surface of the solid object is specified, and the specified pixel Mapping means for obtaining a composite coefficient set to A projection mapping unit that projects and maps a texture image from a direction different from the projection direction of the texture image that has been projected mapped to the object, and the projection mapped image according to the synthesis coefficient acquired by the mapping unit. A synthesis unit that synthesizes a texture image and a texture image that has been projected and mapped from the different directions, acquisition of a synthesis coefficient by the mapping unit, projection mapping of the texture image by the different direction projection mapping unit, and a texture image by the synthesis unit A texture mapping unit that repeatedly performs synthesis and pastes texture images from a plurality of directions on the three-dimensional object.

また、本発明に係る画像処理システムは、複数面で構成された立体オブジェクトにテクスチャ画像を貼り付ける処理を行う画像処理システムであって、複数の画素で構成されており、各画素に複数のテクスチャ画像の合成に用いる合成係数が設定された環境マップ画像を取得する環境マップ画像取得手段と、該環境マップ画像取得手段が取得した環境マップ画像を用いた前記立体オブジェクトに対する環境マッピング処理に基づき、前記立体オブジェクト表面に貼り付けられるテクスチャ画像の各画素に対応する前記環境マップ画像における画素を特定し、特定した画素に設定された合成係数を取得するマッピング手段と、前記立体オブジェクトに対して複数のテクスチャ画像を貼り付ける貼付手段と、前記マッピング手段が取得した合成係数に応じて、前記立体オブジェクト表面に貼り付けられた複数のテクスチャ画像を合成する合成手段とを備えることを特徴とする。   An image processing system according to the present invention is an image processing system that performs processing of pasting a texture image on a three-dimensional object composed of a plurality of surfaces, and includes a plurality of pixels, and each pixel includes a plurality of textures. Based on environment map image acquisition means for acquiring an environment map image in which a synthesis coefficient used for image synthesis is set, and environment mapping processing for the solid object using the environment map image acquired by the environment map image acquisition means, Mapping means for specifying a pixel in the environment map image corresponding to each pixel of the texture image to be pasted on the surface of the three-dimensional object, and obtaining a synthesis coefficient set for the specified pixel; and a plurality of textures for the three-dimensional object A pasting unit for pasting an image, and a composition unit acquired by the mapping unit Depending on, characterized in that it comprises a synthesizing means for synthesizing the plurality of texture images attached to the solid object surface.

また、本発明に係る画像処理システムは、複数面で構成された立体オブジェクトにテクスチャ画像を貼り付ける処理を行う画像処理システムであって、前記立体オブジェクトに対して所定方向からテクスチャ画像を投影マッピングする所定方向投影マッピング手段と、複数の画素で構成されており、各画素に複数のテクスチャ画像の合成に用いる合成係数が設定された環境マップ画像を取得する環境マップ画像取得手段と、該環境マップ画像取得手段が取得した環境マップ画像を用いた前記立体オブジェクトに対する環境マッピング処理に基づき、前記立体オブジェクト表面に貼り付けられるテクスチャ画像の各画素に対応する前記環境マップ画像における画素を特定し、特定した画素に設定された合成係数を取得するマッピング手段と、前記立体オブジェクトに対して、投影マッピング済みのテクスチャ画像の投影方向とは異なる方向から、テクスチャ画像を投影マッピングする異方向投影マッピング手段と、前記マッピング手段が取得した合成係数に応じて、前記投影マッピング済みのテクスチャ画像及び前記異なる方向から投影マッピングしたテクスチャ画像を合成する合成手段と、前記マッピング手段による合成係数の取得、前記異方向投影マッピング手段によるテクスチャ画像の投影マッピング、及び、前記合成手段によるテクスチャ画像の合成を反復して行い、前記立体オブジェクトに対して複数方向からテクスチャ画像を貼り付けるテクスチャマッピング手段とを備えることを特徴とする。   The image processing system according to the present invention is an image processing system that performs a process of pasting a texture image on a three-dimensional object composed of a plurality of surfaces, and projects and maps the texture image to the three-dimensional object from a predetermined direction. A predetermined direction projection mapping unit, an environment map image acquisition unit configured to acquire an environment map image which is configured by a plurality of pixels, and each pixel is set with a synthesis coefficient used to synthesize a plurality of texture images, and the environment map image Based on the environment mapping process for the solid object using the environment map image acquired by the acquisition unit, the pixel in the environment map image corresponding to each pixel of the texture image pasted on the surface of the solid object is specified, and the specified pixel A mapping means for obtaining the synthesis coefficient set to A projection mapping means for projecting a texture image from a direction different from the projection direction of the texture image that has been projected and mapped to the three-dimensional object, and the projection mapping is performed according to the synthesis coefficient obtained by the mapping means. A texture image and a texture image projected and mapped from different directions, a synthesis coefficient obtained by the mapping means, a texture image projection mapping by the different direction projection mapping means, and a texture image by the synthesis means And a texture mapping unit that repeats the above synthesis and pastes texture images from a plurality of directions on the three-dimensional object.

本発明においては、環境マップ画像に周囲の風景などの画像データを設定するのではなく、複数のテクスチャ画像を合成(ブレンド)する場合に必要な合成係数(ブレンド係数)を環境マップ画像の各画素に設定しておく。この環境マップ画像を用いて環境マッピング処理を行うことにより、立体オブジェクト表面での反射方向に対応したブレンド係数が取得でき、このブレンド係数を用いて複数のテクスチャ画像をブレンドすることができる。   In the present invention, instead of setting image data such as the surrounding landscape in the environment map image, a synthesis coefficient (blend coefficient) necessary for synthesizing (blending) a plurality of texture images is set for each pixel of the environment map image. Set to. By performing environment mapping processing using this environment map image, a blend coefficient corresponding to the reflection direction on the surface of the three-dimensional object can be acquired, and a plurality of texture images can be blended using this blend coefficient.

また本発明においては、立体オブジェクトに対して複数のテクスチャ画像を投影マッピングする。投影マッピングは、立体オブジェクトが存在する座標系上にテクスチャ画像を配し、このテクスチャ画像を立体オブジェクトへ向けて投影することにより、テクスチャ画像の貼り付けを行う手法である。このため投影マッピングでは、立体オブジェクトの形状が変化した場合であっても、貼り付けられるテクスチャ画像に歪みが生じることはない。   In the present invention, a plurality of texture images are projected and mapped to a three-dimensional object. Projection mapping is a technique for pasting a texture image by arranging a texture image on a coordinate system in which a three-dimensional object exists and projecting the texture image toward the three-dimensional object. For this reason, in the projection mapping, even when the shape of the three-dimensional object changes, the pasted texture image is not distorted.

一般的に環境マッピング処理では、光源からの光線、視点(カメラ)からの視線、又は、光線及び視線を合成したベクトル等が立体オブジェクト表面で反射した反射ベクトルを算出し、この反射ベクトルに対応する環境マップ画像の画素を特定し、特定した画素の画素値を環境マップ画像から取得する。本発明では、光源からの光線に基づく環境マッピング処理を行って環境マップ画像からブレンド係数を取得する。これは、視点はその位置が変化する可能性があり、視点が移動すると環境マッピング処理によって取得されるブレンド係数が変化し、ブレンド処理の結果が変化するためである。これに対して光源はその位置が変化する可能性は低く、視点が移動してもブレンド処理の結果が変化することはない。   In general, in the environment mapping process, a reflection vector in which a ray from a light source, a line of sight from a viewpoint (camera), or a vector obtained by combining the ray and the line of sight is reflected on the surface of a three-dimensional object is calculated, and this reflection vector The pixel of the environment map image is specified, and the pixel value of the specified pixel is acquired from the environment map image. In the present invention, an environment mapping process based on light rays from a light source is performed to obtain a blend coefficient from an environment map image. This is because the position of the viewpoint may change, and when the viewpoint moves, the blend coefficient acquired by the environment mapping process changes and the result of the blend process changes. On the other hand, the position of the light source is unlikely to change, and the result of the blend process does not change even if the viewpoint moves.

また本発明においては、環境マップ画像の画素値にブレンド係数としてアルファ値を設定しておく。この環境マップ画像を用いて環境マッピング処理を行うことにより、立体オブジェクト表面の法線方向に対応したアルファ値が取得し、複数のテクスチャ画像をアルファブレンドすることができる。   In the present invention, an alpha value is set as a blending coefficient in the pixel value of the environment map image. By performing environment mapping processing using this environment map image, an alpha value corresponding to the normal direction of the surface of the three-dimensional object can be acquired, and a plurality of texture images can be alpha blended.

本発明による場合は、環境マッピング処理に基づきブレンド係数を取得して複数のテクスチャ画像のブレンド処理を行うことによって、ブレンド処理を容易に実現できる。また立体オブジェクトに対して異なる複数の方向からテクスチャ画像を投影マッピングすることによって、立体オブジェクトの形状が変化した場合であっても、貼り付けられるテクスチャ画像には歪みが生じることはない。   According to the present invention, the blending process can be easily realized by acquiring the blending coefficient based on the environment mapping process and performing the blending process of the plurality of texture images. Moreover, even if the shape of the three-dimensional object changes by projecting and mapping the texture image from a plurality of different directions on the three-dimensional object, the texture image to be pasted is not distorted.

本発明の実施の形態に係る画像処理装置の構成を示すブロック図である。It is a block diagram which shows the structure of the image processing apparatus which concerns on embodiment of this invention. 画像処理装置が表示装置に表示させる3次元画像の一例を示す模式図である。It is a schematic diagram which shows an example of the three-dimensional image which an image processing apparatus displays on a display apparatus. 画像処理装置が行う投影マッピング処理を説明するための模式図である。It is a schematic diagram for demonstrating the projection mapping process which an image processing apparatus performs. 画像処理装置が行う環境マッピング処理を説明するための模式図である。It is a schematic diagram for demonstrating the environment mapping process which an image processing apparatus performs. 環境マップ画像の一例を示す模式図である。It is a schematic diagram which shows an example of an environment map image. 画像処理装置が行うテクスチャマッピング処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the texture mapping process which an image processing apparatus performs. 変形例に係る画像処理システムの一構成例を示すブロック図である。It is a block diagram which shows the example of 1 structure of the image processing system which concerns on a modification.

以下、本発明をその実施の形態を示す図面に基づき具体的に説明する。図1は、本発明の実施の形態に係る画像処理装置の構成を示すブロック図である。図において1は、画像処理装置であり、例えば据置型のゲーム機器として実現されるものである。画像処理装置1は、液晶ディスプレイ又はPDP(Plasma Display Panel)等の表示装置5に映像信号用のケーブルを介して接続され、デジタル又はアナログの画像信号を出力する。表示装置5は、画像処理装置1から与えられた画像信号に基づいて3次元画像を含む種々の画像処理を行う。   Hereinafter, the present invention will be specifically described with reference to the drawings showing embodiments thereof. FIG. 1 is a block diagram showing a configuration of an image processing apparatus according to an embodiment of the present invention. In the figure, reference numeral 1 denotes an image processing apparatus, which is realized as, for example, a stationary game machine. The image processing device 1 is connected to a display device 5 such as a liquid crystal display or a PDP (Plasma Display Panel) via a video signal cable, and outputs a digital or analog image signal. The display device 5 performs various image processing including a three-dimensional image based on the image signal given from the image processing device 1.

画像処理装置1は、CPU(Central Processing Unit)又はMPU(Micro Processing Unit)等の演算処理装置を用いて構成される処理部10を備えている。処理部10は、二次記憶部12に予め記憶されたゲームプログラム(図示は省略する)を一次記憶部11に読み出して実行することにより、ゲーム機器として機能するための各種の演算処理(例えば、ユーザの操作部14に対する操作を判定する処理及び操作内容に応じて表示装置5に表示する画像を更新する処理等)を行う。また本実施の形態の画像処理装置1は3DCGの画像処理機能を備えており、処理部10は、二次記憶部12に予め記憶された画像処理プログラム31を実行することにより、3DCGに関する画像処理を行い、処理済みの画像を画像出力部13から出力することによって表示装置5での画像表示を行う。   The image processing apparatus 1 includes a processing unit 10 configured using an arithmetic processing device such as a CPU (Central Processing Unit) or an MPU (Micro Processing Unit). The processing unit 10 reads out and executes a game program (not shown) pre-stored in the secondary storage unit 12 to the primary storage unit 11 to execute various arithmetic processes (for example, function as a game machine) (for example, A process of determining an operation on the operation unit 14 by the user and a process of updating an image displayed on the display device 5 according to the operation content are performed. The image processing apparatus 1 according to the present embodiment has a 3DCG image processing function, and the processing unit 10 executes an image processing program 31 stored in advance in the secondary storage unit 12 to perform image processing related to 3DCG. Then, the processed image is output from the image output unit 13 to display an image on the display device 5.

画像処理装置1の一次記憶部11は、SRAM(Static Random Access Memory)又はDRAM(DynamicRandom Access Memory)等のメモリ素子を用いて構成されている。一次記憶部11は、処理部10が行う処理に必要な各種のプログラム及びデータが二次記憶部12から読みだされて記憶されると共に、処理部10の演算処理に伴って生成される各種のデータが一時的に記憶される。   The primary storage unit 11 of the image processing apparatus 1 is configured using a memory element such as an SRAM (Static Random Access Memory) or a DRAM (Dynamic Random Access Memory). The primary storage unit 11 reads and stores various programs and data necessary for processing performed by the processing unit 10 from the secondary storage unit 12, and generates various programs and data generated in accordance with the arithmetic processing of the processing unit 10. Data is temporarily stored.

画像処理装置1の二次記憶部12は、ハードディスク又はフラッシュメモリ等の(一次記憶部11と比較して)大容量の不揮発性記憶装置を用いて構成されている。二次記憶部12は、通信部15が外部のサーバ装置(図示は省略する)などからダウンロードしたプログラム及びデータ、並びに、ディスクドライブ16が記録媒体9から読み出したプログラム及びデータ等が予め記憶(インストール)されている。   The secondary storage unit 12 of the image processing apparatus 1 is configured by using a large-capacity nonvolatile storage device (compared to the primary storage unit 11) such as a hard disk or a flash memory. The secondary storage unit 12 stores (installs) programs and data downloaded by the communication unit 15 from an external server device (not shown) and the like, and programs and data read from the recording medium 9 by the disk drive 16 (installation). )

画像処理装置1の画像出力部13は、処理部10にて画像処理された画像のデータを、処理部10の指示に従って一次記憶部11から読み出し、読み出した画像データを所定形式の画像信号に変換して表示装置5へ出力する。また画像処理装置1の操作部14は、画像処理装置1の装置本体に設けられたスイッチの他に、有線又は無線で接続されたゲームのコントローラを含み、ユーザによる操作を受け付けて処理部10へ通知する。   The image output unit 13 of the image processing apparatus 1 reads the image data processed by the processing unit 10 from the primary storage unit 11 in accordance with an instruction from the processing unit 10, and converts the read image data into an image signal in a predetermined format. And output to the display device 5. The operation unit 14 of the image processing apparatus 1 includes a game controller connected by wire or wireless in addition to a switch provided in the apparatus main body of the image processing apparatus 1, and receives an operation by the user to the processing unit 10. Notice.

画像処理装置1の通信部15は、有線若しくは無線のLAN(Local Area Network)、又は、公衆の携帯電話回線網等を介して、外部の装置との間でデータの送受信を行う。画像処理装置1が通信機能を備えることによって、ユーザは、外部のサーバ装置からゲームプログラム(画像処理プログラム31及び種々のデータを含む)をダウンロードして二次記憶部12に記憶することができる。またユーザは、通信部15による通信機能を利用して、遠隔地の他のユーザと同一のゲームを協力して又は対戦して遊ぶことができる。   The communication unit 15 of the image processing apparatus 1 transmits / receives data to / from an external apparatus via a wired or wireless local area network (LAN) or a public mobile phone network. By providing the image processing apparatus 1 with a communication function, the user can download a game program (including the image processing program 31 and various data) from an external server device and store it in the secondary storage unit 12. Further, the user can use the communication function of the communication unit 15 to play the same game as another user in a remote place in cooperation or against.

画像処理装置1のディスクドライブ16は、CD(Compact Disc)、DVD(Digital Versatile Disk)又はブルーレイディスク等の光ディスク型の記録媒体9が着脱可能に構成されている。ディスクドライブ16は、装着された記録媒体9に記録されたゲームプログラム(画像処理プログラム31及び種々のデータを含む)を読み出して二次記憶部12に記憶する。なおディスクドライブ16に記録されたゲームプログラムを予め二次記憶部12に記憶しておくのではなく、処理部10がディスクドライブ16に装着された記録媒体9から直接的にゲームプログラムを一次記憶部11へ読み出して実行してもよい。   The disk drive 16 of the image processing apparatus 1 is configured such that an optical disk type recording medium 9 such as a CD (Compact Disc), a DVD (Digital Versatile Disk), or a Blu-ray disc is detachable. The disk drive 16 reads out the game program (including the image processing program 31 and various data) recorded on the attached recording medium 9 and stores it in the secondary storage unit 12. The game program recorded in the disk drive 16 is not stored in the secondary storage unit 12 in advance, but the processing unit 10 directly stores the game program from the recording medium 9 mounted in the disk drive 16. 11 may be read and executed.

上述のように画像処理装置1は、処理部10にて画像処理プログラム31を実行することによって、3DCGに関する種々の画像処理を行う。図1のブロック図には、3DCGのテクスチャマッピング処理に関する4つのブロックを処理部10内に記載してある。これら4つのブロックは、処理部10が画像処理プログラムを実行することによって実現されるソフトウェア的な機能ブロックである。また二次記憶部12には、テクスチャマッピング処理に用いるデータとして、立体オブジェクトデータ32、テクスチャ画像データ33及び環境マップ画像データ34の3種のデータを記載してある。これらのデータは、ゲームプログラムと共に記録媒体9などから二次記憶部12へインストールされる。   As described above, the image processing apparatus 1 performs various image processing related to 3DCG by executing the image processing program 31 in the processing unit 10. In the block diagram of FIG. 1, four blocks related to 3DCG texture mapping processing are described in the processing unit 10. These four blocks are software functional blocks realized by the processing unit 10 executing the image processing program. The secondary storage unit 12 describes three types of data, that is, three-dimensional object data 32, texture image data 33, and environment map image data 34, as data used for the texture mapping process. These data are installed in the secondary storage unit 12 from the recording medium 9 or the like together with the game program.

次に、本実施の形態に係る画像処理装置1が行うテクスチャマッピング処理について説明する。図2は、画像処理装置1が表示装置5に表示させる3次元画像の一例を示す模式図である。図示の例は、岩などの背景オブジェクト102が多数配された背景に対して、ユーザが操作部14を利用して操作する(移動させる)ことが可能なキャラクターオブジェクト101が配置された3次元の仮想空間である。画像処理装置1は、この3次元の仮想空間を特定の視点から視認した2次元画像を処理部10にて生成し、画像出力部13から画像信号として出力することで、表示装置5に画像を表示させる。   Next, the texture mapping process performed by the image processing apparatus 1 according to the present embodiment will be described. FIG. 2 is a schematic diagram illustrating an example of a three-dimensional image displayed on the display device 5 by the image processing apparatus 1. In the illustrated example, a three-dimensional character object 101 that can be operated (moved) by the user using the operation unit 14 is arranged on a background on which a large number of background objects 102 such as rocks are arranged. It is a virtual space. The image processing apparatus 1 generates a two-dimensional image obtained by visually recognizing the three-dimensional virtual space from a specific viewpoint, and outputs the image to the display apparatus 5 by outputting the image as an image signal from the image output unit 13. Display.

3次元仮想空間に配置されるキャラクターオブジェクト101及び背景オブジェクト102等の立体オブジェクトは、多数のポリゴンの組み合わせで表現されるものであり、立体オブジェクトの表面(ポリゴンの表面)にはテクスチャ画像が貼り付けられている。画像処理装置1は、立体オブジェクトに係る情報(例えば、ポリゴンの頂点座標など)を、立体オブジェクトデータ32として二次記憶部12に記憶している。また画像処理装置1は、立体オブジェクトに貼り付けるテクスチャ画像の情報を、テクスチャ画像データ33として二次記憶部12に記憶している。   A solid object such as the character object 101 and the background object 102 arranged in the three-dimensional virtual space is represented by a combination of many polygons, and a texture image is pasted on the surface of the solid object (polygon surface). It has been. The image processing apparatus 1 stores information related to a three-dimensional object (for example, vertex coordinates of polygons) in the secondary storage unit 12 as three-dimensional object data 32. Further, the image processing apparatus 1 stores texture image information to be pasted on the three-dimensional object in the secondary storage unit 12 as texture image data 33.

画像処理装置1の処理部10は、キャラクターオブジェクト101の表面にテクスチャ画像を貼り付ける処理を、例えばUVマッピングのアルゴリズムにて行う(ただし、別のアルゴリズムで行ってもよい)。UVマッピングは、キャラクターオブジェクト101の3次元座標(XYZ)と、テクスチャ画像の2次元座標(UV)との対応付けを行うことによって、テクスチャ画像の所定範囲を立体オブジェクトの所定ポリゴンに貼り付けるアルゴリズムである。   The processing unit 10 of the image processing apparatus 1 performs a process of pasting a texture image on the surface of the character object 101 using, for example, a UV mapping algorithm (however, another algorithm may be used). UV mapping is an algorithm that pastes a predetermined range of a texture image onto a predetermined polygon of a three-dimensional object by associating the three-dimensional coordinates (XYZ) of the character object 101 with the two-dimensional coordinates (UV) of the texture image. is there.

また、処理部10は、背景オブジェクト102に対するテクスチャ画像の貼り付けを、投影マッピングのアルゴリズムにて行う。図3は、画像処理装置1が行う投影マッピング処理を説明するための模式図である。投影マッピングは、2次元のテクスチャ画像を立体オブジェクトの表面に平行投影して貼り付けるアルゴリズムであり、従来は3次元座標におけるX軸方向、Y軸方向又はZ軸方向のいずれか1つの座標軸に対して平行に投影が行われる。これに対して本実施の形態に係る画像処理装置1の処理部10は、背景オブジェクト102に対して、3次元座標におけるX軸方向、Y軸方向及びZ軸方向の3方向からそれぞれテクスチャ画像を投影マッピングする処理を投影マッピング処理部21にて行う。   The processing unit 10 pastes the texture image on the background object 102 using a projection mapping algorithm. FIG. 3 is a schematic diagram for explaining the projection mapping process performed by the image processing apparatus 1. Projection mapping is an algorithm for pasting and pasting a two-dimensional texture image onto the surface of a three-dimensional object. Conventionally, with respect to any one of the coordinate axes of the X axis direction, Y axis direction, or Z axis direction in three-dimensional coordinates Projection in parallel. On the other hand, the processing unit 10 of the image processing apparatus 1 according to the present embodiment applies texture images to the background object 102 from the three directions of the X-axis direction, the Y-axis direction, and the Z-axis direction in the three-dimensional coordinates. The projection mapping processing unit 21 performs a projection mapping process.

例えば処理部10の投影マッピング処理部21は、まずXY平面に平行に配したテクスチャ画像105zを、Z軸方向へ背景オブジェクト102に対して投影マッピングする。次いで投影マッピング処理部21は、YZ平面に平行に配したテクスチャ画像105xを、X軸方向へ背景オブジェクト102に対して投影マッピングする。更に投影マッピング処理部21は、ZX平面に平行に配したテクスチャ画像105yを、Y軸方向へ背景オブジェクト102に対して投影マッピングする。なお、複数のテクスチャ画像105x〜105zは、同じ画像であってもよく、異なる画像であってもよい。   For example, the projection mapping processing unit 21 of the processing unit 10 first projects and maps the texture image 105z arranged parallel to the XY plane onto the background object 102 in the Z-axis direction. Next, the projection mapping processor 21 performs projection mapping of the texture image 105x arranged in parallel with the YZ plane onto the background object 102 in the X-axis direction. Further, the projection mapping processing unit 21 projects and maps the texture image 105y arranged in parallel with the ZX plane onto the background object 102 in the Y-axis direction. The plurality of texture images 105x to 105z may be the same image or different images.

このように複数のテクスチャ画像を1つの背景オブジェクト102へ投影マッピングした場合、背景オブジェクト102の表面において複数のテクスチャ画像が重なって投影される箇所が存在する。そこで処理部10は、テクスチャ画像が重なる箇所について、複数のテクスチャ画像をブレンドする処理をブレンド処理部24にて行う。本実施の形態において処理部10のブレンド処理部24は、ブレンド処理としてアルファブレンドのアルゴリズムを用いる(ただしアルファブレンドは一例であり、ブレンド処理部24が他のアルゴリズムによるブレンド処理を行う構成であってもよい)。   When a plurality of texture images are projected and mapped onto one background object 102 in this way, there are places where a plurality of texture images are projected on the surface of the background object 102. Therefore, the processing unit 10 performs a process of blending a plurality of texture images on the portion where the texture images overlap with each other in the blend processing unit 24. In the present embodiment, the blend processing unit 24 of the processing unit 10 uses an alpha blending algorithm as the blending process (however, the alpha blending is an example, and the blending processing unit 24 performs a blending process using another algorithm. May be good).

アルファブレンドは、透過率を表す係数(アルファ値)に基づいて2つの画像を合成するアルゴリズムであり、下記の(1)式による演算を画像の各画素について行う。なお(1)式において、aを第1画像の画素値とし、bを第2画像の画素値とし、cを合成後の画像の画素値とし、αをアルファ値とする。ただし、0≦α≦1である。
c=a×(1−α)+b×α …(1)
Alpha blending is an algorithm that synthesizes two images based on a coefficient (alpha value) representing transmittance, and performs an operation according to the following equation (1) for each pixel of the image. In equation (1), a is the pixel value of the first image, b is the pixel value of the second image, c is the pixel value of the combined image, and α is the alpha value. However, 0 ≦ α ≦ 1.
c = a × (1−α) + b × α (1)

例えば処理部10のブレンド処理部24は、テクスチャ画像105zが貼り付けられた背景オブジェクト102に対して投影マッピング処理部21がテクスチャ画像105xを投影マッピングする際に、テクスチャ画像105zを第1画像とし、テクスチャ画像105xを第2画像として(1)式に基づくアルファブレンド処理を行う。次いでブレンド処理部24は、投影マッピング処理部21が背景オブジェクト102に対して更にテクスチャ画像105yを投影マッピングする際に、ブレンドされたテクスチャ画像105z及び105xを第1画像とし、テクスチャ画像105yを第2画像としてアルファブレンド処理を行う。   For example, the blend processing unit 24 of the processing unit 10 sets the texture image 105z as the first image when the projection mapping processing unit 21 projects and maps the texture image 105x to the background object 102 to which the texture image 105z is pasted. The alpha blend process based on the formula (1) is performed using the texture image 105x as the second image. Next, when the projection mapping processing unit 21 further projects and maps the texture image 105y onto the background object 102, the blend processing unit 24 sets the blended texture images 105z and 105x as the first image and the texture image 105y as the second image. Alpha blend processing is performed as an image.

ブレンド処理部24は、ブレンド処理を行うためにアルファ値を取得する。本実施の形態に係る画像処理装置1の処理部10は、背景オブジェクト102を構成する各ポリゴンの法線ベクトルに応じたアルファ値にてブレンド処理部24がアルファブレンドを行う。このため処理部10は、二次記憶部12に記憶された環境マップ画像データ34を環境マップ画像取得処理部22にて取得し、環境マップ画像データ34を用いて環境マッピング処理部23が環境マッピング処理を行うことによって、各ポリゴンの法線ベクトルに応じたアルファ値を取得している。   The blend processing unit 24 acquires an alpha value in order to perform blend processing. In the processing unit 10 of the image processing apparatus 1 according to the present embodiment, the blend processing unit 24 performs alpha blending with an alpha value corresponding to the normal vector of each polygon constituting the background object 102. Therefore, the processing unit 10 acquires the environment map image data 34 stored in the secondary storage unit 12 by the environment map image acquisition processing unit 22, and the environment mapping processing unit 23 uses the environment map image data 34 to perform environment mapping. By performing the processing, an alpha value corresponding to the normal vector of each polygon is acquired.

図4は、画像処理装置1が行う環境マッピング処理を説明するための模式図である。一般的に環境マッピングは、物体に対する周囲環境の映り込みを表現する場合などに利用される画像処理のアルゴリズムである。映り込みを表現するための環境マッピングでは、物体の周囲環境を環境マップ画像として予め用意しておき、物体を囲む仮想の球体又は立方体等の内面に環境マップ画像を貼り付ける。次いで光線ベクトル又は視線ベクトル等と物体との交点での反射ベクトルを算出し、反射ベクトルと仮想の球体又は立方体等との交点を特定し、交点での環境マップ画像の画素値を物体表面に反映させることで映り込みを表現する。   FIG. 4 is a schematic diagram for explaining the environment mapping process performed by the image processing apparatus 1. In general, environment mapping is an image processing algorithm that is used to represent the reflection of the surrounding environment on an object. In environment mapping for expressing reflection, an environment surrounding an object is prepared in advance as an environment map image, and the environment map image is pasted on the inner surface of a virtual sphere or cube surrounding the object. Next, the reflection vector at the intersection of the ray vector or line-of-sight vector and the object is calculated, the intersection of the reflection vector and the virtual sphere or cube is specified, and the pixel value of the environment map image at the intersection is reflected on the object surface To express the reflection.

本実施の形態に係る画像処理装置1が二次記憶部12に環境マップ画像データ34として記憶する環境マップ画像205は、周囲環境の画像ではなく、各画素にアルファ値が設定されたものである。処理部10の環境マッピング処理部23は、光源201からの光線ベクトル202と、背景オブジェクト102との交点を算出する。環境マッピング処理部23は、算出した交点におけるポリゴンの法線ベクトル203に基づいて、光線ベクトル202の反射ベクトル204を算出する。次いで環境マッピング処理部23は、反射ベクトル204と環境マップ画像205との交点の画素を特定し、特定した画素の画素値(アルファ値)を取得する。   The environment map image 205 that the image processing apparatus 1 according to the present embodiment stores as the environment map image data 34 in the secondary storage unit 12 is not an image of the surrounding environment, but an alpha value is set for each pixel. . The environment mapping processing unit 23 of the processing unit 10 calculates the intersection of the light vector 202 from the light source 201 and the background object 102. The environment mapping processing unit 23 calculates a reflection vector 204 of the light vector 202 based on the polygon normal vector 203 at the calculated intersection. Next, the environment mapping processing unit 23 specifies the pixel at the intersection of the reflection vector 204 and the environment map image 205, and acquires the pixel value (alpha value) of the specified pixel.

環境マッピング処理部23は、背景オブジェクト102表面の各点(貼り付けられるテクスチャ画像の各画素に対応する点)にて反射ベクトル204と環境マップ画像205との交点のアルファ値を取得し、ブレンド処理部24へ与える。ブレンド処理部24は、環境マッピング処理部23から与えられたアルファ値に応じて、背景オブジェクト102表面の各点にて、上記(1)式に基づくテクスチャ画像のアルファブレンドを行う。このときブレンド処理部24は、既に貼り付けられた(ブレンド処理された)一又は複数のテクスチャ画像を上記(1)式の第1画像とし、新たに貼り付けるテクスチャ画像を第2画像としてブレンド処理を行えばよい。   The environment mapping processing unit 23 acquires the alpha value of the intersection of the reflection vector 204 and the environment map image 205 at each point on the surface of the background object 102 (a point corresponding to each pixel of the pasted texture image), and blend processing To part 24. The blend processing unit 24 performs alpha blending of the texture image based on the formula (1) at each point on the surface of the background object 102 according to the alpha value given from the environment mapping processing unit 23. At this time, the blend processing unit 24 blends one or a plurality of texture images that have already been pasted (blended) as the first image of the above formula (1), and the newly pasted texture image as the second image. Can be done.

環境マッピング処理に用いる環境マップ画像205は、ゲームの設計者又はデザイナ等が予め作成したものである。図5は、環境マップ画像205の一例を示す模式図であり、上段に環境マップ画像205の全体図を示し、下段に一部拡大図を示す。環境マップ画像205は、各画素に例えば0〜255の256階調の画素値を設定することができ、各画素の画素値を255で除算した値がアルファ値となる。図5においては、環境マップ画像205を256階調のグレースケールの画像として示してある。   The environment map image 205 used for the environment mapping process is created in advance by a game designer or designer. FIG. 5 is a schematic diagram showing an example of the environment map image 205. The upper part shows an overall view of the environment map image 205, and the lower part shows a partially enlarged view. In the environment map image 205, for example, a pixel value of 256 gradations of 0 to 255 can be set for each pixel, and a value obtained by dividing the pixel value of each pixel by 255 is an alpha value. In FIG. 5, the environment map image 205 is shown as a grayscale image of 256 gradations.

図5に一例として示す環境マップ画像205は、左右両端の所定幅部分が黒色であり、且つ、中央の所定幅部分が白色であり、左右の黒色から中央の白色へ、横方向へ徐々に明度が高くなるようグラデーションが施された画像である。(ただし図5においては、黒色から白色へ明度を段階的に変化させた画像を示してあるが、明度を連続的に変化させる画像であってよい。)   The environment map image 205 shown as an example in FIG. 5 has a predetermined width portion at the left and right ends in black, and a predetermined width portion at the center is white, and the brightness gradually increases from the left and right black to the central white. This is an image with gradation so that the image becomes higher. (However, FIG. 5 shows an image in which the brightness is changed stepwise from black to white, but it may be an image in which the brightness is continuously changed.)

また環境マップ画像205の横方向への色の変化は、縦方向に関して均一である必要はなく、図5下段に示すように、各色の画素の配置にバラツキを持たせてもよい。このバラツキは、例えば設計者又はデザイナ等の判断に基づくものであってよく、また例えば乱数などに基づいて自動生成するのであってよい。環境マップ画像205の色の変化にバラツキを持たせることによって、反射ベクトル204に対するアルファ値にバラツキを持たせることができる。これによりブレンド処理部24はテクスチャ画像のブレンド処理にバラツキを持たせることができ、背景オブジェクト102表面に貼り付けられる模様などにノイズ表現を含ませることができる。   Further, the color change in the horizontal direction of the environment map image 205 does not need to be uniform in the vertical direction, and the arrangement of the pixels of each color may vary as shown in the lower part of FIG. This variation may be based on the judgment of a designer or a designer, for example, or may be automatically generated based on, for example, a random number. By varying the color change of the environment map image 205, the alpha value for the reflection vector 204 can be varied. As a result, the blend processing unit 24 can vary the texture image blending process, and can include noise expression in a pattern or the like pasted on the surface of the background object 102.

図6は、画像処理装置1が行うテクスチャマッピング処理の手順を示すフローチャートであり、処理部10が画像処理プログラム31を実行することによって行われる処理である。まず、画像処理装置1の処理部10は、テクスチャマッピング処理に必要なデータを二次記憶部12から読みだす処理を行う。詳しくは、処理部10は、背景オブジェクト102に関するデータが含まれる立体オブジェクトデータ32を二次記憶部12から読み出して取得する(ステップS1)。また処理部10は、背景オブジェクト102に貼り付ける複数のテクスチャ画像105x〜105zが含まれるテクスチャ画像データ33を二次記憶部12から読み出して取得する(ステップS2)。また処理部10は、ブレンド係数としてアルファ値が設定された環境マップ画像205を含む環境マップ画像データ34を二次記憶部12から読み出して取得する(ステップS3)。   FIG. 6 is a flowchart showing the procedure of the texture mapping process performed by the image processing apparatus 1, and is a process performed by the processing unit 10 executing the image processing program 31. First, the processing unit 10 of the image processing apparatus 1 performs processing for reading data necessary for texture mapping processing from the secondary storage unit 12. Specifically, the processing unit 10 reads and acquires the three-dimensional object data 32 including the data related to the background object 102 from the secondary storage unit 12 (step S1). Further, the processing unit 10 reads out and obtains the texture image data 33 including the plurality of texture images 105x to 105z to be pasted on the background object 102 from the secondary storage unit 12 (step S2). Further, the processing unit 10 reads out and acquires the environment map image data 34 including the environment map image 205 in which the alpha value is set as the blend coefficient from the secondary storage unit 12 (step S3).

次いで処理部10は、変数n=1の設定を行う(ステップS4)。なお変数nは、投影マッピング処理部21による投影マッピングの方向を区別するための変数であり、1≦n≦Nである。例えば図3において、変数n=1の場合をZ軸方向からの投影マッピングに対応させ、変数n=2の場合をX軸方向からの投影マッピングに対応させ、変数n=3の場合をY軸方向からの投影マッピングに対応させることができる。また定数Nは、投影マッピングを行う方向の数であり、図3の例においてN=3である。また変数nは、処理部10内のレジスタ又は一次記憶部11等の記憶領域に確保される。   Next, the processing unit 10 sets a variable n = 1 (step S4). Note that the variable n is a variable for distinguishing the direction of projection mapping by the projection mapping processing unit 21, and 1 ≦ n ≦ N. For example, in FIG. 3, the variable n = 1 corresponds to the projection mapping from the Z-axis direction, the variable n = 2 corresponds to the projection mapping from the X-axis direction, and the variable n = 3 corresponds to the Y-axis. It can correspond to the projection mapping from the direction. The constant N is the number of directions in which projection mapping is performed, and N = 3 in the example of FIG. The variable n is secured in a storage area such as a register in the processing unit 10 or the primary storage unit 11.

次いで処理部10は、テクスチャマッピングの対象である背景オブジェクト102に対して、第n方向から第nテクスチャ画像を投影マッピングする処理を投影マッピング処理部21にて行う(ステップS5)。なお第nテクスチャ画像は、背景オブジェクト102に対して第n方向から投影マッピングを行うために用意された画像である。ただし処理部10は、投影マッピング処理部21にて全N方向から投影マッピング処理を行う場合に、N個のテクスチャ画像を必要とするわけではない。例えば第iテクスチャ画像と、第i+1テクスチャ画像とが同一のテクスチャ画像であってもよい。   Next, the processing unit 10 performs a process of projecting and mapping the nth texture image from the nth direction on the background object 102 that is the target of the texture mapping in the projection mapping processing unit 21 (step S5). Note that the nth texture image is an image prepared for performing projection mapping on the background object 102 from the nth direction. However, the processing unit 10 does not need N texture images when the projection mapping processing unit 21 performs the projection mapping processing from all N directions. For example, the i-th texture image and the i + 1-th texture image may be the same texture image.

その後、処理部10は、変数nの値に1を加算する(ステップS6)。処理部10は、背景オブジェクト102を構成するポリゴンの表面における1つの点(ピクセル)を処理対象の点として決定する(ステップS7)。次いで処理部10は、ステップS3にて読み出した環境マップ画像105を基に、環境マッピング処理部23にて環境マッピング処理を行う。これにより処理部10は、背景オブジェクト102の処理対象点に対する光源201からの光線ベクトル202の反射ベクトル204に対応する環境マップ画像205の画素に設定されたブレンド係数(アルファ値)を取得する(ステップS8)。   Thereafter, the processing unit 10 adds 1 to the value of the variable n (step S6). The processing unit 10 determines one point (pixel) on the surface of the polygon constituting the background object 102 as a processing target point (step S7). Next, the processing unit 10 performs an environment mapping process in the environment mapping processing unit 23 based on the environment map image 105 read in step S3. Thereby, the processing unit 10 acquires the blend coefficient (alpha value) set in the pixel of the environment map image 205 corresponding to the reflection vector 204 of the ray vector 202 from the light source 201 with respect to the processing target point of the background object 102 (step). S8).

次いで処理部10は、投影マッピング処理部にて第nテクスチャ画像を第n方向から背景オブジェクト102に投影マッピングする。更に処理部10は、ステップS8にて取得したブレンド係数に応じて、ブレンド処理部24にて以前のテクスチャ画像(第1テクスチャ画像〜第n−1テクスチャ画像をブレンドした画像)の画素値と、投影マッピングした第nテクスチャ画像の画素値とのブレンド(アルファブレンド)を行う(ステップS9)。   Next, the processing unit 10 performs projection mapping of the nth texture image on the background object 102 from the nth direction in the projection mapping processing unit. Further, the processing unit 10 determines the pixel value of the previous texture image (an image obtained by blending the first texture image to the (n-1) th texture image) in the blend processing unit 24 according to the blend coefficient acquired in step S8, Blending (alpha blending) with the pixel values of the nth texture image subjected to projection mapping is performed (step S9).

ブレンド処理の終了後、処理部10は、背景オブジェクト102の全ての点について、第n方向に関するテクスチャマッピング処理を終了したか否かを判定する(ステップS10)。全ての点についてテクスチャマッピング処理を終了していない場合(S10:NO)、処理部10は、ステップS7へ処理を戻し、ステップS7〜S9の処理を繰り返し行う。   After the blending process, the processing unit 10 determines whether or not the texture mapping process for the nth direction has been completed for all points of the background object 102 (step S10). If the texture mapping process has not been completed for all points (S10: NO), the processing unit 10 returns the process to step S7 and repeats the processes of steps S7 to S9.

また全ての点についてテクスチャマッピング処理を終了した場合(S10:YES)、処理部10は、変数n=Nが成立するか否か(即ち、全方向についてテクスチャマッピング処理を終了したか否か)を判定する(ステップS11)。変数n≠Nの場合(S11:NO)、処理部10は、ステップS6へ処理を戻し、ステップS6〜S10の処理を繰り返し行う。変数n=Nが成立する場合(S11:YES)、処理部10は、テクスチャマッピング処理を終了する。   When the texture mapping process is completed for all points (S10: YES), the processing unit 10 determines whether or not the variable n = N is satisfied (that is, whether the texture mapping process is completed for all directions). Determination is made (step S11). When the variable n ≠ N (S11: NO), the processing unit 10 returns the process to step S6 and repeats the processes of steps S6 to S10. When the variable n = N is satisfied (S11: YES), the processing unit 10 ends the texture mapping process.

以上の構成の画像処理装置1は、処理部10の投影マッピング処理部21が背景オブジェクト102に対して複数方向からテクスチャ画像の投影マッピングを行う。画像処理装置1は、テクスチャマッピングとして投影マッピングを行う構成とすることにより、例えばゲーム内のイベントなどによって背景オブジェクト102の形状が変化した場合であっても、貼り付けられる画像に歪みを生じさせることはない。また画像処理装置1は、複数方向から投影マッピングを行う構成とすることにより、背景オブジェクト102の表面に対して抜けなくテクスチャ画像を貼り付けることができる。   In the image processing apparatus 1 having the above configuration, the projection mapping processing unit 21 of the processing unit 10 performs texture image projection mapping on the background object 102 from a plurality of directions. Since the image processing apparatus 1 is configured to perform projection mapping as texture mapping, for example, even when the shape of the background object 102 changes due to an event in the game, the image to be pasted is distorted. There is no. In addition, the image processing apparatus 1 can apply a texture image to the surface of the background object 102 without omission by adopting a configuration in which projection mapping is performed from a plurality of directions.

また、画像処理装置1は、環境マップ画像取得処理部22が二次記憶部12から取得した環境マップ画像データ34に基づいて環境マッピング処理部23が環境マッピング処理を行うことによって、ブレンド処理部24が行うブレンド処理に必要なブレンド係数を取得する。画像処理装置1は、環境マッピング処理によってブレンド係数を取得する構成とすることにより、背景オブジェクト102表面の法線ベクトルに応じたブレンド係数を取得することができる。また、画像処理装置1は環境マップ画像の各画素の画素値を変更することでブレンド処理の処理結果を変更することが可能な構成であるため、プログラマなどが画像処理プログラム31を変更することなく、デザイナなどが環境マップ画像を変更して容易にブレンド処理の処理結果を変更することができる。   Further, in the image processing apparatus 1, the environment mapping processing unit 23 performs the environment mapping process based on the environment map image data 34 acquired by the environment map image acquisition processing unit 22 from the secondary storage unit 12, whereby the blend processing unit 24. The blending coefficient necessary for the blending process performed by is acquired. The image processing apparatus 1 can acquire a blend coefficient corresponding to a normal vector on the surface of the background object 102 by adopting a configuration in which the blend coefficient is acquired by the environment mapping process. In addition, since the image processing apparatus 1 is configured to be able to change the processing result of the blend process by changing the pixel value of each pixel of the environment map image, a programmer or the like does not change the image processing program 31. Designers can easily change the processing result of the blending process by changing the environment map image.

また画像処理装置1は、環境マッピング処理部23が光源201からの光線ベクトル202が背景オブジェクト102の表面で反射した反射ベクトル204を算出し、反射ベクトル204に対応する環境マップ画像205の画素を特定し、特定した画素に設定されたブレンド係数(アルファ値)を取得する構成である。これは、視点から視線ベクトルに基づいて環境マッピング処理を行った場合、ゲーム中に視点は移動する可能性があり、視点が移動すると環境マッピング処理の結果が変化してブレンド処理の結果が変化するためである。ただしゲーム中に視点が移動しない場合、環境マッピング処理部23が視線ベクトルに基づく環境マッピング処理を行う構成としてもよい。また環境マッピング処理部23は、3次元の仮想空間に不動点を設定し、この不動点から背景オブジェクト102へのベクトルに基づいて環境マッピング処理を行う構成であってもよい。   In the image processing apparatus 1, the environment mapping processing unit 23 calculates the reflection vector 204 in which the light vector 202 from the light source 201 is reflected from the surface of the background object 102, and specifies the pixel of the environment map image 205 corresponding to the reflection vector 204. The blend coefficient (alpha value) set for the identified pixel is acquired. This is because when the environment mapping process is performed from the viewpoint based on the line-of-sight vector, the viewpoint may move during the game. When the viewpoint moves, the result of the environment mapping process changes and the result of the blend process changes. Because. However, when the viewpoint does not move during the game, the environment mapping processing unit 23 may perform environment mapping processing based on the line-of-sight vector. The environment mapping processing unit 23 may be configured to set a fixed point in a three-dimensional virtual space and perform environment mapping processing based on a vector from the fixed point to the background object 102.

なお本実施の形態においては、画像処理装置1が画像出力部13から表示装置5へ画像信号を出力することにより、表示装置5に画像を表示する構成としたが、これに限るものではない。画像処理装置1は、液晶パネル又はPDP等の表示部を搭載し、この表示部に画像を表示する構成であってよい。また画像処理装置1は据置型のゲーム機器としたが、これに限るものではない。画像処理装置1は、携帯型のゲーム機器であってもよく、ゲームプログラムを実行可能な汎用のコンピュータであってもよい。また画像処理装置1は、ゲーム機器以外の装置であってよく、例えば携帯電話器又はスマートフォン等であってよく、また例えばCAD又はシミュレータ等の3DCGを表示する装置であってよい。   In the present embodiment, the image processing apparatus 1 outputs an image signal from the image output unit 13 to the display apparatus 5 to display an image on the display apparatus 5. However, the present invention is not limited to this. The image processing apparatus 1 may be configured to include a display unit such as a liquid crystal panel or a PDP and display an image on the display unit. The image processing apparatus 1 is a stationary game machine, but is not limited to this. The image processing apparatus 1 may be a portable game device or a general-purpose computer that can execute a game program. The image processing apparatus 1 may be an apparatus other than a game machine, for example, a mobile phone or a smartphone, or may be an apparatus that displays 3DCG such as a CAD or a simulator.

また画像処理装置1の処理部10の投影マッピング処理部21〜ブレンド処理部24は、画像処理プログラム31を処理部10が実行することによってソフトウェア的に実現されるものとしたが、これに限るものではない。画像処理装置1の投影マッピング処理部21〜ブレンド処理部24の一部又は全部がハードウェア的に実現されるものであってもよい。また画像処理装置1は、処理部10がゲーム判定などの処理と画像処理とを行う構成としたが、これに限るものではない。画像処理装置1は、画像処理を行うGPU(Graphics Processing Unit)などの画像処理部を処理部10とは別に備える構成であってよく、この場合には投影マッピング処理部21〜ブレンド処理部24は画像処理部内に設けられる。   Further, the projection mapping processing unit 21 to the blend processing unit 24 of the processing unit 10 of the image processing apparatus 1 are realized by software by the processing unit 10 executing the image processing program 31, but the present invention is not limited thereto. is not. A part or all of the projection mapping processing unit 21 to the blend processing unit 24 of the image processing apparatus 1 may be realized in hardware. The image processing apparatus 1 is configured such that the processing unit 10 performs processing such as game determination and image processing, but is not limited thereto. The image processing apparatus 1 may be configured to include an image processing unit such as a GPU (Graphics Processing Unit) that performs image processing separately from the processing unit 10. In this case, the projection mapping processing unit 21 to the blend processing unit 24 include Provided in the image processing unit.

また画像処理装置1の投影マッピング処理部21は、X軸方向、Y軸方向及びZ軸方向の3方向から投影マッピング処理を行う構成としたが、これに限るものではない。投影マッピング処理部21は、2方向又は4方向以上から投影マッピング処理を行う構成であってよい。また画像処理装置1は、複数方向から投影マッピング処理したテクスチャ画像を、環境マッピング処理にて取得したブレンド係数に基づいてブレンド処理する上述の画像処理を、3次元の仮想空間における背景オブジェクト102に対して行う構成としたが、これに限るものではない。画像処理装置1は、上述の画像処理を、キャラクターオブジェクト101などその他のオブジェクトに対して行う構成であってもよい。また図5に示した環境マップ画像205は一例であってこれに限るものではない。環境マップ画像205は、背景オブジェクト102の形状、テクスチャ画像の種別、ゲーム内容等の種々の要因に適するように、ゲームのデザイナなどが適宜に作成することができる。   Further, the projection mapping processing unit 21 of the image processing apparatus 1 is configured to perform the projection mapping process from the three directions of the X-axis direction, the Y-axis direction, and the Z-axis direction, but is not limited thereto. The projection mapping processing unit 21 may be configured to perform projection mapping processing from two directions or four or more directions. In addition, the image processing apparatus 1 performs the above-described image processing for blending a texture image obtained by projection mapping processing from a plurality of directions based on the blend coefficient acquired by the environment mapping processing on the background object 102 in the three-dimensional virtual space. However, the present invention is not limited to this. The image processing apparatus 1 may be configured to perform the above-described image processing on other objects such as the character object 101. The environment map image 205 shown in FIG. 5 is an example, and the present invention is not limited to this. The environment map image 205 can be appropriately created by a game designer or the like so as to suit various factors such as the shape of the background object 102, the type of texture image, and the game content.

上述の実施の形態に係る画像処理装置1は、背景オブジェクト102に対するテクスチャマッピング処理の全てを自らが行う構成であるが、これに限るものではない。テクスチャマッピング処理に必要な投影マッピング処理、環境マッピング処理及びブレンド処理等の画像処理を複数の装置で分散して行う構成としてもよい。以下の変形例では、テクスチャマッピング処理を複数の画像処理装置で分散して行う画像処理システムについて説明する。   The image processing apparatus 1 according to the above-described embodiment is configured to perform all of the texture mapping processing for the background object 102 by itself, but is not limited thereto. A configuration may be adopted in which image processing such as projection mapping processing, environment mapping processing, and blend processing necessary for texture mapping processing is performed by a plurality of devices. In the following modification, an image processing system that performs texture mapping processing in a distributed manner by a plurality of image processing apparatuses will be described.

(変形例)
図7は、変形例に係る画像処理システムの一構成例を示すブロック図である。変形例に係る画像処理システムは、第1の画像処理装置1a及び第2の画像処理装置1bを含んで構成されている。第1の画像処理装置1aは、図1に示した画像処理装置1と略同じ構成であるが、処理部10内に環境マップ画像取得処理部22及び環境マッピング処理部23が設けられない。第1の画像処理装置1aの処理部10には、投影マッピング処理部21及びブレンド処理部24が設けられる。
(Modification)
FIG. 7 is a block diagram illustrating a configuration example of an image processing system according to a modification. The image processing system according to the modification includes a first image processing device 1a and a second image processing device 1b. The first image processing device 1 a has substantially the same configuration as the image processing device 1 shown in FIG. 1, but the environment map image acquisition processing unit 22 and the environment mapping processing unit 23 are not provided in the processing unit 10. The processing unit 10 of the first image processing apparatus 1a includes a projection mapping processing unit 21 and a blend processing unit 24.

第2の画像処理装置1bもまた、図1に示した画像処理装置1と略同じ構成であるが、操作部14及びディスクドライブ16を備えない構成であってよい。第2の画像処理装置1bは、処理部10内に環境マップ画像取得処理部22及び環境マッピング処理部23が設けられ、投影マッピング処理部21及びブレンド処理部24は設けられない。第1の画像処理装置1a及び第2の画像処理装置1bは、それぞれの通信部15が通信線又はLAN(Local Area Network)等を介して接続され、相互にデータの送受信を行うことができる。   The second image processing apparatus 1b also has substantially the same configuration as that of the image processing apparatus 1 shown in FIG. 1, but may be configured without the operation unit 14 and the disk drive 16. In the second image processing apparatus 1b, the environment map image acquisition processing unit 22 and the environment mapping processing unit 23 are provided in the processing unit 10, and the projection mapping processing unit 21 and the blend processing unit 24 are not provided. In the first image processing apparatus 1a and the second image processing apparatus 1b, the communication units 15 are connected to each other via a communication line, a LAN (Local Area Network), or the like, and can transmit / receive data to / from each other.

背景オブジェクト102に対するテクスチャマッピングを行う場合、第1の画像処理装置1aは、投影マッピング処理部21及びブレンド処理部24にて、複数方向からのテクスチャ画像の投影マッピング及び複数のテクスチャ画像のブレンド処理を行う。また第2の画像処理装置1bは、環境マップ画像取得処理部22及び環境マッピング処理部23にて、環境マッピング処理を行うことによりブレンド係数(アルファ値)を取得する処理を行う。第2の画像処理装置1bは、環境マッピング処理により取得したアルファ値を、通信部15を介して第1の画像処理装置1aへ送信する。第1の画像処理装置1aは、第2の画像処理装置1bからアルファ値を受信し、受信したアルファ値を用いてブレンド処理部24によるブレンド処理を行う。   When texture mapping is performed on the background object 102, the first image processing apparatus 1a performs projection mapping of a texture image from a plurality of directions and blend processing of a plurality of texture images in the projection mapping processing unit 21 and the blend processing unit 24. Do. In the second image processing apparatus 1b, the environment map image acquisition processing unit 22 and the environment mapping processing unit 23 perform a process of acquiring a blend coefficient (alpha value) by performing an environment mapping process. The second image processing apparatus 1b transmits the alpha value acquired by the environment mapping process to the first image processing apparatus 1a via the communication unit 15. The first image processing device 1a receives an alpha value from the second image processing device 1b, and performs a blend process by the blend processing unit 24 using the received alpha value.

なお画像処理プログラム31、立体オブジェクトデータ32、テクスチャ画像データ33及び環境マップ画像データ34等の情報は、第1の画像処理装置1aの二次記憶部12又は第2の画像処理装置1bの二次記憶部12のいずれに記憶されていてもよい。例えばこれらの情報を第1の画像処理装置1aの二次記憶部12に全て記憶しておく場合、第1の画像処理装置1aが通信部15にて必要な情報を第2の画像処理装置1bへ送信する。   Information such as the image processing program 31, the three-dimensional object data 32, the texture image data 33, and the environment map image data 34 is stored in the secondary storage unit 12 of the first image processing apparatus 1a or the secondary image of the second image processing apparatus 1b. It may be stored in any of the storage units 12. For example, when all of these pieces of information are stored in the secondary storage unit 12 of the first image processing apparatus 1a, the first image processing apparatus 1a transmits necessary information to the second image processing apparatus 1b in the communication unit 15. Send to.

以上のように、テクスチャマッピングに係る処理を複数の画像処理装置1a、1bが分散して行う構成とすることにより、例えば投影マッピング処理と環境マッピング処理とを並列して行うことができ、テクスチャマッピングの処理時間を短縮することができる。なお、図7に示した画像処理システムは、第1の画像処理装置1aが投影マッピング処理及びブレンド処理を行い、第2の画像処理装置1bが環境マッピング処理を行う構成であるが、これに限るものではない。例えば第1の画像処理装置1aがブレンド処理を行い、第2の画像処理装置1bが投影マッピング処理及び環境マッピング処理を行うなど、その他の構成であってもよい。また3つの画像処理装置を含む画像処理システムとしてもよく、この場合には投影マッピング処理、環境マッピング処理及びブレンド処理をそれぞれ異なる画像処理装置が行う構成とすることができる。   As described above, by adopting a configuration in which processing related to texture mapping is performed by a plurality of image processing apparatuses 1a and 1b being distributed, for example, projection mapping processing and environment mapping processing can be performed in parallel. The processing time can be shortened. The image processing system shown in FIG. 7 has a configuration in which the first image processing apparatus 1a performs the projection mapping process and the blending process, and the second image processing apparatus 1b performs the environment mapping process. It is not a thing. For example, the first image processing device 1a may perform blending processing, and the second image processing device 1b may perform other types of projection mapping processing and environment mapping processing. In addition, an image processing system including three image processing apparatuses may be used. In this case, the projection mapping process, the environment mapping process, and the blending process may be performed by different image processing apparatuses.

1、1a、1b 画像処理装置
5 表示装置
9 記録媒体
10 処理部(テクスチャマッピング手段)
11 一次記憶部
12 二次記憶部
15 通信部
21 投影マッピング処理部(所定方向投影マッピング手段、異方向投影マッピング手段)
22 環境マップ画像取得処理部(環境マップ画像取得手段)
23 環境マッピング処理部(マッピング手段)
24 ブレンド処理部(合成手段)
31 画像処理プログラム
32 立体オブジェクトデータ
33 テクスチャ画像データ
34 環境マップ画像データ
101 キャラクターオブジェクト
102 背景オブジェクト
105x〜105z テクスチャ画像
201 光源
202 光線ベクトル
203 法線ベクトル
204 反射ベクトル
205 環境マップ画像
1, 1a, 1b Image processing device 5 Display device 9 Recording medium 10 Processing unit (texture mapping means)
DESCRIPTION OF SYMBOLS 11 Primary storage part 12 Secondary storage part 15 Communication part 21 Projection mapping process part (predetermined direction projection mapping means, different direction projection mapping means)
22 Environment map image acquisition processing unit (environment map image acquisition means)
23 Environment mapping processor (mapping means)
24 Blend processing unit (combining means)
DESCRIPTION OF SYMBOLS 31 Image processing program 32 Three-dimensional object data 33 Texture image data 34 Environment map image data 101 Character object 102 Background object 105x-105z Texture image 201 Light source 202 Ray vector 203 Normal vector 204 Reflection vector 205 Environment map image

Claims (12)

複数面で構成された立体オブジェクトにテクスチャ画像を貼り付ける画像処理方法であって、
複数の画素で構成されており、各画素に複数のテクスチャ画像の合成に用いる合成係数が設定された環境マップ画像を取得する環境マップ画像取得ステップと、
該環境マップ画像取得ステップにて取得した環境マップ画像を用いた前記立体オブジェクトに対する環境マッピング処理に基づき、前記立体オブジェクト表面に張り付けられるテクスチャ画像の各画素に対応する前記環境マップ画像における画素を特定し、特定した画素に設定された合成係数を取得するマッピングステップと、
前記立体オブジェクトに対して複数のテクスチャ画像を貼り付ける貼付ステップと、
前記マッピングステップにて取得した合成係数に応じて、前記立体オブジェクト表面に張り付けられた複数のテクスチャ画像を合成する合成ステップと
を含むこと
を特徴とする画像処理方法。
An image processing method for pasting a texture image to a three-dimensional object composed of a plurality of surfaces,
An environment map image acquisition step configured to acquire an environment map image which is configured by a plurality of pixels and in which a synthesis coefficient used for synthesis of a plurality of texture images is set for each pixel;
Based on the environment mapping process for the three-dimensional object using the environment map image acquired in the environment map image acquisition step, the pixel in the environment map image corresponding to each pixel of the texture image attached to the surface of the three-dimensional object is specified. A mapping step for obtaining a synthesis coefficient set for the identified pixel;
A pasting step of pasting a plurality of texture images to the solid object;
An image processing method comprising: a combining step of combining a plurality of texture images attached to the surface of the three-dimensional object according to the combining coefficient acquired in the mapping step.
前記貼付ステップにおける複数のテクスチャ画像の貼り付けは、異なる複数の投影方向での投影マッピングにより行うこと
を特徴とする請求項1に記載の画像処理方法。
The image processing method according to claim 1, wherein the pasting of the plurality of texture images in the pasting step is performed by projection mapping in a plurality of different projection directions.
複数面で構成された立体オブジェクトにテクスチャ画像を貼り付ける画像処理方法であって、
前記立体オブジェクトに対して所定方向からテクスチャ画像を投影マッピングする所定方向投影マッピングステップと、
複数の画素で構成されており、各画素に複数のテクスチャ画像の合成に用いる合成係数が設定された環境マップ画像を取得する環境マップ画像取得ステップと、
該環境マップ画像取得ステップにて取得した環境マップ画像を用いた前記立体オブジェクトに対する環境マッピング処理に基づき、前記立体オブジェクト表面に張り付けられるテクスチャ画像の各画素に対応する前記環境マップ画像における画素を特定し、特定した画素に設定された合成係数を取得するマッピングステップと、
前記立体オブジェクトに対して、投影マッピング済みのテクスチャ画像の投影方向とは異なる方向から、テクスチャ画像を投影マッピングする異方向投影マッピングステップと、
前記マッピングステップにて取得した合成係数に応じて、前記投影マッピング済みのテクスチャ画像及び前記異なる方向から投影マッピングしたテクスチャ画像を合成する合成ステップと
を含み、
前記マッピングステップ、前記異方向投影マッピングステップ及び前記合成ステップを反復して行い、前記立体オブジェクトに対して複数方向からテクスチャ画像を貼り付けること
を特徴とする画像処理方法。
An image processing method for pasting a texture image to a three-dimensional object composed of a plurality of surfaces,
A predetermined direction projection mapping step of projecting and mapping a texture image from a predetermined direction to the solid object;
An environment map image acquisition step configured to acquire an environment map image which is configured by a plurality of pixels and in which a synthesis coefficient used for synthesis of a plurality of texture images is set for each pixel;
Based on the environment mapping process for the three-dimensional object using the environment map image acquired in the environment map image acquisition step, the pixel in the environment map image corresponding to each pixel of the texture image attached to the surface of the three-dimensional object is specified. A mapping step for obtaining a synthesis coefficient set for the identified pixel;
A different-direction projection mapping step for projecting and mapping a texture image from a direction different from the projection direction of the texture image that has been projected and mapped to the three-dimensional object;
Combining a texture image that has been projected and mapped and a texture image that has been projected and mapped from the different direction according to the synthesis coefficient acquired in the mapping step, and
An image processing method comprising: repeatedly performing the mapping step, the different-direction projection mapping step, and the combining step, and pasting texture images from a plurality of directions on the solid object.
前記環境マップ画像には、前記合成係数としてアルファ値が設定されており、
前記合成ステップでは、複数のテクスチャ画像の各画素値をアルファブレンドにより合成すること
を特徴とする請求項1乃至請求項3のいずれか1つに記載の画像処理方法。
In the environment map image, an alpha value is set as the synthesis coefficient,
4. The image processing method according to claim 1, wherein in the synthesis step, the pixel values of the plurality of texture images are synthesized by alpha blending. 5.
前記環境マッピング処理では、光源から前記立体オブジェクト表面への光線ベクトルに対する反射ベクトルを算出し、算出した反射ベクトルに対応する前記環境マップ画像の画素を特定し、特定した画素に設定された合成係数を前記環境マップ画像から取得すること
を特徴とする請求項1乃至請求項4のいずれか1つに記載の画像処理方法。
In the environment mapping process, a reflection vector for a light ray vector from a light source to the surface of the solid object is calculated, a pixel of the environment map image corresponding to the calculated reflection vector is specified, and a synthesis coefficient set for the specified pixel is determined. 5. The image processing method according to claim 1, wherein the image processing method is acquired from the environment map image.
前記立体オブジェクトは、移動体及び背景を含む仮想空間の前記背景を構成する立体オブジェクトであること
を特徴とする請求項1乃至請求項5のいずれか1つに記載の画像処理方法。
The image processing method according to claim 1, wherein the three-dimensional object is a three-dimensional object constituting the background of a virtual space including a moving body and a background.
コンピュータに、複数面で構成された立体オブジェクトにテクスチャ画像を貼り付けさせる画像処理プログラムであって、
コンピュータを、
複数の画素で構成されており、各画素に複数のテクスチャ画像の合成に用いる合成係数が設定された環境マップ画像を取得する環境マップ画像取得手段と、
該環境マップ画像取得手段が取得した環境マップ画像を用いた前記立体オブジェクトに対する環境マッピング処理に基づき、前記立体オブジェクト表面に貼り付けられるテクスチャ画像の各画素に対応する前記環境マップ画像における画素を特定し、特定した画素に設定された合成係数を取得するマッピング手段と、
前記立体オブジェクトに対して複数のテクスチャ画像を貼り付ける貼付手段と、
前記マッピング手段が取得した合成係数に応じて、前記立体オブジェクト表面に貼り付けられた複数のテクスチャ画像を合成する合成手段
として動作させること
を特徴とする画像処理プログラム。
An image processing program for causing a computer to paste a texture image on a three-dimensional object composed of a plurality of surfaces,
Computer
An environment map image acquisition unit configured to acquire an environment map image configured by a plurality of pixels, in which a combination coefficient used for combining a plurality of texture images is set for each pixel;
Based on the environment mapping process for the three-dimensional object using the environment map image acquired by the environment map image acquiring means, the pixel in the environment map image corresponding to each pixel of the texture image pasted on the surface of the three-dimensional object is specified. Mapping means for obtaining a synthesis coefficient set for the specified pixel;
Pasting means for pasting a plurality of texture images to the three-dimensional object;
An image processing program that is operated as a synthesis unit that synthesizes a plurality of texture images pasted on the surface of the three-dimensional object according to a synthesis coefficient acquired by the mapping unit.
コンピュータに、複数面で構成された立体オブジェクトにテクスチャ画像を貼り付けさせる画像処理プログラムであって、
コンピュータを、
前記立体オブジェクトに対して所定方向からテクスチャ画像を投影マッピングする所定方向投影マッピング手段と、
複数の画素で構成されており、各画素に複数のテクスチャ画像の合成に用いる合成係数が設定された環境マップ画像を取得する環境マップ画像取得手段と、
該環境マップ画像取得手段が取得した環境マップ画像を用いた前記立体オブジェクトに対する環境マッピング処理に基づき、前記立体オブジェクト表面に貼り付けられるテクスチャ画像の各画素に対応する前記環境マップ画像における画素を特定し、特定した画素に設定された合成係数を取得するマッピング手段と、
前記立体オブジェクトに対して、投影マッピング済みのテクスチャ画像の投影方向とは異なる方向から、テクスチャ画像を投影マッピングする異方向投影マッピング手段と、
前記マッピング手段が取得した合成係数に応じて、前記投影マッピング済みのテクスチャ画像及び前記異なる方向から投影マッピングしたテクスチャ画像を合成する合成手段
として動作させ、
コンピュータに、前記マッピング手段による合成係数の取得、前記異方向投影マッピング手段によるテクスチャ画像の投影マッピング、及び、前記合成手段によるテクスチャ画像の合成を反復して行わせ、前記立体オブジェクトに対する複数方向からのテクスチャ画像の貼り付けを実行させること
を特徴とする画像処理プログラム。
An image processing program for causing a computer to paste a texture image on a three-dimensional object composed of a plurality of surfaces,
Computer
Predetermined direction projection mapping means for projecting and mapping a texture image from a predetermined direction on the three-dimensional object;
An environment map image acquisition unit configured to acquire an environment map image configured by a plurality of pixels, in which a combination coefficient used for combining a plurality of texture images is set for each pixel;
Based on the environment mapping process for the three-dimensional object using the environment map image acquired by the environment map image acquiring means, the pixel in the environment map image corresponding to each pixel of the texture image pasted on the surface of the three-dimensional object is specified. Mapping means for obtaining a synthesis coefficient set for the specified pixel;
Different direction projection mapping means for projecting and mapping a texture image from a direction different from the projection direction of the texture image that has been projection mapped to the three-dimensional object;
According to the synthesis coefficient acquired by the mapping unit, the projection mapped texture image and the texture image that has been projected mapped from the different direction are combined as a synthesis unit,
The computer repeatedly performs the acquisition of the synthesis coefficient by the mapping unit, the projection mapping of the texture image by the different direction projection mapping unit, and the synthesis of the texture image by the synthesis unit. An image processing program characterized by causing a texture image to be pasted.
複数面で構成された立体オブジェクトにテクスチャ画像を貼り付ける処理を行う画像処理装置であって、
複数の画素で構成されており、各画素に複数のテクスチャ画像の合成に用いる合成係数が設定された環境マップ画像を取得する環境マップ画像取得手段と、
該環境マップ画像取得手段が取得した環境マップ画像を用いた前記立体オブジェクトに対する環境マッピング処理に基づき、前記立体オブジェクト表面に貼り付けられるテクスチャ画像の各画素に対応する前記環境マップ画像における画素を特定し、特定した画素に設定された合成係数を取得するマッピング手段と、
前記立体オブジェクトに対して複数のテクスチャ画像を貼り付ける貼付手段と、
前記マッピング手段が取得した合成係数に応じて、前記立体オブジェクト表面に貼り付けられた複数のテクスチャ画像を合成する合成手段と
を備えること
を特徴とする画像処理装置。
An image processing apparatus that performs processing of pasting a texture image on a solid object composed of a plurality of surfaces,
An environment map image acquisition unit configured to acquire an environment map image configured by a plurality of pixels, in which a combination coefficient used for combining a plurality of texture images is set for each pixel;
Based on the environment mapping process for the three-dimensional object using the environment map image acquired by the environment map image acquiring means, the pixel in the environment map image corresponding to each pixel of the texture image pasted on the surface of the three-dimensional object is specified. Mapping means for obtaining a synthesis coefficient set for the specified pixel;
Pasting means for pasting a plurality of texture images to the three-dimensional object;
An image processing apparatus comprising: a combining unit configured to combine a plurality of texture images pasted on the surface of the three-dimensional object according to the combining coefficient acquired by the mapping unit.
複数面で構成された立体オブジェクトにテクスチャ画像を貼り付ける処理を行う画像処理装置であって、
前記立体オブジェクトに対して所定方向からテクスチャ画像を投影マッピングする所定方向投影マッピング手段と、
複数の画素で構成されており、各画素に複数のテクスチャ画像の合成に用いる合成係数が設定された環境マップ画像を取得する環境マップ画像取得手段と、
該環境マップ画像取得手段が取得した環境マップ画像を用いた前記立体オブジェクトに対する環境マッピング処理に基づき、前記立体オブジェクト表面に貼り付けられるテクスチャ画像の各画素に対応する前記環境マップ画像における画素を特定し、特定した画素に設定された合成係数を取得するマッピング手段と、
前記立体オブジェクトに対して、投影マッピング済みのテクスチャ画像の投影方向とは異なる方向から、テクスチャ画像を投影マッピングする異方向投影マッピング手段と、
前記マッピング手段が取得した合成係数に応じて、前記投影マッピング済みのテクスチャ画像及び前記異なる方向から投影マッピングしたテクスチャ画像を合成する合成手段と、
前記マッピング手段による合成係数の取得、前記異方向投影マッピング手段によるテクスチャ画像の投影マッピング、及び、前記合成手段によるテクスチャ画像の合成を反復して行い、前記立体オブジェクトに対して複数方向からテクスチャ画像を貼り付けるテクスチャマッピング手段と
を備えること
を特徴とする画像処理装置。
An image processing apparatus that performs processing of pasting a texture image on a solid object composed of a plurality of surfaces,
Predetermined direction projection mapping means for projecting and mapping a texture image from a predetermined direction on the three-dimensional object;
An environment map image acquisition unit configured to acquire an environment map image configured by a plurality of pixels, in which a combination coefficient used for combining a plurality of texture images is set for each pixel;
Based on the environment mapping process for the three-dimensional object using the environment map image acquired by the environment map image acquiring means, the pixel in the environment map image corresponding to each pixel of the texture image pasted on the surface of the three-dimensional object is specified. Mapping means for obtaining a synthesis coefficient set for the specified pixel;
Different direction projection mapping means for projecting and mapping a texture image from a direction different from the projection direction of the texture image that has been projection mapped to the three-dimensional object;
In accordance with a synthesis coefficient acquired by the mapping unit, a synthesis unit that synthesizes the texture image that has been projection mapped and the texture image that has been projection mapped from the different direction;
Obtaining a texture coefficient from a plurality of directions with respect to the solid object by repeatedly obtaining a synthesis coefficient by the mapping means, projecting mapping of a texture image by the different direction projection mapping means, and synthesizing a texture image by the synthesis means. An image processing apparatus comprising: a texture mapping unit to be pasted.
複数面で構成された立体オブジェクトにテクスチャ画像を貼り付ける処理を行う画像処理システムであって、
複数の画素で構成されており、各画素に複数のテクスチャ画像の合成に用いる合成係数が設定された環境マップ画像を取得する環境マップ画像取得手段と、
該環境マップ画像取得手段が取得した環境マップ画像を用いた前記立体オブジェクトに対する環境マッピング処理に基づき、前記立体オブジェクト表面に貼り付けられるテクスチャ画像の各画素に対応する前記環境マップ画像における画素を特定し、特定した画素に設定された合成係数を取得するマッピング手段と、
前記立体オブジェクトに対して複数のテクスチャ画像を貼り付ける貼付手段と、
前記マッピング手段が取得した合成係数に応じて、前記立体オブジェクト表面に貼り付けられた複数のテクスチャ画像を合成する合成手段と
を備えること
を特徴とする画像処理システム。
An image processing system for performing a process of pasting a texture image on a solid object composed of a plurality of surfaces,
An environment map image acquisition unit configured to acquire an environment map image configured by a plurality of pixels, in which a combination coefficient used for combining a plurality of texture images is set for each pixel;
Based on the environment mapping process for the three-dimensional object using the environment map image acquired by the environment map image acquiring means, the pixel in the environment map image corresponding to each pixel of the texture image pasted on the surface of the three-dimensional object is specified. Mapping means for obtaining a synthesis coefficient set for the specified pixel;
Pasting means for pasting a plurality of texture images to the three-dimensional object;
An image processing system comprising: a combining unit configured to combine a plurality of texture images pasted on the surface of the three-dimensional object according to the combining coefficient acquired by the mapping unit.
複数面で構成された立体オブジェクトにテクスチャ画像を貼り付ける処理を行う画像処理システムであって、
前記立体オブジェクトに対して所定方向からテクスチャ画像を投影マッピングする所定方向投影マッピング手段と、
複数の画素で構成されており、各画素に複数のテクスチャ画像の合成に用いる合成係数が設定された環境マップ画像を取得する環境マップ画像取得手段と、
該環境マップ画像取得手段が取得した環境マップ画像を用いた前記立体オブジェクトに対する環境マッピング処理に基づき、前記立体オブジェクト表面に貼り付けられるテクスチャ画像の各画素に対応する前記環境マップ画像における画素を特定し、特定した画素に設定された合成係数を取得するマッピング手段と、
前記立体オブジェクトに対して、投影マッピング済みのテクスチャ画像の投影方向とは異なる方向から、テクスチャ画像を投影マッピングする異方向投影マッピング手段と、
前記マッピング手段が取得した合成係数に応じて、前記投影マッピング済みのテクスチャ画像及び前記異なる方向から投影マッピングしたテクスチャ画像を合成する合成手段と、
前記マッピング手段による合成係数の取得、前記異方向投影マッピング手段によるテクスチャ画像の投影マッピング、及び、前記合成手段によるテクスチャ画像の合成を反復して行い、前記立体オブジェクトに対して複数方向からテクスチャ画像を貼り付けるテクスチャマッピング手段と
を備えること
を特徴とする画像処理システム。
An image processing system for performing a process of pasting a texture image on a solid object composed of a plurality of surfaces,
Predetermined direction projection mapping means for projecting and mapping a texture image from a predetermined direction on the three-dimensional object;
An environment map image acquisition unit configured to acquire an environment map image configured by a plurality of pixels, in which a combination coefficient used for combining a plurality of texture images is set for each pixel;
Based on the environment mapping process for the three-dimensional object using the environment map image acquired by the environment map image acquiring means, the pixel in the environment map image corresponding to each pixel of the texture image pasted on the surface of the three-dimensional object is specified. Mapping means for obtaining a synthesis coefficient set for the specified pixel;
Different direction projection mapping means for projecting and mapping a texture image from a direction different from the projection direction of the texture image that has been projection mapped to the three-dimensional object;
In accordance with a synthesis coefficient acquired by the mapping unit, a synthesis unit that synthesizes the texture image that has been projection mapped and the texture image that has been projection mapped from the different direction;
Obtaining a texture coefficient from a plurality of directions with respect to the solid object by repeatedly obtaining a synthesis coefficient by the mapping means, projecting mapping of a texture image by the different direction projection mapping means, and synthesizing a texture image by the synthesis means. An image processing system comprising: a texture mapping unit to be pasted.
JP2011224305A 2011-10-11 2011-10-11 Image processing method, image processing program, image processing device, and image processing system Pending JP2013084155A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011224305A JP2013084155A (en) 2011-10-11 2011-10-11 Image processing method, image processing program, image processing device, and image processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011224305A JP2013084155A (en) 2011-10-11 2011-10-11 Image processing method, image processing program, image processing device, and image processing system

Publications (1)

Publication Number Publication Date
JP2013084155A true JP2013084155A (en) 2013-05-09

Family

ID=48529278

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011224305A Pending JP2013084155A (en) 2011-10-11 2011-10-11 Image processing method, image processing program, image processing device, and image processing system

Country Status (1)

Country Link
JP (1) JP2013084155A (en)

Similar Documents

Publication Publication Date Title
TWI578266B (en) Varying effective resolution by screen location in graphics processing by approximating projection of vertices onto curved viewport
KR101145260B1 (en) Apparatus and method for mapping textures to object model
EP2973423B1 (en) System and method for display of a repeating texture stored in a texture atlas
US11170577B2 (en) Generating and modifying representations of objects in an augmented-reality or virtual-reality scene
JP2007066064A (en) Image generating device and image generating program
JPH10302079A (en) Solid texture mapping processor and three-dimensional image generating device using the processor
EP1977801B1 (en) Game machine, game machine control method, and information storage medium
US20150009216A1 (en) Storage medium, image processing apparatus, image processing system and image processing method
JP2004005452A (en) Image processor, image processing method, semiconductor device, computer program and record medium
KR20210087043A (en) Concurrent texture sampling
US20090080803A1 (en) Image processing program, computer-readable recording medium recording the program, image processing apparatus and image processing method
JP2003109031A (en) Device and method for processing image rendering, recording medium recorded with image rendering processing program and image rendering processing program
JP4868586B2 (en) Image generation system, program, and information storage medium
JP4749198B2 (en) Program, information storage medium, and image generation system
US20210090322A1 (en) Generating and Modifying Representations of Objects in an Augmented-Reality or Virtual-Reality Scene
KR101227155B1 (en) Graphic image processing apparatus and method for realtime transforming low resolution image into high resolution image
KR100603134B1 (en) Method and apparatus for 3 dimension rendering processing using the monochromatic lighting
JP2013084155A (en) Image processing method, image processing program, image processing device, and image processing system
JP5146054B2 (en) Generation control program of sound generated from sound source in virtual space
US20230351674A1 (en) Image processing device and image processing method
JP7475625B2 (en) Method and program for receiving and displaying input in three-dimensional space, and device for receiving and displaying input in three-dimensional space
GB2432500A (en) Image generation using vertex and pixel processing sections
JP2006127368A (en) Graphics drawing device having gamma compensation function using depth value
CN117252974A (en) Mapping method and device for three-dimensional image, electronic equipment and storage medium
JP2010157170A (en) Omnidirectional shadow projection renderer