JP2009075867A - Program for image processing, computer-readable recording medium with the program recorded thereon, image processor, and image processing method - Google Patents

Program for image processing, computer-readable recording medium with the program recorded thereon, image processor, and image processing method Download PDF

Info

Publication number
JP2009075867A
JP2009075867A JP2007244292A JP2007244292A JP2009075867A JP 2009075867 A JP2009075867 A JP 2009075867A JP 2007244292 A JP2007244292 A JP 2007244292A JP 2007244292 A JP2007244292 A JP 2007244292A JP 2009075867 A JP2009075867 A JP 2009075867A
Authority
JP
Japan
Prior art keywords
value
image data
density
virtual
viewpoint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007244292A
Other languages
Japanese (ja)
Inventor
Mitsugi Hara
貢 原
Kazuhiro Matsuda
一裕 松田
Haku Sugiura
舶 杉浦
Daisuke Tabayashi
大輔 田林
Takahiro Kikuchi
崇太 菊池
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sega Corp
Original Assignee
Sega Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sega Corp filed Critical Sega Corp
Priority to JP2007244292A priority Critical patent/JP2009075867A/en
Publication of JP2009075867A publication Critical patent/JP2009075867A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Generation (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing technology for further increasing power of expression of a handwritten-like image. <P>SOLUTION: This image processor is provided with a storage means and an arithmetic means, and the arithmetic means (a) generates basic image data by perspectively projecting a virtual three-dimensional space on a prescribed perspective projection face; (b) calculates a fog value representing transparency of the virtual three-dimensional space according to a distance between a camera position and an object arranged in the virtual three-dimensional space; (c) setting a density map representing a density value associated with basic image data on the basis of the fog value; (d) reading texture data from a storage means; and (e) generating the two-dimensional image data by combining the texture data with the basic image data by a rate corresponding to the density value set by the density map. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、仮想三次元空間に設定される事象を透視投影変換して二次元画像を生成する技術に関する。   The present invention relates to a technique for generating a two-dimensional image by perspective-projecting an event set in a virtual three-dimensional space.

近年のコンピュータ技術の発展に伴い、ビデオゲーム装置、シミュレータ(擬似体験装置)などに関する画像処理技術が広く一般に普及するようになっている。このようなシステムにおいては、表示される画像をより表現力豊かにすることが商品価値を高めるうえで重要となっている。このような背景の中、現実に近い表現(写実的な表現)とは一線を画し、水彩画風あるいはデッサン調などの手書き風の画像表現が検討されている(例えば、特許文献1参照)。   With the development of computer technology in recent years, image processing technology relating to video game devices, simulators (pseudo-experience devices), etc. has become widely popular. In such a system, it is important to make the displayed image richer in expressiveness in order to increase the product value. In such a background, expression that is close to reality (realistic expression) is distinct, and handwritten-style image expression such as watercolor style or drawing style has been studied (for example, see Patent Document 1).

実物の水彩画等は、キャンバス上に塗料(絵の具、木炭等)を塗りつけることによって作成される。この際、塗料の塗り残しや塗りムラなどによってその部分の下地の模様を視認し得る状況となる場合が多く、それが水彩画等の雰囲気を醸し出す重要な要素の1つとなっている。このため、水彩画等を模した画像を生成する際においても、その表現力を高めるためには下地模様の表現が重要となる。したがって、妥当な演算負荷によって上記のような下地模様を自在に表現することが可能な画像処理技術が望まれている。   A real watercolor painting or the like is created by applying paint (paint, charcoal, etc.) on the canvas. At this time, it is often the case that the pattern of the background of the portion can be visually recognized due to unpainted paint or uneven coating, and this is one of the important factors that create an atmosphere such as a watercolor painting. For this reason, even when an image simulating a watercolor painting or the like is generated, the expression of the ground pattern is important in order to enhance the expressive power. Therefore, there is a demand for an image processing technique capable of freely expressing the background pattern as described above with an appropriate calculation load.

特開2007−26111号公報JP 2007-26111 A

そこで、本発明は、手書き風画像の表現力をより高めることが可能な画像処理技術を提供することを1つの目的とする。   Therefore, an object of the present invention is to provide an image processing technique that can further enhance the expressiveness of handwritten-style images.

本発明に係る一態様の画像処理用のプログラムは、記憶手段と演算手段を備えた画像処理装置によって実行され、仮想三次元空間を所定の透視投影面上に透視投影して得られる二次元画像データを生成するプログラムであって、前記演算手段に、(a)前記仮想三次元空間に視点を配置し、この視点に対応して設定される前記透視投影面上に透視投影して基礎画像データを生成し、当該基礎画像データを前記記憶手段に格納するステップと、(b)前記視点の位置と前記仮想三次元空間内に配置されたオブジェクトとの距離に応じて、前記仮想三次元空間の透明度を表すフォグ値を算出するステップと、(c)前記フォグ値に基づいて、前記基礎画像データに対応付けられた濃度値を示す濃度マップを設定し、当該濃度マップを前記記憶手段に格納するステップと、(d)テクスチャデータを前記記憶手段から読み出すステップと、(e)前記テクスチャデータを、前記濃度マップによって設定された前記濃度値に応じた割合で前記基礎画像データと合成することによって前記二次元画像データを生成するステップと、を実行させることを特徴とする。ここで、前記テクスチャデータとしては、例えばキャンバス地模様の画像を含むものが用いられる。   A program for image processing according to an aspect of the present invention is a two-dimensional image obtained by perspective projection of a virtual three-dimensional space on a predetermined perspective projection plane, which is executed by an image processing apparatus including a storage unit and a calculation unit. A program for generating data, wherein: (a) a viewpoint is arranged in the virtual three-dimensional space, and perspective projection is performed on the perspective projection plane set corresponding to the viewpoint; And (b) storing the basic image data in the storage means, and (b) depending on the distance between the viewpoint position and the object arranged in the virtual three-dimensional space. Calculating a fog value indicating transparency; and (c) setting a density map indicating a density value associated with the basic image data based on the fog value, and storing the density map in the storage unit Storing, (d) reading out texture data from the storage means, and (e) combining the texture data with the basic image data at a ratio according to the density value set by the density map. Generating the two-dimensional image data. Here, as the texture data, for example, data including an image of a canvas pattern is used.

好ましくは、前記(b)においては、前記視点と前記オブジェクトとの距離が所定のしきい値よりも小さい場合には、フォグ値を一定値にする。   Preferably, in (b), when the distance between the viewpoint and the object is smaller than a predetermined threshold value, the fog value is set to a constant value.

好ましくは、前記(c)は、前記フォグ値をそのまま前記濃度値として用いて前記濃度マップを設定する。  Preferably, in (c), the density map is set using the fog value as the density value as it is.

本発明に係る他の態様の画像処理用のプログラムは、記憶手段と演算手段を備えた画像処理装置によって実行され、仮想三次元空間を所定の透視投影面上に透視投影して得られる二次元画像データを生成するプログラムであって、前記演算手段に、(a)前記仮想三次元空間に視点を配置し、この視点に対応して設定される前記透視投影面上に透視投影して基礎画像データを生成し、当該基礎画像データを前記記憶手段に格納するステップと、(b)前記視点の方向を示すカメラベクトルと前記仮想三次元空間内に配置されたオブジェクトのポリゴンの法線ベクトルとの内積値を算出するステップと、(c)前記内積値に基づいて、前記基礎画像データに対応付けられた濃度値を示す濃度マップを設定し、当該濃度マップを前記記憶手段に格納するステップと、(d)テクスチャデータを前記記憶手段から読み出すステップと、(e)前記テクスチャデータを、前記濃度マップによって設定された前記濃度値に応じた割合で前記基礎画像データと合成することによって前記二次元画像データを生成するステップと、を実行させることを特徴とする。ここで、前記テクスチャデータとしては、例えばキャンバス地模様の画像を含むものが用いられる。   A program for image processing according to another aspect of the present invention is executed by an image processing apparatus including a storage unit and a calculation unit, and is obtained by perspective projection of a virtual three-dimensional space on a predetermined perspective projection plane. A program for generating image data, wherein: (a) a viewpoint is arranged in the virtual three-dimensional space, and a perspective image is projected onto the perspective projection plane set corresponding to the viewpoint; Generating data and storing the basic image data in the storage means; and (b) a camera vector indicating the direction of the viewpoint and a normal vector of a polygon of an object arranged in the virtual three-dimensional space. A step of calculating an inner product value; and (c) setting a density map indicating a density value associated with the basic image data based on the inner product value, and storing the density map in the storage means. (D) reading the texture data from the storage means; and (e) combining the texture data with the basic image data at a ratio according to the density value set by the density map. Generating the two-dimensional image data. Here, as the texture data, for example, data including an image of a canvas pattern is used.

好ましくは、前記(c)においては、前記内積値に対して、当該内積値が小さいほど前記濃度値が大きくなり、前記内積値が0のときに前記濃度値が最大値となるようにデータ変換を施し、当該データ変換によって得られた濃度値に基づいて前記濃度マップを設定する。   Preferably, in (c), with respect to the inner product value, the smaller the inner product value, the larger the density value, and when the inner product value is 0, the data conversion is performed so that the density value becomes the maximum value. And the density map is set based on the density value obtained by the data conversion.

本発明に係るコンピュータ読み取り可能な記録媒体は、上記の本発明に係るプログラムを記録した記録媒体である。また、本発明は、以下のように、画像処理装置、画像処理方法のそれぞれとしても表現することができる。   The computer-readable recording medium according to the present invention is a recording medium on which the program according to the present invention is recorded. The present invention can also be expressed as an image processing apparatus and an image processing method as follows.

本発明に係る一態様の画像処理装置は、記憶手段と演算手段を備え、仮想三次元空間を所定の透視投影面上に透視投影して得られる二次元画像データを生成する画像処理装置であって、前記演算手段が、(a)前記仮想三次元空間に視点を配置し、この視点に対応して設定される前記透視投影面上に透視投影して基礎画像データを生成し、当該基礎画像データを前記記憶手段に格納する手段、(b)前記視点の位置と前記仮想三次元空間内に配置されたオブジェクトとの距離に応じて、前記仮想三次元空間の透明度を表すフォグ値を算出する手段、(c)前記フォグ値に基づいて、前記基礎画像データに対応付けられた濃度値を示す濃度マップを設定し、当該濃度マップを前記記憶手段に格納する手段、(d)テクスチャデータを前記記憶手段から読み出す手段、(e)前記テクスチャデータを、前記濃度マップによって設定された前記濃度値に応じた割合で前記基礎画像データと合成することによって前記二次元画像データを生成する手段、の各々として機能することを特徴とする。   An image processing apparatus according to an aspect of the present invention is an image processing apparatus that includes a storage unit and a calculation unit, and generates two-dimensional image data obtained by perspective projection of a virtual three-dimensional space on a predetermined perspective projection plane. The arithmetic means (a) arranges a viewpoint in the virtual three-dimensional space, and performs perspective projection on the perspective projection plane set corresponding to the viewpoint to generate basic image data, and the basic image Means for storing data in the storage means; and (b) calculating a fog value representing the transparency of the virtual three-dimensional space according to the distance between the position of the viewpoint and the object arranged in the virtual three-dimensional space. Means, (c) a density map indicating density values associated with the basic image data is set based on the fog value, and the density map is stored in the storage means; (d) texture data is Memory And (e) means for generating the two-dimensional image data by synthesizing the texture data with the basic image data at a ratio corresponding to the density value set by the density map. It is characterized by doing.

本発明に係る他の態様の画像処理装置は、記憶手段と演算手段を備え、仮想三次元空間を所定の透視投影面上に透視投影して得られる二次元画像データを生成する画像処理装置であって、前記演算手段が、(a)前記仮想三次元空間に視点を配置し、この視点に対応して設定される前記透視投影面上に透視投影して基礎画像データを生成し、当該基礎画像データを前記記憶手段に格納する手段、(b)前記視点の方向を示すカメラベクトルと前記仮想三次元空間内に配置されたオブジェクトのポリゴンの法線ベクトルとの内積値を算出する手段、(c)前記内積値に基づいて、前記基礎画像データに対応付けられた濃度値を示す濃度マップを設定し、当該濃度マップを前記記憶手段に格納する手段、(d)テクスチャデータを前記記憶手段から読み出す手段と、(e)前記テクスチャデータを、前記濃度マップによって設定された前記濃度値に応じた割合で前記基礎画像データと合成することによって前記二次元画像データを生成する手段、の各々として機能することを特徴とする。   An image processing apparatus according to another aspect of the present invention is an image processing apparatus that includes a storage unit and a calculation unit, and generates two-dimensional image data obtained by perspective projection of a virtual three-dimensional space on a predetermined perspective projection plane. The arithmetic means (a) arranges a viewpoint in the virtual three-dimensional space, and performs perspective projection on the perspective projection plane set corresponding to the viewpoint to generate basic image data. Means for storing image data in the storage means; (b) means for calculating an inner product value of a camera vector indicating the direction of the viewpoint and a normal vector of a polygon of an object arranged in the virtual three-dimensional space; c) means for setting a density map indicating density values associated with the basic image data based on the inner product value and storing the density map in the storage means; and (d) texture data stored in the storage means. Means for reading, and (e) means for generating the two-dimensional image data by synthesizing the texture data with the basic image data at a ratio corresponding to the density value set by the density map. It is characterized by doing.

本発明に係る一態様の画像処理方法は、記憶手段と演算手段を備えた画像処理装置において、オブジェクトが配置された仮想三次元空間を所定の透視投影面上に透視投影して得られる二次元画像データを生成する画像処理方法であって、前記演算手段が、(a)前記仮想三次元空間に視点を配置し、この視点に対応して設定される前記透視投影面上に透視投影して基礎画像データを生成し、当該基礎画像データを前記記憶手段に格納するステップと、(b)前記視点の位置と前記仮想三次元空間内に配置されたオブジェクトとの距離に応じて、前記仮想三次元空間の透明度を表すフォグ値を算出するステップと、(c)前記フォグ値に基づいて、前記基礎画像データに対応付けられた濃度値を示す濃度マップを設定し、当該濃度マップを前記記憶手段に格納するステップと、(d)テクスチャデータを前記記憶手段から読み出すステップと、(e)前記テクスチャデータを、前記濃度マップによって設定された前記濃度値に応じた割合で前記基礎画像データと合成することによって前記二次元画像データを生成するステップと、の各々を実行することを特徴とする。  An image processing method according to an aspect of the present invention is a two-dimensional image obtained by perspectively projecting a virtual three-dimensional space in which an object is arranged on a predetermined perspective projection plane in an image processing apparatus including a storage unit and a calculation unit. An image processing method for generating image data, wherein the computing means (a) places a viewpoint in the virtual three-dimensional space, and performs perspective projection on the perspective projection plane set corresponding to the viewpoint. Generating basic image data and storing the basic image data in the storage means; and (b) the virtual tertiary according to a distance between the position of the viewpoint and the object arranged in the virtual three-dimensional space. Calculating a fog value representing the transparency of the original space; and (c) setting a density map indicating a density value associated with the basic image data based on the fog value; Storing in the storage means, (d) reading out the texture data from the storage means, and (e) the basic image data at a ratio according to the density value set by the density map. Generating the two-dimensional image data by synthesizing each of the steps.

本発明に係る他の態様の画像処理方法は、記憶手段と演算手段を備えた画像処理装置において、オブジェクトが配置された仮想三次元空間を所定の透視投影面上に透視投影して得られる二次元画像データを生成する画像処理方法であって、前記演算手段が、(a)前記仮想三次元空間に視点を配置し、この視点に対応して設定される前記透視投影面上に透視投影して基礎画像データを生成し、当該基礎画像データを前記記憶手段に格納するステップと、(b)前記視点の方向を示すカメラベクトルと前記仮想三次元空間内に配置されたオブジェクトのポリゴンの法線ベクトルとの内積値を算出するステップと、(c)前記内積値に基づいて、前記基礎画像データに対応付けられた濃度値を示す濃度マップを設定し、当該濃度マップを前記記憶手段に格納するステップと、(d)テクスチャデータを前記記憶手段から読み出すステップと、(e)前記テクスチャデータを、前記濃度マップによって設定された前記濃度値に応じた割合で前記基礎画像データと合成することによって前記二次元画像データを生成するステップと、の各々を実行することを特徴とする。   An image processing method according to another aspect of the present invention is obtained by perspectively projecting a virtual three-dimensional space in which an object is arranged on a predetermined perspective projection plane in an image processing apparatus including a storage unit and a calculation unit. An image processing method for generating dimensional image data, wherein the computing means (a) arranges a viewpoint in the virtual three-dimensional space and performs perspective projection on the perspective projection plane set corresponding to the viewpoint. Generating basic image data and storing the basic image data in the storage means; (b) a camera vector indicating the direction of the viewpoint and a normal of the polygon of the object arranged in the virtual three-dimensional space Calculating an inner product value with a vector; and (c) setting a density map indicating a density value associated with the basic image data based on the inner product value, and storing the density map in the memory (D) reading texture data from the storage means; and (e) combining the texture data with the basic image data at a rate corresponding to the density value set by the density map. And generating each of the two-dimensional image data.

以下、本発明の実施の形態について説明する。以下では、画像処理装置の一例としてゲーム装置を採り上げる。   Embodiments of the present invention will be described below. In the following, a game device is taken as an example of an image processing device.

(第1の実施形態)
図1は、ゲーム装置の構成を示すブロック図である。図1に示すゲーム装置1は、CPU(Central Processing Unit)10、システムメモリ11、記憶媒体12、ブートロム(BOOT ROM)13、バスアービタ14、GPU(Graphics Processing Unit)16、グラフィックメモリ17、オーディオプロセッサ18、オーディオメモリ19、通信インタフェース(I/F)20、ペリフェラルインターフェース21、を含んで構成されている。すなわち、本実施形態のゲーム装置1は、演算手段(演算部)としてのCPU10及びGPU16、記憶手段(記憶部)としてのシステムメモリ11、記憶媒体12、グラフィックメモリ17及びオーディオメモリ19等を含んで構成される。すなわち、このゲーム装置1は、CPU10を中心として構成されたコンピュータ(コンピュータシステム)を備え、当該コンピュータに所定のプログラムを実行させることによってゲーム装置として機能するものである。具体的には、ゲーム装置1は、ゲーム演出を行うために、仮想三次元空間(ゲーム空間)内を所与の視点(仮想カメラ)から見た二次元画像を順次生成するとともに、効果音などの音声を生成する。
(First embodiment)
FIG. 1 is a block diagram showing the configuration of the game apparatus. 1 includes a CPU (Central Processing Unit) 10, a system memory 11, a storage medium 12, a boot ROM (BOOT ROM) 13, a bus arbiter 14, a GPU (Graphics Processing Unit) 16, a graphic memory 17, and an audio processor 18. , An audio memory 19, a communication interface (I / F) 20, and a peripheral interface 21. That is, the game apparatus 1 of this embodiment includes a CPU 10 and a GPU 16 as calculation means (calculation unit), a system memory 11 as a storage means (storage unit), a storage medium 12, a graphic memory 17, an audio memory 19, and the like. Composed. In other words, the game apparatus 1 includes a computer (computer system) mainly configured by the CPU 10 and functions as a game apparatus by causing the computer to execute a predetermined program. Specifically, the game device 1 sequentially generates a two-dimensional image of a virtual three-dimensional space (game space) viewed from a given viewpoint (virtual camera) and provides sound effects, etc. Generate the voice of

CPU(Central Processing Unit)10は、所定のプログラムを実行することによりゲーム装置1全体を制御する。   A CPU (Central Processing Unit) 10 controls the entire game apparatus 1 by executing a predetermined program.

システムメモリ11は、CPU10が使用するプログラムやデータを格納する。このシステムメモリ11は、例えばDRAM(dynamic random access memory)、SRAM(static random access memory)等の半導体メモリを用いて構成される。   The system memory 11 stores programs and data used by the CPU 10. The system memory 11 is configured using a semiconductor memory such as a DRAM (dynamic random access memory) and an SRAM (static random access memory).

記憶媒体12は、ゲームプログラムや出力する画像や音声などのデータが記録されている。このプログラムデータ用ROMとしての記憶媒体12は、マスクロムやフラッシュロムなどの電気的にデータを読み出せるICメモリや、CD−ROM、DVD−ROMなどの光学的にデータを読み出せる装置と光ディスクまたは磁気ディスク等であっても良い。   The storage medium 12 stores data such as game programs and output images and sounds. The storage medium 12 as the program data ROM includes an IC memory that can electrically read data such as mask chrome and flash ROM, a device that can read data optically such as a CD-ROM and a DVD-ROM, and an optical disk or magnetic disk. It may be a disc or the like.

ブートロム13は、ゲーム装置1を起動させた際に各ブロックを初期化するためのプログラムを格納する。   The boot ROM 13 stores a program for initializing each block when the game apparatus 1 is activated.

バスアービタ14は、各ブロック間でプログラムやデータのやり取りを行うバスを制御する。   The bus arbiter 14 controls a bus for exchanging programs and data between the blocks.

GPU16は、ディスプレイに表示するオブジェクトの仮想三次元空間(ゲーム空間)での位置座標や向きの演算(ジオメトリ演算)と、このオブジェクトの向きや位置座標等に基づいてディスプレイに出力する画像を生成する処理(レンダリング処理)を行う。   The GPU 16 generates an image to be output to the display based on the calculation of the position coordinates and orientation (geometry calculation) of the object displayed on the display in the virtual three-dimensional space (game space) and the orientation and position coordinates of the object. Perform processing (rendering processing).

グラフィックメモリ17は、GPU16に接続されており、画像を生成するためのデータやコマンドなど格納する。このグラフィックメモリ17は、例えばDRAM(dynamic random access memory)、SRAM(static random access memory)等の半導体メモリを用いて構成される。グラフィックメモリ17は、フレームバッファ、テクスチャバッファ等、画像生成時に使用される各種バッファとしての機能を果たす。   The graphic memory 17 is connected to the GPU 16 and stores data and commands for generating an image. The graphic memory 17 is configured using a semiconductor memory such as a DRAM (dynamic random access memory) or an SRAM (static random access memory). The graphic memory 17 functions as various buffers used during image generation, such as a frame buffer and a texture buffer.

オーディオプロセッサ18は、スピーカから音声出力を行うためのデータを生成する。このオーディオプロセッサ18によって生成された音声データが図示しないデジタル/アナログ変換器によってアナログ信号に変換され、スピーカに入力されることにより、スピーカから音声出力がなされる。   The audio processor 18 generates data for outputting sound from the speaker. The audio data generated by the audio processor 18 is converted into an analog signal by a digital / analog converter (not shown) and input to the speaker, so that the speaker outputs audio.

オーディオメモリ19は、オーディオプロセッサ18に構成されており、音声を生成するためのデータやコマンドなど格納する。このオーディオメモリ19は、例えばDRAM(dynamic random access memory)、SRAM(static random access memory)等の半導体メモリを用いて構成される。   The audio memory 19 is configured in the audio processor 18 and stores data and commands for generating sound. The audio memory 19 is configured using a semiconductor memory such as a DRAM (dynamic random access memory) or an SRAM (static random access memory).

通信インタフェース(I/F)20は、ゲーム装置1が他のゲーム装置やサーバ装置等との間でデータ通信の必要がある場合における通信処理を行う。   The communication interface (I / F) 20 performs communication processing when the game apparatus 1 needs to perform data communication with other game apparatuses, server apparatuses, and the like.

ペリフェラルインターフェース(I/F)21は、外部からのデータ入出力を行うインターフェースが組み込まれており、ここに周辺装置としてのペリフェラルが接続される。ここで、ペリフェラルには、マウス(ポインティングデバイス)やキーボード、ゲーム用コントローラ等のキー操作のためのスイッチ、及びタッチペンの他、プログラムの途中経過や生成したデータを保存するバックアップメモリ、表示装置、撮影装置等、画像処理装置本体あるいは他のペリフェラルに接続可能なものが含まれる。   The peripheral interface (I / F) 21 incorporates an interface for inputting and outputting data from the outside, and a peripheral as a peripheral device is connected thereto. Here, peripherals include a mouse (pointing device), a keyboard, switches for key operations such as a game controller, and a touch pen, as well as a backup memory for storing program progress and generated data, a display device, and shooting. And devices that can be connected to the image processing apparatus main body or other peripherals.

なお、システムメモリ11、グラフィックメモリ17、サウンドメモリ19は、1つのメモリをバスアービタ14に接続して各機能で共通に使用するようにしてもよい。また各機能ブロックも機能として存在すればよく、機能ブロック同士が統合されていても、また、機能ブロック内部の各構成要素が他のブロックとして分離されていても良い。   The system memory 11, the graphic memory 17, and the sound memory 19 may be connected to the bus arbiter 14 and used in common for each function. Moreover, each functional block should just exist as a function, and functional blocks may be integrated, and each component inside a functional block may be isolate | separated as another block.

本実施形態に係るゲーム装置は以上のような構成を備えており、次に本実施形態の画像生成処理の内容について説明する。   The game device according to the present embodiment has the above-described configuration. Next, the contents of the image generation processing of the present embodiment will be described.

図2は、仮想三次元空間に配置されたオブジェクト(仮想物体)、光源、視点のそれぞれについて示した概念図である。オブジェクト300は、1つ又は複数のポリゴンを用いて形作られた仮想的な物体である。このオブジェクト300は、例えば人間や動物などの生物、あるいは建物、車、その他の無生物など、仮想三次元空間に配置可能なあらゆる仮想的な物をいう。仮想三次元空間は、相互に直交する3つの軸(XYZ)で規定されたワールド座標系によって表現される。また、オブジェクト300は、例えばワールド座標系とは別個のオブジェクト座標系によって表現される。光源302は、仮想三次元空間内の任意位置に配置される。この光源302は、例えば無限遠光源である。光源302の位置、方向、強さはライトベクトルLで表現される。本実施形態では、ライトベクトルLの長さ(換言すれば光強度)は1に正規化されている。視点(仮想カメラ)304は、視点の位置(ワールド座標系における座標)と視線方向で定義され、カメラベクトルCで表現される。   FIG. 2 is a conceptual diagram showing each of an object (virtual object), a light source, and a viewpoint arranged in a virtual three-dimensional space. The object 300 is a virtual object formed using one or a plurality of polygons. The object 300 refers to any virtual object that can be placed in a virtual three-dimensional space, such as a living thing such as a human being or an animal, or a building, a car, or another inanimate object. The virtual three-dimensional space is expressed by a world coordinate system defined by three axes (XYZ) orthogonal to each other. The object 300 is represented by an object coordinate system that is different from the world coordinate system, for example. The light source 302 is disposed at an arbitrary position in the virtual three-dimensional space. This light source 302 is, for example, an infinite light source. The position, direction, and intensity of the light source 302 are expressed by a light vector L. In the present embodiment, the length of the light vector L (in other words, the light intensity) is normalized to 1. The viewpoint (virtual camera) 304 is defined by the viewpoint position (coordinates in the world coordinate system) and the line-of-sight direction, and is represented by a camera vector C.

次に、本実施形態のゲーム装置によって実行される画像処理の内容についてフローチャート等を用いて説明する。本実施形態の画像処理の全体の流れとしては、オブジェクト300、視点304、光源302を配置したうえで(図2参照)、レンダリング処理(座標変換、クリッピング、透視投影変換、陰面消去、シェーディング、シャドウイング、テクスチャマッピング等)が行われ、更に以下に示すキャンバス地の表現に関する処理が行われる。なお、以下に説明する処理は、その結果に矛盾を生じない限りにおいて、処理順序を入れ替えることや、各処理を並行して行うことが可能である。   Next, the contents of image processing executed by the game device of the present embodiment will be described using a flowchart and the like. The overall image processing flow of the present embodiment includes an object 300, a viewpoint 304, and a light source 302 (see FIG. 2), and rendering processing (coordinate conversion, clipping, perspective projection conversion, hidden surface removal, shading, shadowing). , Texture mapping, etc.), and the following processing relating to the canvas representation is performed. Note that the processing described below can change the processing order or perform each processing in parallel as long as the results do not contradict each other.

図3は、第1の実施形態のゲーム装置によって実行される画像処理の流れを示すフローチャートである。   FIG. 3 is a flowchart showing a flow of image processing executed by the game device of the first embodiment.

CPU10は、システムメモリ11から読み出したデータに基づいて、複数のポリゴンを組み合わせて構成されるオブジェクト(ポリゴンモデル)を仮想三次元空間内に配置する(ステップS10)。   Based on the data read from the system memory 11, the CPU 10 arranges an object (polygon model) configured by combining a plurality of polygons in the virtual three-dimensional space (step S10).

また、CPU10により光源の設定、視点が設定され、これに対応してGPU16により基礎画像データが生成される(ステップS11)。視点の位置は、例えばプレイヤが操作するオブジェクトの後方、一定距離の位置に設定される。光源の位置は、例えば所定位置に固定されていたり、あるいは時間経過と共に移動したりする。GPU16は、光源、視点の各設定に対応し、座標変換、クリッピング、透視投影変換、陰面消去等の各処理(レンダリング処理)を行う。これにより、オブジェクトが配置された仮想三次元空間を透視投影面上に透視投影した画像が得られる。本実施形態では、この画像のデータを「基礎画像データ」と呼ぶ。この基礎画像データは、グラフィックメモリ17内に設定されるフレームバッファ(第1記憶領域)に格納される。図4は、基礎画像データの一例を模式的に示す図である。図4に示す基礎画像データには、人物画像400と、建物画像402と、樹木画像404と、遠景画像406と、が含まれる。なお、各オブジェクト(人物、建物、樹木、遠景)には適宜テクスチャマッピングがなされるが、ここでは説明の便宜上その表現を省略する。   The CPU 10 sets the light source and the viewpoint, and the basic image data is generated by the GPU 16 correspondingly (step S11). The position of the viewpoint is set, for example, at a certain distance behind the object operated by the player. The position of the light source is fixed at a predetermined position, for example, or moves with time. The GPU 16 performs each process (rendering process) such as coordinate conversion, clipping, perspective projection conversion, hidden surface removal, etc., corresponding to each setting of the light source and the viewpoint. Thereby, an image obtained by perspective projection of the virtual three-dimensional space in which the object is arranged on the perspective projection plane is obtained. In the present embodiment, this image data is referred to as “basic image data”. The basic image data is stored in a frame buffer (first storage area) set in the graphic memory 17. FIG. 4 is a diagram schematically illustrating an example of basic image data. The basic image data shown in FIG. 4 includes a person image 400, a building image 402, a tree image 404, and a distant view image 406. Note that texture mapping is appropriately performed on each object (person, building, tree, distant view), but the expression is omitted here for convenience of explanation.

次に、GPU16は、記憶媒体12から読み出したデータに基づいて、濃度マップを設定する(ステップS12)。濃度マップとは、上記の基礎画像データ中の少なくとも一部の領域に対応付けられた濃度値を示すデータである。設定された濃度マップはグラフィックメモリ17内に設定されたテクスチャバッファ(第2記憶領域)に格納される。   Next, the GPU 16 sets a density map based on the data read from the storage medium 12 (step S12). The density map is data indicating density values associated with at least a part of the basic image data. The set density map is stored in a texture buffer (second storage area) set in the graphic memory 17.

図5は、濃度マップの内容を視覚的に表現した図である。図5においては、基礎画像データの外縁側に対応付けて設けられた環状領域410が色付けして示されている。本例では、濃度マップはこの環状領域410に対応付けられた濃度値を示すものである。具体的には、濃度値は、例えば0.0〜1.0の数値範囲内で設定される。濃度値0.0が非透過(不透明)、濃度値1.0が全透過(透明)、それらの中間は一部透過(半透明)ということになる。濃度値は、例えば各ピクセルごとに設定される。図5において色付けされた領域において、この濃度値は、全てのピクセルに対して一定値に設定されてもよいし、ピクセルの位置によって異なる値に設定されてもよい。記憶媒体12には、例えば、基礎画像データと同一のサイズを有し、各ピクセルごとに0.0〜1.0の濃度値が設定された二次元データが予め格納される。この場合、図5において色付けされた環状領域410の内側にある色づけのない領域412(白色で示された領域)については、例えばこの領域内の各ピクセルの濃度値が全て0.0に設定される。このような二次元データを読み出すことにより、図5に示すような濃度マップを設定することができる。   FIG. 5 is a diagram visually representing the contents of the density map. In FIG. 5, an annular region 410 provided in association with the outer edge side of the basic image data is shown in color. In this example, the density map shows density values associated with the annular area 410. Specifically, the density value is set within a numerical range of 0.0 to 1.0, for example. A density value of 0.0 is non-transparent (opaque), a density value of 1.0 is fully transmissive (transparent), and a middle part thereof is partially transmissive (semi-transparent). The density value is set for each pixel, for example. In the region colored in FIG. 5, this density value may be set to a constant value for all pixels, or may be set to a different value depending on the position of the pixel. In the storage medium 12, for example, two-dimensional data having the same size as the basic image data and in which a density value of 0.0 to 1.0 is set for each pixel is stored in advance. In this case, for an uncolored area 412 (area shown in white) inside the colored annular area 410 in FIG. 5, for example, the density value of each pixel in this area is set to 0.0. The By reading out such two-dimensional data, a density map as shown in FIG. 5 can be set.

次に、GPU16は、記憶媒体12からテクスチャデータを読み出す(ステップS13)。図6は、テクスチャデータの一例を説明する図である。テクスチャデータは、任意の模様を含む画像データである。本実施形態では、テクスチャデータは、キャンバス地の模様を表現するために適した画像を含む。例えば、図示のように、布目を模した模様を含んだ画像である。   Next, the GPU 16 reads texture data from the storage medium 12 (step S13). FIG. 6 is a diagram for explaining an example of texture data. The texture data is image data including an arbitrary pattern. In the present embodiment, the texture data includes an image suitable for expressing a canvas pattern. For example, as shown in the figure, the image includes a pattern imitating a texture.

次に、GPU16は、ステップS13において読み出したテクスチャデータを、ステップS12において設定した濃度マップによって設定された濃度値に応じた割合で基礎画像データと合成することにより、二次元画像データを生成する(ステップS14)。生成された二次元画像データはグラフィックメモリ17内に設定されたフレームバッファに格納される。   Next, the GPU 16 generates two-dimensional image data by synthesizing the texture data read in step S13 with the basic image data at a ratio corresponding to the density value set by the density map set in step S12 ( Step S14). The generated two-dimensional image data is stored in a frame buffer set in the graphic memory 17.

図7は、濃度値に応じた割合で合成されるテクスチャの様子を説明する図である。「濃度値に応じた割合で合成する」とは、例えば濃度値が0.5であれば、上記した環状領域410において、テクスチャデータが50%、基礎画像データが50%の比率で両者が混合されるという意味である。この場合、図7に示すように、テクスチャは元々の濃度値(図6参照)よりも低い濃度値となる。このようにしてテクスチャデータと基礎画像データとを合成した様子を示したのが図8である。基礎画像データの周縁の環状領域410においてテクスチャデータが合成されている。濃度値に応じた割合で基礎画像が透過し、テクスチャも半透明化されている。テクスチャをより濃く表示したい場合には、濃度値を1.0に近づければよい。それにより、基礎画像の透過の度合いが低減し、テクスチャがより濃く表示されるため、塗り残された雰囲気をより強調することができる。なお、濃度値を1.0にした場合には、テクスチャデータが100%、基礎画像データが0%の比率で混合されるので、結果として基礎画像は透過せず、テクスチャのみが表示されることになる。その場合には、環状領域410における塗り残し感が最も強調される。一方、テクスチャをより薄く表示したい場合には、濃度値を0.0に近づければよい。それにより、基礎画像の透過の度合いが増加し、テクスチャがより薄く表示されるため、塗り残された雰囲気が弱まる。すなわち、濃度値を適宜設定することにより、キャンバス地を含むテクスチャデータの基礎画像データに対する混合比率を制御し、塗り残し感を自在にコントロールすることができる。また、濃度値を一定値ではなくピクセル毎に細かく設定しておくことにより、塗り残し感をより繊細に表現することができる。また、図3に示した処理を所定タイミングごとに繰り返すことにより、塗り残し感が各シーンに合わせて随時変化する動画を生成することが可能となる。   FIG. 7 is a diagram for explaining the state of the texture synthesized at a rate according to the density value. For example, if the density value is 0.5, “combine at a ratio according to the density value” means that both are mixed in the annular area 410 at a ratio of 50% texture data and 50% basic image data. It means that In this case, as shown in FIG. 7, the texture has a density value lower than the original density value (see FIG. 6). FIG. 8 shows a state in which texture data and basic image data are combined in this way. Texture data is synthesized in the annular region 410 at the periphery of the basic image data. The basic image is transmitted at a rate corresponding to the density value, and the texture is also translucent. If it is desired to display the texture darker, the density value may be close to 1.0. Thereby, since the degree of transmission of the basic image is reduced and the texture is displayed darker, the unpainted atmosphere can be more emphasized. When the density value is 1.0, the texture data is mixed at a ratio of 100% and the basic image data is 0%. As a result, the basic image is not transmitted and only the texture is displayed. become. In that case, the unpainted feeling in the annular region 410 is most emphasized. On the other hand, when it is desired to display the texture lighter, the density value may be close to 0.0. Thereby, the degree of transmission of the basic image is increased and the texture is displayed lighter, so that the unpainted atmosphere is weakened. That is, by appropriately setting the density value, the mixing ratio of the texture data including the canvas to the basic image data can be controlled, and the unpainted feeling can be freely controlled. Further, by setting the density value finely for each pixel instead of a constant value, it is possible to express the feeling of unpainted more delicately. In addition, by repeating the process shown in FIG. 3 at every predetermined timing, it is possible to generate a moving image in which the feeling of unpainted changes at any time according to each scene.

なお、本実施形態においては、「基礎画像データ中の一部の領域」の一例として上記の環状領域を挙げていたが、領域の設定の仕方はこれに限定されるものではない。また、テクスチャデータに含まれる模様も図6に示したものは一例であり、これのみに限定されない。   In the present embodiment, the above-described annular area is given as an example of “part of the area in the basic image data”, but the method of setting the area is not limited to this. Further, the patterns included in the texture data shown in FIG. 6 are merely examples, and are not limited thereto.

(第2の実施形態)
本発明に係る第2の実施形態について説明する。本実施形態に係るゲーム装置の構成(図1参照)、仮想三次元空間に配置されたオブジェクト、光源、視点の関係(図2参照)、画像処理の全体の流れ(レンダリング処理)については上記した第1の実施形態の場合と同様であるためここでは説明を省略する。以下に、キャンバス地の表現に関する処理について説明する。なお、以下に説明する処理は、その結果に矛盾を生じない限りにおいて、処理順序を入れ替えることや、各処理を並行して行うことが可能である。
(Second Embodiment)
A second embodiment according to the present invention will be described. The configuration of the game device according to the present embodiment (see FIG. 1), the relationship between the objects arranged in the virtual three-dimensional space, the light source, the viewpoint (see FIG. 2), and the overall flow of image processing (rendering processing) are described above. Since it is the same as that of the case of 1st Embodiment, description is abbreviate | omitted here. Hereinafter, processing relating to the expression of the canvas will be described. Note that the processing described below can change the processing order or perform each processing in parallel as long as the results do not contradict each other.

図9は、第2の実施形態のゲーム装置によって実行される画像処理の流れを示すフローチャートである。なお、第1の実施形態と重複する事項については適宜記載を省略する。   FIG. 9 is a flowchart showing a flow of image processing executed by the game device of the second embodiment. Note that the description overlapping with the first embodiment is omitted as appropriate.

CPU10は、システムメモリ11から読み出したデータに基づいて、複数のポリゴンを組み合わせて構成されるオブジェクト(ポリゴンモデル)を仮想三次元空間内に配置する(ステップS20)。   Based on the data read from the system memory 11, the CPU 10 arranges an object (polygon model) configured by combining a plurality of polygons in the virtual three-dimensional space (step S20).

また、CPU10により光源の設定、視点が設定され、これに対応してGPU16により基礎画像データが生成される(ステップS21)。ステップS21における処理の詳細は上記した第1の実施形態におけるステップS11と同様である。ここで得られた基礎画像データ(図4参照)は、グラフィックメモリ17内に設定されるフレームバッファ(第1記憶領域)に格納される。   The CPU 10 sets the light source and the viewpoint, and the basic image data is generated by the GPU 16 correspondingly (step S21). Details of the processing in step S21 are the same as those in step S11 in the first embodiment described above. The basic image data (see FIG. 4) obtained here is stored in a frame buffer (first storage area) set in the graphic memory 17.

次に、CPU10は、システムメモリ11から読み出したデータに基づいて、濃度値が関連付けられた半透明モデルを仮想三次元空間内に配置する(ステップS22)。図10は、ステップS22の処理内容を説明する模式図である。上記したように、オブジェクト300、光源302、視点304が設定された仮想三次元空間内に半透明モデル306を配置する。この半透明モデルは、例えば1つ又は幾つかのポリゴンを用いて構成されている。各ポリゴンには、R,G,Bの各色の情報と、付加情報としてのα値(アルファ値)を設定可能である。本実施形態では、付加情報であるα値として濃度値を設定する。濃度値は、例えば0.0〜1.0の数値範囲内で設定される。濃度値0.0が非透過(不透明)、濃度値1.0が全透過(透明)、それらの中間は一部透過(半透明)ということになる。α値を利用することにより、濃度値が関連付けられた半透明モデルを用意することができる。なお、α値を用いる手法は濃度値を半透明モデルに関連付ける手法の一例に過ぎない。   Next, the CPU 10 arranges the translucent model associated with the density value in the virtual three-dimensional space based on the data read from the system memory 11 (step S22). FIG. 10 is a schematic diagram for explaining the processing content of step S22. As described above, the translucent model 306 is arranged in the virtual three-dimensional space in which the object 300, the light source 302, and the viewpoint 304 are set. This translucent model is configured by using, for example, one or several polygons. For each polygon, it is possible to set information of each color of R, G, and B and an α value (alpha value) as additional information. In the present embodiment, a density value is set as an α value that is additional information. The density value is set within a numerical range of 0.0 to 1.0, for example. A density value of 0.0 is non-transparent (opaque), a density value of 1.0 is fully transmissive (transparent), and a middle part thereof is partially transmissive (semi-transparent). By using the α value, it is possible to prepare a translucent model in which density values are associated. Note that the method using the α value is merely an example of a method for associating the density value with the semi-transparent model.

ここで、図10に示したように、半透明モデル306の位置は所定の処理タイミング(例えば、動画生成における各フレーム)に連動して随時変更して設定することができる。それにより、例えば風が吹いている際の様子をキャンバス地によって表現することができる。その画像例は後述する。   Here, as shown in FIG. 10, the position of the translucent model 306 can be changed and set at any time in conjunction with a predetermined processing timing (for example, each frame in moving image generation). Thereby, for example, the state when the wind is blowing can be expressed by the canvas. An example of the image will be described later.

次に、GPU16は、ステップS22において仮想三次元空間内に配置された半透明モデルをレンダリングすることにより、濃度マップを設定する(ステップS23)。図11は、ステップS23において設定される濃度マップを視覚的に表現したものである。図11において、色付けして表されている領域に濃度マップが設定されている。具体的には、レンダリングにより、半透明モデルの形状に対応して、上記の基礎画像データの一部の領域414(図示の例では楕円状の領域)が画定され、この一部の領域に対応付けられた濃度値が指定される。設定された濃度マップはグラフィックメモリ17内に設定されたテクスチャバッファ(第2記憶領域)に格納される。   Next, the GPU 16 sets a density map by rendering the translucent model arranged in the virtual three-dimensional space in step S22 (step S23). FIG. 11 is a visual representation of the density map set in step S23. In FIG. 11, a density map is set in a region represented by coloring. Specifically, the rendering defines a partial area 414 (in the illustrated example, an elliptical area) of the basic image data corresponding to the shape of the translucent model, and corresponds to this partial area. The assigned density value is specified. The set density map is stored in a texture buffer (second storage area) set in the graphic memory 17.

次に、GPU16は、記憶媒体12からテクスチャデータを読み出す(ステップS24)。テクスチャデータの一例は上記した図6に示した通りである。   Next, the GPU 16 reads texture data from the storage medium 12 (step S24). An example of the texture data is as shown in FIG.

次に、GPU16は、ステップS24において読み出したテクスチャデータを、ステップS23において設定した濃度マップによって設定された濃度値に応じた割合で基礎画像データと合成することにより、二次元画像データを生成する(ステップS25)。生成された二次元画像データはグラフィックメモリ17内に設定されたフレームバッファに格納される。   Next, the GPU 16 generates two-dimensional image data by combining the texture data read in step S24 with the basic image data at a ratio corresponding to the density value set by the density map set in step S23 ( Step S25). The generated two-dimensional image data is stored in a frame buffer set in the graphic memory 17.

図12は、濃度値に応じた割合でテクスチャデータと基礎画像データとを合成した様子を示した図である。基礎画像データの中央付近の一部の領域414においてテクスチャが合成されている。濃度値に応じた割合で基礎画像が透過し、テクスチャも半透明化されている。テクスチャをより濃く表示したい場合には、濃度値を1.0に近づければよい。それにより、基礎画像の透過の度合いが低減し、テクスチャがより濃く表示されるため、塗り残された雰囲気をより強調することができる。なお、濃度値を1.0にした場合には、テクスチャデータが100%、基礎画像データが0%の比率で混合されるので、結果として基礎画像は透過せず、テクスチャのみが表示されることになる。その場合には、一部領域414における塗り残し感が最も強調される。一方、テクスチャをより薄く表示したい場合には、濃度値を0.0に近づければよい。それにより、基礎画像の透過の度合いが増加し、テクスチャがより薄く表示されるため、塗り残された雰囲気が弱まる。すなわち、濃度値を適宜設定することにより、キャンバス地を含むテクスチャデータの基礎画像データに対する混合比率を制御し、塗り残し感を自在にコントロールすることができる。また、図9に示した処理を所定タイミングごとに繰り返すことにより、塗り残し感が各シーンに合わせて随時変化する動画を生成することが可能となる。   FIG. 12 is a diagram illustrating a state in which texture data and basic image data are synthesized at a ratio according to the density value. A texture is synthesized in a partial region 414 near the center of the basic image data. The basic image is transmitted at a rate corresponding to the density value, and the texture is also translucent. If it is desired to display the texture darker, the density value may be close to 1.0. Thereby, since the degree of transmission of the basic image is reduced and the texture is displayed darker, the unpainted atmosphere can be more emphasized. When the density value is 1.0, the texture data is mixed at a ratio of 100% and the basic image data is 0%. As a result, the basic image is not transmitted and only the texture is displayed. become. In that case, the unpainted feeling in the partial region 414 is most emphasized. On the other hand, when it is desired to display the texture lighter, the density value may be close to 0.0. Thereby, the degree of transmission of the basic image is increased and the texture is displayed lighter, so that the unpainted atmosphere is weakened. That is, by appropriately setting the density value, the mixing ratio of the texture data including the canvas to the basic image data can be controlled, and the unpainted feeling can be freely controlled. Further, by repeating the processing shown in FIG. 9 at every predetermined timing, it is possible to generate a moving image in which the feeling of unpainted changes at any time according to each scene.

図13は、半透明モデルの位置を随時移動させた場合の表示イメージを説明する図である。図13に示すように、半透明モデルの仮想三次元空間上の位置座標や濃度値を随時変化させるデータをシステムメモリ11や記憶媒体12から読み込むことにより、動画中で塗り残し部分の移動や濃度変化する様子を表現することができる。この表現は、例えば風が流れる様子を表すのに適している。   FIG. 13 is a diagram for explaining a display image when the position of the translucent model is moved as needed. As shown in FIG. 13, by reading from the system memory 11 or the storage medium 12 data that changes the position coordinates and density values of the translucent model in the virtual three-dimensional space as needed, the movement and density of the unpainted part in the moving image It is possible to express changes. This expression is suitable for representing, for example, how the wind flows.

なお、第1の実施形態における第1処理(図3;ステップS13)と、第2の実施形態における第2処理(図9;ステップS22,S23)と、を併せて実行することにより、両者による効果を併せ持つ表現が可能となる(図14参照)。   Note that the first process (FIG. 3; step S13) in the first embodiment and the second process (FIG. 9; steps S22 and S23) in the second embodiment are executed together, thereby both. An expression having both effects is possible (see FIG. 14).

(第3の実施形態)
本発明に係る第3の実施形態について説明する。本実施形態に係るゲーム装置の構成(図1参照)、仮想三次元空間に配置されたオブジェクト、光源、視点の関係(図2参照)、画像処理の全体の流れ(レンダリング処理)については上記した第1の実施形態の場合と同様であるためここでは説明を省略する。以下に、キャンバス地の表現に関する処理について説明する。なお、以下に説明する処理は、その結果に矛盾を生じない限りにおいて、処理順序を入れ替えることや、各処理を並行して行うことが可能である。
(Third embodiment)
A third embodiment according to the present invention will be described. The configuration of the game device according to the present embodiment (see FIG. 1), the relationship between the objects arranged in the virtual three-dimensional space, the light source, the viewpoint (see FIG. 2), and the overall flow of image processing (rendering processing) are described above. Since it is the same as that of the case of 1st Embodiment, description is abbreviate | omitted here. Hereinafter, processing relating to the expression of the canvas will be described. Note that the processing described below can change the processing order or perform each processing in parallel as long as the results do not contradict each other.

図15は、第3の実施形態のゲーム装置によって実行される画像処理の流れを示すフローチャートである。なお、上記の各実施形態と重複する事項については適宜記載を省略する。   FIG. 15 is a flowchart illustrating a flow of image processing executed by the game device of the third embodiment. In addition, about the matter which overlaps with said each embodiment, description is abbreviate | omitted suitably.

CPU10は、システムメモリ11から読み出したデータに基づいて、複数のポリゴンを組み合わせて構成されるオブジェクト(ポリゴンモデル)を仮想三次元空間内に配置する(ステップS30)。   Based on the data read from the system memory 11, the CPU 10 arranges an object (polygon model) configured by combining a plurality of polygons in the virtual three-dimensional space (step S30).

また、CPU10により光源の設定、視点が設定され、これに対応してGPU16により基礎画像データが生成される(ステップS31)。ステップS31における処理の詳細は上記した第1の実施形態におけるステップS11と同様である。ここで得られた基礎画像データ(図4参照)は、グラフィックメモリ17内に設定されるフレームバッファ(第1記憶領域)に格納される。   Further, the CPU 10 sets the light source and the viewpoint, and the basic image data is generated by the GPU 16 correspondingly (step S31). Details of the processing in step S31 are the same as those in step S11 in the first embodiment described above. The basic image data (see FIG. 4) obtained here is stored in a frame buffer (first storage area) set in the graphic memory 17.

次に、GPU16は、視点の位置(カメラ位置;図2参照)とオブジェクトとの距離に応じたフォグ値を算出する(ステップS32)。より詳細には、例えば、各オブジェクトを構成するポリゴンの頂点と視点との距離が算出され、この算出された距離に応じてフォグ値が算出される。ここで「フォグ」とは、仮想三次元空間内における霧を表現(シミュレート)したものであり、より具体的には空間の透明度を表す。   Next, the GPU 16 calculates a fog value corresponding to the distance between the viewpoint position (camera position; see FIG. 2) and the object (step S32). More specifically, for example, the distance between the vertexes of the polygons forming each object and the viewpoint is calculated, and the fog value is calculated according to the calculated distance. Here, “fog” represents (simulates) fog in a virtual three-dimensional space, and more specifically represents the transparency of the space.

フォグ値について図16を用いて説明する。フォグ値は、例えば0.0〜1.0の数値範囲を有するパラメータである。オブジェクトと視点との距離が近いほどフォグ値は大きくなり、フォグ値=1.0のときはフォグが全くかからない状態となる。すなわち、透明度が高くなる。逆に、オブジェクトと視点との距離が遠いほどフォグ値は小さくなり、フォグ値=0.0のときはフォグが完全にかかった状態となる。すなわち、透明度が低くなる。図16(A)に示す例においては、距離があるしきい値Lthよりも小さいときは一律にフォグ値=1.0となり、距離がしきい値Lth以上となったときには、距離が遠くなるのに応じてフォグ値が小さくなり、ある距離となったときにフォグ値=0.0となる。このとき、距離とフォグ値との関係は図16(A)においては線形に変化するが、このほか、図16(B)や図16(C)に示すように非線形に変化してもよい。例えば、図16(B)に示す例では、距離の増加に対してフォグ値が比較的緩やかに減少し、距離がある程度遠くなるとフォグ値が急激に減少する。また、図16(C)に示す例では、距離の増加に対してフォグ値が比較的急激に減少し、距離がある程度遠くなるとフォグ値の減少度合いが緩やかになる。なお、距離についてのしきい値Lthは任意の事項であり、必ずしも設定しなくてもよい。しきい値Lthを設定することにより、ある程度視点から近いオブジェクト(例えば、人物キャラクタなどの中心的な描画対象)についてはフォグが一切かからないようにすることができる。 The fog value will be described with reference to FIG. The fog value is a parameter having a numerical value range of 0.0 to 1.0, for example. As the distance between the object and the viewpoint is shorter, the fog value becomes larger. When the fog value = 1.0, the fog is not applied at all. That is, the transparency is increased. Conversely, the fog value decreases as the distance between the object and the viewpoint increases, and when the fog value = 0.0, the fog is completely applied. That is, the transparency is lowered. In the example shown in FIG. 16A, when the distance is smaller than a certain threshold value L th , the fog value is uniformly 1.0, and when the distance is greater than or equal to the threshold value L th , the distance is long. As a result, the fog value decreases, and when a certain distance is reached, the fog value = 0.0. At this time, the relationship between the distance and the fog value changes linearly in FIG. 16A, but may also change nonlinearly as shown in FIGS. 16B and 16C. For example, in the example shown in FIG. 16B, the fog value decreases relatively slowly as the distance increases, and the fog value decreases abruptly when the distance increases to some extent. In the example shown in FIG. 16C, the fog value decreases relatively rapidly as the distance increases, and the degree of decrease in the fog value becomes milder as the distance increases to some extent. Note that the threshold value L th for the distance is an arbitrary matter and need not be set. By setting the threshold value L th , it is possible to prevent fog from being applied to an object (for example, a central drawing target such as a human character) that is close to a certain point of view.

次に、GPU16は、ステップS32において算出したフォグ値に基づいて濃度マップを設定する(ステップS33)。本実施形態は、ステップS32において算出したフォグ値を1.0から減算した値(1.0−フォグ値)を濃度値として用いる。なお、所定の定数を乗算する等、適宜フォグ値を調整して濃度値としてもよい。このフォグ値に基づいて設定された濃度マップはグラフィックメモリ17内に設定されたテクスチャバッファ(第2記憶領域)に格納される。   Next, the GPU 16 sets a density map based on the fog value calculated in step S32 (step S33). In the present embodiment, a value obtained by subtracting the fog value calculated in step S32 from 1.0 (1.0−fog value) is used as the density value. Note that the fog value may be appropriately adjusted to obtain the density value, such as by multiplying a predetermined constant. The density map set based on the fog value is stored in a texture buffer (second storage area) set in the graphic memory 17.

図17は、ステップS33において設定される濃度マップを視覚的に表現したものである。図17において、グレースケールで色付けして表されている領域に濃度マップが設定されている。色が濃い領域ほど濃度値が大きいことを意味している。   FIG. 17 is a visual representation of the density map set in step S33. In FIG. 17, a density map is set in a region represented by coloring in a gray scale. This means that the darker the region, the higher the density value.

次に、GPU16は、記憶媒体12からテクスチャデータを読み出す(ステップS34)。テクスチャデータの一例は上記した図6に示した通りである。   Next, the GPU 16 reads texture data from the storage medium 12 (step S34). An example of the texture data is as shown in FIG.

次に、GPU16は、ステップS34において読み出したテクスチャデータを、ステップS33において設定した濃度マップによって設定された濃度値に応じた割合で基礎画像データと合成することにより、二次元画像データを生成する(ステップS35)。生成された二次元画像データはグラフィックメモリ17内に設定されたフレームバッファに格納される。   Next, the GPU 16 generates two-dimensional image data by combining the texture data read in step S34 with the basic image data at a ratio corresponding to the density value set by the density map set in step S33 ( Step S35). The generated two-dimensional image data is stored in a frame buffer set in the graphic memory 17.

図18は、濃度値に応じた割合でテクスチャデータと基礎画像データとを合成した様子を示した図である。各オブジェクト(人物、建物、樹木、遠景)と視点との距離に応じてフォグ値が算出され、これに基づいて濃度マップが設定されたことにより、人物画像400、建物画像402、樹木画像404、遠景画像406のそれぞれについて、濃度値に応じた割合で基礎画像が透過し、テクスチャも半透明化されている。視点からの距離が遠いオブジェクトに対応する画像ほどテクスチャの透過度合いが大きい、すなわちテクスチャがより濃く見える状態となり(例えば、遠景画像406を参照)、視点からの距離が近いオブジェクトに対応する画像ほどテクスチャの透過度合いが小さい、すなわちテクスチャがより薄く見える状態となっていることが分かる(例えば、人物画像400を参照)。このように、フォグ値を利用して濃度マップを設定することにより、視点からの距離に応じてキャンバス地を含むテクスチャデータの基礎画像データに対する混合比率を制御し、塗り残し感を演出することができる。これは、実際の水彩画等においても、近くにあるものほどより繊細に表現されるため塗り残し感が少なく、遠くにあるものほど塗り残し感が多くなるという一般的な傾向に合致する表現となる。また、図15に示した処理を所定タイミングごとに繰り返すことにより、塗り残し感が各シーンに合わせて随時変化する動画を生成することが可能となる。   FIG. 18 is a diagram showing a state in which texture data and basic image data are synthesized at a ratio according to the density value. A fog value is calculated according to the distance between each object (person, building, tree, distant view) and viewpoint, and a density map is set based on the calculated fog value, so that a person image 400, a building image 402, a tree image 404, For each distant view image 406, the basic image is transmitted at a rate corresponding to the density value, and the texture is also translucent. Images that correspond to objects that are farther from the viewpoint have a higher degree of texture transparency, that is, the texture appears to be darker (see, for example, the distant view image 406), and images that correspond to objects that are closer to the viewpoint are more textured. It can be seen that the degree of transmission is small, that is, the texture looks thinner (see, for example, the person image 400). In this way, by setting the density map using the fog value, it is possible to control the mixing ratio of the texture data including the canvas to the basic image data according to the distance from the viewpoint and produce a feeling of unpainted color. it can. This is an expression that matches the general tendency that even in actual watercolor paintings, the closer the image is, the more delicate it is expressed, so there is less feeling of unpainted, and the more distant the image, the more unpainted feeling is. . In addition, by repeating the process shown in FIG. 15 at predetermined timings, it is possible to generate a moving image in which the feeling of unpainted changes at any time according to each scene.

(第4の実施形態)
本発明に係る第4の実施形態について説明する。本実施形態に係るゲーム装置の構成(図1参照)、また、仮想三次元空間に配置されたオブジェクト、光源、視点の関係(図2参照)。画像処理の全体の流れ(レンダリング処理)については上記した第1の実施形態の場合と同様であるためここでは説明を省略する。以下に、キャンバス地の表現に関する処理について説明する。なお、以下に説明する処理は、その結果に矛盾を生じない限りにおいて、処理順序を入れ替えることや、各処理を並行して行うことが可能である。
(Fourth embodiment)
A fourth embodiment according to the present invention will be described. The configuration of the game device according to the present embodiment (see FIG. 1), and the relationship between objects, light sources, and viewpoints arranged in the virtual three-dimensional space (see FIG. 2) The overall flow of image processing (rendering processing) is the same as in the case of the first embodiment described above, and therefore description thereof is omitted here. Hereinafter, processing relating to the expression of the canvas will be described. Note that the processing described below can change the processing order or perform each processing in parallel as long as the results do not contradict each other.

図19は、第4の実施形態のゲーム装置によって実行される画像処理の流れを示すフローチャートである。なお、上記の各実施形態と重複する事項については適宜記載を省略する。   FIG. 19 is a flowchart illustrating a flow of image processing executed by the game device of the fourth embodiment. In addition, about the matter which overlaps with said each embodiment, description is abbreviate | omitted suitably.

CPU10は、システムメモリ11から読み出したデータに基づいて、複数のポリゴンを組み合わせて構成されるオブジェクト(ポリゴンモデル)を仮想三次元空間内に配置する(ステップS40)。   Based on the data read from the system memory 11, the CPU 10 arranges an object (polygon model) configured by combining a plurality of polygons in the virtual three-dimensional space (step S40).

また、CPU10により光源の設定、視点が設定され、これに対応してGPU16により基礎画像データが生成される(ステップS41)。ステップS41における処理の詳細は上記した第1の実施形態におけるステップS11と同様である。ここで得られた基礎画像データ(図4参照)は、グラフィックメモリ17内に設定されるフレームバッファ(第1記憶領域)に格納される。   In addition, the CPU 10 sets the light source and the viewpoint, and the basic image data is generated by the GPU 16 correspondingly (step S41). Details of the processing in step S41 are the same as those in step S11 in the first embodiment described above. The basic image data (see FIG. 4) obtained here is stored in a frame buffer (first storage area) set in the graphic memory 17.

次に、GPU16は、カメラベクトルC(図2参照)とオブジェクトを形作る各ポリゴンの法線との内積値を算出する(ステップS42)。   Next, the GPU 16 calculates an inner product value between the camera vector C (see FIG. 2) and the normal line of each polygon forming the object (step S42).

ここで、図20に示す概念図を用いて、オブジェクトを形作る各ポリゴンとカメラベクトルとの関係を説明する。図20では、オブジェクト300を形作る複数のポリゴンを代表し、1つのポリゴン306が示されている。このポリゴン306は、図示のように3つの頂点を有する三角形状の小片である。なお、ポリゴンは他の多角形(例えば四角形)であってもよい。ポリゴン306の各頂点には、法線ベクトルNが設定されている。これらの法線ベクトルNは、長さが1に正規化されている。なお、これらの法線ベクトルNは、ポリゴンの頂点以外の箇所、例えば、各頂点によって画定される平面上の任意点に設定されてもよい。本実施形態では各法線ベクトルNとライトベクトルCとの内積値をパラメータとして用いる。この内積値は、法線ベクトルN、カメラベクトルCがともに1に正規化されているため、両者のなす角度θの余弦であるcosθとなり、その値は−1〜+1の範囲に収まる。   Here, the relationship between each polygon forming the object and the camera vector will be described using the conceptual diagram shown in FIG. In FIG. 20, a single polygon 306 is shown to represent a plurality of polygons forming the object 300. The polygon 306 is a triangular piece having three vertices as shown. The polygon may be another polygon (for example, a quadrangle). A normal vector N is set at each vertex of the polygon 306. These normal vectors N are normalized to 1 in length. Note that these normal vectors N may be set at locations other than the vertices of the polygon, for example, arbitrary points on a plane defined by the vertices. In this embodiment, the inner product value of each normal vector N and light vector C is used as a parameter. Since the normal vector N and the camera vector C are both normalized to 1, this inner product value is cos θ, which is the cosine of the angle θ formed by them, and the value falls within the range of −1 to +1.

次に、GPU16は、ステップS42において算出した内積値に基づいて濃度マップを設定する(ステップS43)。本実施形態では、内積値に対して所定のデータ変換を施し、当該データ変換後の値を濃度値として用いる。「データ変換」とは、概略的には、法線ベクトルNとカメラベクトルCとのなす角度θが大きいほど(すなわち内積値が小さいほど)濃度値が大きくなり、θ=90°のとき(すなわち内積値が0のとき)に濃度値が最大値となるように、一定の規則に従って内積値を変換することをいう。この内積値に基づいて設定された濃度マップはグラフィックメモリ17内に設定されたテクスチャバッファ(第2記憶領域)に格納される。   Next, the GPU 16 sets a density map based on the inner product value calculated in step S42 (step S43). In the present embodiment, predetermined data conversion is performed on the inner product value, and the value after the data conversion is used as the density value. “Data conversion” generally means that the density value increases as the angle θ between the normal vector N and the camera vector C increases (that is, the inner product value decreases), and when θ = 90 ° (that is, The inner product value is converted according to a certain rule so that the density value becomes the maximum value when the inner product value is 0). The density map set based on the inner product value is stored in a texture buffer (second storage area) set in the graphic memory 17.

図21は、データ変換の具体例について説明する図である。図21に示すように、内積値が0のときに濃度値が1.0、内積値が所定の上限値(図示の例では0.15)のときに濃度値が0.0、その間(図示の例では濃度値が0〜0.15の間)は線形に変化する、というように補間を行うことにより、上述のデータ変換を実現することができる。このとき、内積値が所定の値を超えた部分については濃度値が一律に0.0とされる。なお、このような線形補間に変えて、非線形補間を行ってもよい。上限値を加減することにより、濃度値が0.0より大きい値を有する範囲の大小(後述する図22参照)を自在に決めることが可能である。なお、データ変換においてこの上限値は必須ではない。より単純なデータ変換としては、例えば、(1.0−内積値)=濃度値という演算を採用することも可能である。   FIG. 21 is a diagram illustrating a specific example of data conversion. As shown in FIG. 21, the density value is 1.0 when the inner product value is 0, and the density value is 0.0 when the inner product value is a predetermined upper limit value (0.15 in the illustrated example). In this example, the above-described data conversion can be realized by performing interpolation such that the density value changes linearly (between 0 and 0.15). At this time, the density value is uniformly set to 0.0 for a portion where the inner product value exceeds a predetermined value. Note that nonlinear interpolation may be performed instead of such linear interpolation. By adjusting the upper limit value, it is possible to freely determine the size of the range in which the density value is greater than 0.0 (see FIG. 22 described later). Note that this upper limit is not essential for data conversion. As simpler data conversion, for example, an operation of (1.0−inner product value) = density value may be employed.

図22は、ステップS43において設定される濃度マップを視覚的に表現したものである。図22において、グレースケールで色付けして表されている領域に濃度マップが設定されている。図示では表現しきれないが、オブジェクトの外側などにおいて法線ベクトルNとカメラベクトルCとのなす角度θが90°に近づき、そのような箇所ほど濃度値が大きくなるまた、上述した上限値を設定して内積値をデータ変換していることにより、0.0より大きい濃度値を有する領域を、カメラベクトルCと法線ベクトルNのなす角度θが比較的に大きい箇所に限定することができる。
FIG. 22 is a visual representation of the density map set in step S43. In FIG. 22, a density map is set in a region represented by being colored in gray scale. Although not shown in the figure, the angle θ between the normal vector N and the camera vector C approaches 90 ° on the outside of the object and the like, and the density value increases as such a position. Also, the above-described upper limit is set. By converting the inner product value into data, an area having a density value greater than 0.0 can be limited to a location where the angle θ formed by the camera vector C and the normal vector N is relatively large.

次に、GPU16は、記憶媒体12からテクスチャデータを読み出す(ステップS44)。テクスチャデータの一例は上記した図6に示した通りである。   Next, the GPU 16 reads texture data from the storage medium 12 (step S44). An example of the texture data is as shown in FIG.

次に、GPU16は、ステップS44において読み出したテクスチャデータを、ステップS33において設定した濃度マップによって設定された濃度値に応じた割合で基礎画像データと合成することにより、二次元画像データを生成する(ステップS45)。生成された二次元画像データはグラフィックメモリ17内に設定されたフレームバッファに格納される。   Next, the GPU 16 synthesizes the texture data read in step S44 with the basic image data at a ratio corresponding to the density value set by the density map set in step S33, thereby generating two-dimensional image data ( Step S45). The generated two-dimensional image data is stored in a frame buffer set in the graphic memory 17.

図23は、濃度値に応じた割合でテクスチャデータと基礎画像データとを合成した様子を示した図である。各オブジェクト(人物、建物、樹木、遠景)のポリゴンの法線ベクトルとカメラベクトルとの内積値に基づいて濃度マップが設定されたことにより、人物画像400、建物画像402、樹木画像404のそれぞれについて、濃度値に応じた割合で基礎画像が透過し、テクスチャも半透明化されている。法線ベクトルとカメラベクトルとのなす角度が大きい(すなわち内積値が小さい)ほど、テクスチャの透過度合いが大きい、すなわちテクスチャがより濃く見える状態となる。それにより、各オブジェクトの外側(外縁)がより強調される。このように、内積値を利用して濃度マップを設定することにより、カメラベクトル(視線)とオブジェクト表面とのなす角度に応じてキャンバス地を含むテクスチャデータの基礎画像データに対する混合比率を制御し、塗り残し感を演出することができる。これは、実際の水彩画等においても、描かれる対象物の外側(外縁)ほど塗り残し感が多くなるという一般的な傾向に合致する表現となる。また、図19に示した処理を所定タイミングごとに繰り返すことにより、塗り残し感が各シーンに合わせて随時変化する動画を生成することが可能となる。   FIG. 23 is a diagram showing a state in which texture data and basic image data are synthesized at a ratio corresponding to the density value. Since the density map is set based on the inner product value of the polygon normal vector and the camera vector of each object (person, building, tree, distant view), each of the person image 400, the building image 402, and the tree image 404 is set. The basic image is transmitted at a rate corresponding to the density value, and the texture is also translucent. The greater the angle between the normal vector and the camera vector (that is, the smaller the inner product value), the greater the degree of transmission of the texture, that is, the state where the texture appears darker. Thereby, the outer side (outer edge) of each object is more emphasized. In this way, by setting the density map using the inner product value, the mixing ratio of the texture data including the canvas to the basic image data is controlled according to the angle formed by the camera vector (line of sight) and the object surface, An unpainted feeling can be produced. This is an expression that matches a general tendency that the feeling of unpainted ink increases toward the outside (outer edge) of the object to be drawn even in an actual watercolor painting or the like. In addition, by repeating the process shown in FIG. 19 at every predetermined timing, it is possible to generate a moving image in which the feeling of unpainted changes at any time according to each scene.

(第5の実施形態)
上述した第1〜第4の各実施形態において説明した画像処理を併用することもできる。以下、その詳細について説明する。なお、本実施形態に係るゲーム装置の構成(図1参照)、仮想三次元空間に配置されたオブジェクト、光源、視点の関係(図2参照)、画像処理の全体の流れ(レンダリング処理)については上記した各実施形態の場合と同様であるためここでは説明を省略する。また、以下に説明する処理は、その結果に矛盾を生じない限りにおいて、処理順序を入れ替えることや、各処理を並行して行うことが可能である。
(Fifth embodiment)
The image processing described in the first to fourth embodiments described above can also be used in combination. The details will be described below. Note that the configuration of the game device according to the present embodiment (see FIG. 1), the relationship between the objects arranged in the virtual three-dimensional space, the light source, the viewpoint (see FIG. 2), and the overall flow of image processing (rendering processing). Since it is the same as that of each above-mentioned embodiment, description is abbreviate | omitted here. In addition, the processing described below can change the processing order or perform each processing in parallel as long as no contradiction arises in the results.

図24は、第5の実施形態のゲーム装置によって実行される画像処理の流れを示すフローチャートである。なお、上記の各実施形態と重複する事項については適宜記載を省略する。   FIG. 24 is a flowchart illustrating a flow of image processing executed by the game device of the fifth embodiment. In addition, about the matter which overlaps with said each embodiment, description is abbreviate | omitted suitably.

CPU10は、システムメモリ11から読み出したデータに基づいて、複数のポリゴンを組み合わせて構成されるオブジェクト(ポリゴンモデル)を仮想三次元空間内に配置する(ステップS50)。   Based on the data read from the system memory 11, the CPU 10 arranges an object (polygon model) configured by combining a plurality of polygons in the virtual three-dimensional space (step S50).

また、CPU10により光源の設定、視点が設定され、これに対応してGPU16により基礎画像データが生成される(ステップS51)。ステップS51における処理の詳細は上記した第1の実施形態におけるステップS11と同様である。ここで得られた基礎画像データ(図4参照)は、グラフィックメモリ17内に設定されるフレームバッファ(第1記憶領域)に格納される。   Further, the CPU 10 sets the light source and the viewpoint, and the basic image data is generated by the GPU 16 correspondingly (step S51). Details of the processing in step S51 are the same as those in step S11 in the first embodiment. The basic image data (see FIG. 4) obtained here is stored in a frame buffer (first storage area) set in the graphic memory 17.

次に、GPU16により、上述した第1の実施形態における第1処理(図3;ステップS13参照)、第2の実施形態における第2処理(図9;ステップS22,23参照)、第3の実施形態における第3処理(図3;ステップS32,33参照)、第4の実施形態における第4処理(図3;ステップS42,43参照)、のそれぞれが実行される(ステップS52)。第1処理〜第4処理の各々の詳細については上述した通りであり、詳細な説明は省略する。簡単に説明すると、第1処理は予め用意された固定的なデータを用いて濃度マップを設定する処理、第2処理は半透明モデルを利用して濃度マップを設定する処理、第3処理はフォグ値を利用して濃度マップを設定する処理、第4処理はカメラベクトルとポリゴン法線との内積値を利用して濃度マップを設定する処理である。   Next, the GPU 16 performs the first process in the first embodiment (see FIG. 3; see step S13), the second process in the second embodiment (see FIG. 9; see steps S22 and 23), and the third implementation. Each of the third process in the embodiment (see FIG. 3; steps S32 and 33) and the fourth process in the fourth embodiment (see FIG. 3; steps S42 and 43) is executed (step S52). Details of each of the first process to the fourth process are as described above, and a detailed description thereof will be omitted. Briefly, the first process is a process for setting a density map using fixed data prepared in advance, the second process is a process for setting a density map using a semi-transparent model, and the third process is a fog process. A process for setting a density map using a value and a fourth process are processes for setting a density map using an inner product value of a camera vector and a polygon normal.

なお、ステップS52においては、第1処理、第2処理、第3処理、第4処理のうちから少なくとも何れか2つ以上の処理が行われればよい。いずれの処理を組み合わせるかは任意である。   In step S52, at least any two of the first process, the second process, the third process, and the fourth process may be performed. It is arbitrary which process is combined.

次に、GPU16は、第1処理〜第4処理の各々(いずれかの処理が選択的に実行された場合には当該選択された各処理)によって設定された濃度マップを合成する(ステップS53)。具体的には、各処理によって得られた濃度マップについて各画素ごとに濃度値を比較し、最も高い濃度値を各画素ごとに選び出す。この合成処理によって得られる濃度マップ(合成濃度マップ)を視覚化して示したのが図25である。   Next, the GPU 16 synthesizes the density map set by each of the first process to the fourth process (if any process is selectively executed, the selected process) (step S53). . Specifically, the density values obtained by each process are compared for each pixel, and the highest density value is selected for each pixel. FIG. 25 is a visualization of the density map (synthetic density map) obtained by this synthesis process.

なお、ステップS53における濃度マップの合成手法は上記に限定されない。例えば、第1処理〜第4処理の各処理によって得られた濃度マップについて各画素ごとに濃度値を比較し、最も低い濃度値を各画素ごとに選び出してもよいし、各画素ごとに第1処理〜第4処理の各々による濃度値を平均してもよい。また、何れかの処理によって得られた濃度マップについて、他の濃度マップに優先して用いてもよい。例えば、第1処理の濃度マップを優先して用いることが好ましい。   Note that the method of synthesizing the density map in step S53 is not limited to the above. For example, the density value obtained by each process of the first process to the fourth process may be compared for each pixel, and the lowest density value may be selected for each pixel, or the first value may be selected for each pixel. You may average the density value by each of a process-4th process. Further, the density map obtained by any of the processes may be used with priority over other density maps. For example, it is preferable to use the density map of the first process with priority.

次に、GPU16は、記憶媒体12からテクスチャデータを読み出す(ステップS54)。テクスチャデータの一例は上記した図6に示した通りである。   Next, the GPU 16 reads texture data from the storage medium 12 (step S54). An example of the texture data is as shown in FIG.

次に、GPU16は、ステップS54において読み出したテクスチャデータを、ステップS53において得られた合成濃度マップによって設定された濃度値に応じた割合で基礎画像データと合成することにより、二次元画像データを生成する(ステップS55)。生成された二次元画像データはグラフィックメモリ17内に設定されたフレームバッファに格納される。   Next, the GPU 16 generates two-dimensional image data by combining the texture data read in step S54 with the basic image data at a ratio corresponding to the density value set by the combined density map obtained in step S53. (Step S55). The generated two-dimensional image data is stored in a frame buffer set in the graphic memory 17.

図26は、濃度値に応じた割合でテクスチャデータと基礎画像データとを合成した様子を示した図である。第1処理〜第4処理のそれぞれによる結果を合わせもっていることが分かる。   FIG. 26 is a diagram showing a state in which texture data and basic image data are synthesized at a ratio corresponding to the density value. It can be seen that the results of the first process to the fourth process are combined.

(変形実施例)
なお、本発明は上述した各実施形態の内容に限定されるものではなく、本発明の要旨の範囲内において種々の変形実施が可能である。例えば、上述した実施形態では、CPU等のハードウェアを含むコンピュータに所定のプログラムを実行させることによってゲーム装置が実現されていたが、ゲーム装置に備わっていた各機能ブロックはそれぞれ専用のハードウェア等を用いて実現されていてもよい。
(Modified Example)
In addition, this invention is not limited to the content of each embodiment mentioned above, A various deformation | transformation implementation is possible within the scope of the summary of this invention. For example, in the above-described embodiment, a game device is realized by causing a computer including hardware such as a CPU to execute a predetermined program. However, each functional block provided in the game device is dedicated hardware or the like. It may be realized using.

また、上記では、一例としてゲーム装置を採り上げて、本発明に係る画像処理装置、画像処理方法および画像処理プログラムの実施の形態を説明していたが、本発明の適用範囲はこれに限定されない。例えば、現実世界の各種体験(例えば、運転操作等)を擬似的に再現するシミュレータ装置等に対しても本発明を適用することが可能である。   In the above description, the game apparatus is taken as an example, and the embodiments of the image processing apparatus, the image processing method, and the image processing program according to the present invention have been described. However, the scope of the present invention is not limited to this. For example, the present invention can also be applied to a simulator device or the like that reproduces various real world experiences (for example, driving operations) in a pseudo manner.

(付記;技術的思想)
以下に、上記した実施形態に係る技術的思想の一部について付記する。
(Supplementary note: technical idea)
A part of the technical idea according to the above-described embodiment will be additionally described below.

本発明に係るプログラムは、記憶手段と演算手段を備えた画像処理装置によって実行され、仮想三次元空間を所定の透視投影面上に透視投影して得られる二次元画像データを生成するプログラムであって、前記演算手段に、(a)前記仮想三次元空間に視点を配置し、この視点に対応して設定される前記透視投影面上に透視投影して基礎画像データを生成し、当該基礎画像データを前記記憶手段に格納するステップと、(b)前記基礎画像データの一部の領域に対応付けられた濃度値を示す濃度マップを設定し、当該濃度マップを前記記憶手段に格納するステップと、(c)テクスチャデータを前記記憶手段から読み出すステップと、(d)前記テクスチャデータを、前記濃度マップによって設定された前記濃度値に応じた割合で前記基礎画像データと合成することによって前記二次元画像データを生成するステップと、を実行させることを特徴とする。   A program according to the present invention is a program that is executed by an image processing apparatus including a storage unit and a calculation unit, and generates two-dimensional image data obtained by perspective projection of a virtual three-dimensional space on a predetermined perspective projection plane. And (a) arranging a viewpoint in the virtual three-dimensional space, generating perspective image data by performing perspective projection on the perspective projection plane set corresponding to the viewpoint, and generating the basic image Storing data in the storage means; and (b) setting a density map indicating density values associated with a partial area of the basic image data, and storing the density map in the storage means; (C) reading texture data from the storage means; and (d) the texture data at a ratio corresponding to the density value set by the density map. Characterized in that to execute the steps of generating the two-dimensional image data by combining the data.

好ましくは、前記(b)においては、前記一部の領域を画定するとともに当該一部の領域の前記濃度値を指定するデータを前記記憶手段から読み出し、当該読み出したデータに基づいて前記濃度マップを設定する。   Preferably, in (b), data defining the partial area and designating the density value of the partial area is read from the storage means, and the density map is calculated based on the read data. Set.

好ましくは、前記(b)は、前記濃度値が関連付けられた半透明モデルを前記仮想三次元空間内に配置して当該半透明モデルをレンダリングすることにより、前記一部の領域を画定するとともに当該一部の領域における前記濃度値を指定する前記濃度マップを設定する。   Preferably, (b) defines the partial area by rendering the translucent model by arranging the translucent model associated with the density value in the virtual three-dimensional space and rendering the translucent model. The density map for designating the density value in a partial area is set.

好ましくは、前記テクスチャデータは、キャンバス地模様の画像を含む。なお、「キャンバス地模様」とは、水彩画等に用いられるキャンバス(カンバス)の表面を模擬的に表現可能な模様一般をいい、例えば麻布などの表面を模した模様である。   Preferably, the texture data includes a canvas pattern image. The “canvas pattern” refers to a general pattern that can simulate the surface of a canvas (canvas) used for a watercolor painting or the like, for example, a pattern imitating the surface of linen or the like.

本発明に係るコンピュータ読み取り可能な記録媒体は、上記の本発明に係るプログラムを記録した記録媒体である。また、本発明は、以下のように、画像処理装置、画像処理方法のそれぞれとしても表現することができる。   The computer-readable recording medium according to the present invention is a recording medium on which the program according to the present invention is recorded. The present invention can also be expressed as an image processing apparatus and an image processing method as follows.

本発明に係る画像処理装置は、記憶手段と演算手段を備え、仮想三次元空間を所定の透視投影面上に透視投影して得られる二次元画像データを生成する画像処理装置であって、前記演算手段が、(a)前記仮想三次元空間に視点を配置し、この視点に対応して設定される前記透視投影面上に透視投影して基礎画像データを生成し、当該基礎画像データを前記記憶手段に格納する手段、(b)前記基礎画像データの一部の領域に対応付けられた濃度値を示す濃度マップを設定し、当該濃度マップを前記記憶手段に格納する手段、(c)テクスチャデータを前記記憶手段から読み出す手段、(d)前記テクスチャデータを、前記濃度マップによって設定された前記濃度値に応じた割合で前記基礎画像データと合成することによって前記二次元画像データを生成する手段、の各々として機能することを特徴とする。   An image processing apparatus according to the present invention is an image processing apparatus that includes a storage unit and a calculation unit, and generates two-dimensional image data obtained by perspective projection of a virtual three-dimensional space on a predetermined perspective projection plane, The computing means (a) arranges a viewpoint in the virtual three-dimensional space, generates perspective image data by perspective projection on the perspective projection plane set corresponding to the viewpoint, and generates the basic image data Means for storing in the storage means; (b) means for setting a density map indicating density values associated with a partial area of the basic image data; and means for storing the density map in the storage means; and (c) texture. Means for reading out data from the storage means; and (d) combining the texture data with the basic image data at a ratio corresponding to the density value set by the density map. It means for generating over data, characterized in that function as each.

本発明に係る画像処理方法は、記憶手段と演算手段を備えた画像処理装置において、オブジェクトが配置された仮想三次元空間を所定の透視投影面上に透視投影して得られる二次元画像データを生成する画像処理方法であって、前記演算手段が、(a)前記仮想三次元空間に視点を配置し、この視点に対応して設定される前記透視投影面上に透視投影して基礎画像データを生成し、当該基礎画像データを前記記憶手段に格納するステップ、(b)前記基礎画像データの一部の領域に対応付けられた濃度値を示す濃度マップを設定し、当該濃度マップを前記記憶手段に格納するステップ、(c)テクスチャデータを前記記憶手段から読み出すステップ、(d)前記テクスチャデータを、前記濃度マップによって設定された前記濃度値に応じた割合で前記基礎画像データと合成することによって前記二次元画像データを生成するステップ、の各々を実行することを特徴とする。   In an image processing method according to the present invention, two-dimensional image data obtained by perspective projection of a virtual three-dimensional space in which an object is arranged on a predetermined perspective projection plane in an image processing apparatus including a storage unit and a calculation unit. In the image processing method to be generated, the arithmetic means (a) arranges a viewpoint in the virtual three-dimensional space, and performs perspective projection on the perspective projection plane set corresponding to the viewpoint to perform basic image data. And (b) setting a density map indicating density values associated with a partial area of the basic image data, and storing the density map in the memory (C) reading the texture data from the storage means; (d) dividing the texture data according to the density value set by the density map. In and executes each step, generating the two-dimensional image data by combining said basic image data.

一実施形態のゲーム装置の構成を示すブロック図である。It is a block diagram which shows the structure of the game device of one Embodiment. 仮想三次元空間に配置されたオブジェクト(仮想物体)、光源、視点のそれぞれについて示した概念図である。It is the conceptual diagram shown about each of the object (virtual object) arrange | positioned in virtual three-dimensional space, a light source, and a viewpoint. 第1の実施形態のゲーム装置によって実行される画像処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the image process performed by the game device of 1st Embodiment. 基礎画像データの一例を模式的に示す図である。It is a figure which shows an example of basic image data typically. 濃度マップの内容を視覚的に表現した図である。It is the figure which expressed the contents of the density map visually. テクスチャデータの一例を説明する図である。It is a figure explaining an example of texture data. 濃度値に応じた割合で合成されるテクスチャの様子を説明する図である。It is a figure explaining the mode of the texture synthesize | combined in the ratio according to a density value. テクスチャデータと基礎画像データとを合成した様子を示した図である。It is the figure which showed a mode that the texture data and the basic image data were synthesize | combined. 第2の実施形態のゲーム装置によって実行される画像処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the image processing performed by the game device of 2nd Embodiment. ステップS22の処理内容を説明する模式図である。It is a schematic diagram explaining the processing content of step S22. ステップS23において設定される濃度マップを視覚的に表現したものである。This is a visual representation of the density map set in step S23. 濃度値に応じた割合でテクスチャデータと基礎画像データとを合成した様子を示した図である。It is the figure which showed a mode that the texture data and the basic image data were synthesize | combined in the ratio according to a density value. 半透明モデルの位置を随時移動させた場合の表示イメージを説明する図である。It is a figure explaining the display image at the time of moving the position of a semi-transparent model at any time. 第1の実施形態における第1処理と第2の実施形態における第2処理による効果を併せ持つ画像の一例である。It is an example of the image which has the effect by the 1st process in 1st Embodiment, and the 2nd process in 2nd Embodiment. 第3の実施形態のゲーム装置によって実行される画像処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the image processing performed by the game device of 3rd Embodiment. フォグ値について説明するための図である。It is a figure for demonstrating a fog value. ステップS33において設定される濃度マップを視覚的に表現したものである。This is a visual representation of the density map set in step S33. 濃度値に応じた割合でテクスチャデータと基礎画像データとを合成した様子を示した図である。It is the figure which showed a mode that the texture data and the basic image data were synthesize | combined in the ratio according to a density value. 第4の実施形態のゲーム装置によって実行される画像処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the image processing performed by the game device of 4th Embodiment. オブジェクトを形作る各ポリゴンとカメラベクトルとの関係を説明する概念図である。It is a conceptual diagram explaining the relationship between each polygon which forms an object, and a camera vector. ステップS43におけるデータ変換の具体例について説明する図である。It is a figure explaining the specific example of the data conversion in step S43. ステップS43において設定される濃度マップを視覚的に表現したものである。This is a visual representation of the density map set in step S43. 濃度値に応じた割合でテクスチャデータと基礎画像データとを合成した様子を示した図である。It is the figure which showed a mode that the texture data and the basic image data were synthesize | combined in the ratio according to a density value. 第5の実施形態のゲーム装置によって実行される画像処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the image processing performed by the game device of 5th Embodiment. 合成濃度マップを視覚化して示した図である。It is the figure which visualized and showed the synthetic density map. 濃度値に応じた割合でテクスチャデータと基礎画像データとを合成した様子を示した図である。It is the figure which showed a mode that the texture data and the basic image data were synthesize | combined in the ratio according to a density value.

符号の説明Explanation of symbols

10…CPU
11…システムメモリ
12…記憶媒体
13…ブートロム
14…バスアービタ
16…GPU
17…グラフィックメモリ
18…オーディオプロセッサ
19…オーディオメモリ
20…通信インタフェース(I/F)
21…ペリフェラルインターフェース
10 ... CPU
11 ... System memory 12 ... Storage medium 13 ... Bootrom 14 ... Bus arbiter 16 ... GPU
17 ... Graphic memory 18 ... Audio processor 19 ... Audio memory 20 ... Communication interface (I / F)
21 ... Peripheral interface

Claims (19)

記憶手段と演算手段を備えた画像処理装置によって実行され、仮想三次元空間を所定の透視投影面上に透視投影して得られる二次元画像データを生成するプログラムであって、
前記演算手段に、
(a)前記仮想三次元空間に視点を配置し、この視点に対応して設定される前記透視投影面上に透視投影して基礎画像データを生成し、当該基礎画像データを前記記憶手段に格納するステップと、
(b)前記視点の位置と前記仮想三次元空間内に配置されたオブジェクトとの距離に応じて、前記仮想三次元空間の透明度を表すフォグ値を算出するステップと、
(c)前記フォグ値に基づいて、前記基礎画像データに対応付けられた濃度値を示す濃度マップを設定し、当該濃度マップを前記記憶手段に格納するステップと、
(d)テクスチャデータを前記記憶手段から読み出すステップと、
(e)前記テクスチャデータを、前記濃度マップによって設定された前記濃度値に応じた割合で前記基礎画像データと合成することによって前記二次元画像データを生成するステップと、
を実行させる、プログラム。
A program that is executed by an image processing apparatus including a storage unit and a calculation unit and generates two-dimensional image data obtained by perspective projection of a virtual three-dimensional space on a predetermined perspective projection plane,
In the calculation means,
(A) A viewpoint is arranged in the virtual three-dimensional space, perspective projection is performed on the perspective projection plane set corresponding to the viewpoint to generate basic image data, and the basic image data is stored in the storage unit And steps to
(B) calculating a fog value representing the transparency of the virtual three-dimensional space according to the distance between the position of the viewpoint and the object arranged in the virtual three-dimensional space;
(C) setting a density map indicating a density value associated with the basic image data based on the fog value, and storing the density map in the storage unit;
(D) reading texture data from the storage means;
(E) generating the two-dimensional image data by combining the texture data with the basic image data at a ratio according to the density value set by the density map;
A program that executes
前記(b)においては、前記視点と前記オブジェクトとの距離が所定のしきい値よりも小さい場合には、フォグ値を一定値にする、
請求項1に記載のプログラム。
In (b), when the distance between the viewpoint and the object is smaller than a predetermined threshold, the fog value is set to a constant value.
The program according to claim 1.
前記(c)は、前記フォグ値をそのまま前記濃度値として用いて前記濃度マップを設定する、
請求項1に記載のプログラム。
(C) sets the density map using the fog value as the density value as it is.
The program according to claim 1.
記憶手段と演算手段を備えた画像処理装置によって実行され、仮想三次元空間を所定の透視投影面上に透視投影して得られる二次元画像データを生成するプログラムであって、
前記演算手段に、
(a)前記仮想三次元空間に視点を配置し、この視点に対応して設定される前記透視投影面上に透視投影して基礎画像データを生成し、当該基礎画像データを前記記憶手段に格納するステップと、
(b)前記視点の方向を示すカメラベクトルと前記仮想三次元空間内に配置されたオブジェクトのポリゴンの法線ベクトルとの内積値を算出するステップと、
(c)前記内積値に基づいて、前記基礎画像データに対応付けられた濃度値を示す濃度マップを設定し、当該濃度マップを前記記憶手段に格納するステップと、
(d)テクスチャデータを前記記憶手段から読み出すステップと、
(e)前記テクスチャデータを、前記濃度マップによって設定された前記濃度値に応じた割合で前記基礎画像データと合成することによって前記二次元画像データを生成するステップと、
を実行させる、プログラム。
A program that is executed by an image processing apparatus including a storage unit and a calculation unit and generates two-dimensional image data obtained by perspective projection of a virtual three-dimensional space on a predetermined perspective projection plane,
In the calculation means,
(A) A viewpoint is arranged in the virtual three-dimensional space, perspective projection is performed on the perspective projection plane set corresponding to the viewpoint to generate basic image data, and the basic image data is stored in the storage unit And steps to
(B) calculating an inner product value of a camera vector indicating the direction of the viewpoint and a normal vector of a polygon of an object arranged in the virtual three-dimensional space;
(C) setting a density map indicating a density value associated with the basic image data based on the inner product value, and storing the density map in the storage unit;
(D) reading texture data from the storage means;
(E) generating the two-dimensional image data by combining the texture data with the basic image data at a ratio according to the density value set by the density map;
A program that executes
前記(c)においては、前記内積値に対して、当該内積値が小さいほど前記濃度値が大きくなり、前記内積値が0のときに前記濃度値が最大値となるようにデータ変換を施し、当該データ変換によって得られた濃度値に基づいて前記濃度マップを設定する、
請求項4に記載のプログラム。
In (c), with respect to the inner product value, the smaller the inner product value is, the larger the density value is, and when the inner product value is 0, data conversion is performed so that the density value becomes the maximum value, Setting the density map based on the density value obtained by the data conversion;
The program according to claim 4.
前記テクスチャデータは、キャンバス地模様の画像を含む、
請求項1乃至5の何れか1項に記載のプログラム。
The texture data includes an image of a canvas pattern,
The program according to any one of claims 1 to 5.
請求項1乃至6のいずれかに記載のプログラムを記録したコンピュータ読み取り可能な記録媒体。   A computer-readable recording medium on which the program according to any one of claims 1 to 6 is recorded. 記憶手段と演算手段を備え、仮想三次元空間を所定の透視投影面上に透視投影して得られる二次元画像データを生成する画像処理装置であって、
前記演算手段が、
(a)前記仮想三次元空間に視点を配置し、この視点に対応して設定される前記透視投影面上に透視投影して基礎画像データを生成し、当該基礎画像データを前記記憶手段に格納する手段、
(b)前記視点の位置と前記仮想三次元空間内に配置されたオブジェクトとの距離に応じて、前記仮想三次元空間の透明度を表すフォグ値を算出する手段、
(c)前記フォグ値に基づいて、前記基礎画像データに対応付けられた濃度値を示す濃度マップを設定し、当該濃度マップを前記記憶手段に格納する手段、
(d)テクスチャデータを前記記憶手段から読み出す手段、
(e)前記テクスチャデータを、前記濃度マップによって設定された前記濃度値に応じた割合で前記基礎画像データと合成することによって前記二次元画像データを生成する手段、
の各々として機能する、画像処理装置。
An image processing apparatus that includes a storage unit and a calculation unit, and generates two-dimensional image data obtained by perspective projection of a virtual three-dimensional space on a predetermined perspective projection plane,
The computing means is
(A) A viewpoint is arranged in the virtual three-dimensional space, perspective projection is performed on the perspective projection plane set corresponding to the viewpoint to generate basic image data, and the basic image data is stored in the storage unit Means to
(B) means for calculating a fog value representing the transparency of the virtual three-dimensional space according to the distance between the position of the viewpoint and the object arranged in the virtual three-dimensional space;
(C) means for setting a density map indicating density values associated with the basic image data based on the fog value, and storing the density map in the storage means;
(D) means for reading texture data from the storage means;
(E) means for generating the two-dimensional image data by combining the texture data with the basic image data at a ratio according to the density value set by the density map;
An image processing apparatus that functions as each of the above.
前記(b)においては、前記視点と前記オブジェクトとの距離が所定のしきい値よりも小さい場合には、フォグ値を一定値にする、
請求項8に記載の画像処理装置。
In (b), when the distance between the viewpoint and the object is smaller than a predetermined threshold, the fog value is set to a constant value.
The image processing apparatus according to claim 8.
前記(c)は、前記フォグ値をそのまま前記濃度値として用いて前記濃度マップを設定する、
請求項8に記載の画像処理装置。
(C) sets the density map using the fog value as the density value as it is.
The image processing apparatus according to claim 8.
記憶手段と演算手段を備え、仮想三次元空間を所定の透視投影面上に透視投影して得られる二次元画像データを生成する画像処理装置であって、
前記演算手段が、
(a)前記仮想三次元空間に視点を配置し、この視点に対応して設定される前記透視投影面上に透視投影して基礎画像データを生成し、当該基礎画像データを前記記憶手段に格納する手段、
(b)前記視点の方向を示すカメラベクトルと前記仮想三次元空間内に配置されたオブジェクトのポリゴンの法線ベクトルとの内積値を算出する手段、
(c)前記内積値に基づいて、前記基礎画像データに対応付けられた濃度値を示す濃度マップを設定し、当該濃度マップを前記記憶手段に格納する手段、
(d)テクスチャデータを前記記憶手段から読み出す手段と、
(e)前記テクスチャデータを、前記濃度マップによって設定された前記濃度値に応じた割合で前記基礎画像データと合成することによって前記二次元画像データを生成する手段、
の各々として機能する、画像処理装置。
An image processing apparatus that includes a storage unit and a calculation unit, and generates two-dimensional image data obtained by perspective projection of a virtual three-dimensional space on a predetermined perspective projection plane,
The computing means is
(A) A viewpoint is arranged in the virtual three-dimensional space, perspective projection is performed on the perspective projection plane set corresponding to the viewpoint to generate basic image data, and the basic image data is stored in the storage unit Means to
(B) means for calculating an inner product value between a camera vector indicating the direction of the viewpoint and a normal vector of a polygon of an object arranged in the virtual three-dimensional space;
(C) means for setting a density map indicating density values associated with the basic image data based on the inner product value, and storing the density map in the storage means;
(D) means for reading texture data from the storage means;
(E) means for generating the two-dimensional image data by combining the texture data with the basic image data at a ratio according to the density value set by the density map;
An image processing apparatus that functions as each of the above.
前記(c)においては、前記内積値に対して、当該内積値が小さいほど前記濃度値が大きくなり、前記内積値が0のときに前記濃度値が最大値となるようにデータ変換を施し、当該データ変換によって得られた濃度値に基づいて前記濃度マップを設定する、
請求項11に記載の画像処理装置。
In (c), with respect to the inner product value, the smaller the inner product value is, the larger the density value is, and when the inner product value is 0, data conversion is performed so that the density value becomes the maximum value, Setting the density map based on the density value obtained by the data conversion;
The image processing apparatus according to claim 11.
前記テクスチャデータは、キャンバス地模様の画像を含む、
請求項8乃至12の何れか1項に記載の画像処理装置。
The texture data includes an image of a canvas pattern,
The image processing apparatus according to claim 8.
記憶手段と演算手段を備えた画像処理装置において、オブジェクトが配置された仮想三次元空間を所定の透視投影面上に透視投影して得られる二次元画像データを生成する画像処理方法であって、
前記演算手段が、
(a)前記仮想三次元空間に視点を配置し、この視点に対応して設定される前記透視投影面上に透視投影して基礎画像データを生成し、当該基礎画像データを前記記憶手段に格納するステップと、
(b)前記視点の位置と前記仮想三次元空間内に配置されたオブジェクトとの距離に応じて、前記仮想三次元空間の透明度を表すフォグ値を算出するステップと、
(c)前記フォグ値に基づいて、前記基礎画像データに対応付けられた濃度値を示す濃度マップを設定し、当該濃度マップを前記記憶手段に格納するステップと、
(d)テクスチャデータを前記記憶手段から読み出すステップと、
(e)前記テクスチャデータを、前記濃度マップによって設定された前記濃度値に応じた割合で前記基礎画像データと合成することによって前記二次元画像データを生成するステップと、
の各々を実行する、画像処理方法。
In an image processing apparatus including a storage unit and a calculation unit, an image processing method for generating two-dimensional image data obtained by perspective projection of a virtual three-dimensional space in which an object is arranged on a predetermined perspective projection plane,
The computing means is
(A) A viewpoint is arranged in the virtual three-dimensional space, perspective projection is performed on the perspective projection plane set corresponding to the viewpoint to generate basic image data, and the basic image data is stored in the storage unit And steps to
(B) calculating a fog value representing the transparency of the virtual three-dimensional space according to the distance between the position of the viewpoint and the object arranged in the virtual three-dimensional space;
(C) setting a density map indicating a density value associated with the basic image data based on the fog value, and storing the density map in the storage unit;
(D) reading texture data from the storage means;
(E) generating the two-dimensional image data by combining the texture data with the basic image data at a ratio according to the density value set by the density map;
An image processing method for executing each of the above.
前記(b)においては、前記視点と前記オブジェクトとの距離が所定のしきい値よりも小さい場合には、フォグ値を一定値にする、
請求項14に記載の画像処理方法。
In (b), when the distance between the viewpoint and the object is smaller than a predetermined threshold, the fog value is set to a constant value.
The image processing method according to claim 14.
前記(c)は、前記フォグ値をそのまま前記濃度値として用いて前記濃度マップを設定する、
請求項14に記載の画像処理方法。
(C) sets the density map using the fog value as the density value as it is.
The image processing method according to claim 14.
記憶手段と演算手段を備えた画像処理装置において、オブジェクトが配置された仮想三次元空間を所定の透視投影面上に透視投影して得られる二次元画像データを生成する画像処理方法であって、
前記演算手段が、
(a)前記仮想三次元空間に視点を配置し、この視点に対応して設定される前記透視投影面上に透視投影して基礎画像データを生成し、当該基礎画像データを前記記憶手段に格納するステップと、
(b)前記視点の方向を示すカメラベクトルと前記仮想三次元空間内に配置されたオブジェクトのポリゴンの法線ベクトルとの内積値を算出するステップと、
(c)前記内積値に基づいて、前記基礎画像データに対応付けられた濃度値を示す濃度マップを設定し、当該濃度マップを前記記憶手段に格納するステップと、
(d)テクスチャデータを前記記憶手段から読み出すステップと、
(e)前記テクスチャデータを、前記濃度マップによって設定された前記濃度値に応じた割合で前記基礎画像データと合成することによって前記二次元画像データを生成するステップと、
の各々を実行する、画像処理方法。
In an image processing apparatus including a storage unit and a calculation unit, an image processing method for generating two-dimensional image data obtained by perspective projection of a virtual three-dimensional space in which an object is arranged on a predetermined perspective projection plane,
The computing means is
(A) A viewpoint is arranged in the virtual three-dimensional space, perspective projection is performed on the perspective projection plane set corresponding to the viewpoint to generate basic image data, and the basic image data is stored in the storage unit And steps to
(B) calculating an inner product value of a camera vector indicating the direction of the viewpoint and a normal vector of a polygon of an object arranged in the virtual three-dimensional space;
(C) setting a density map indicating a density value associated with the basic image data based on the inner product value, and storing the density map in the storage unit;
(D) reading texture data from the storage means;
(E) generating the two-dimensional image data by combining the texture data with the basic image data at a ratio according to the density value set by the density map;
An image processing method for executing each of the above.
前記(c)においては、前記内積値に対して、当該内積値が小さいほど前記濃度値が大きくなり、前記内積値が0のときに前記濃度値が最大値となるようにデータ変換を施し、当該データ変換によって得られた濃度値に基づいて前記濃度マップを設定する、
請求項17に記載の画像処理方法。
In (c), with respect to the inner product value, the smaller the inner product value is, the larger the density value is, and when the inner product value is 0, data conversion is performed so that the density value becomes the maximum value, Setting the density map based on the density value obtained by the data conversion;
The image processing method according to claim 17.
前記テクスチャデータは、キャンバス地模様の画像を含む、
請求項14乃至18の何れか1項に記載の画像処理方法。
The texture data includes an image of a canvas pattern,
The image processing method according to claim 14.
JP2007244292A 2007-09-20 2007-09-20 Program for image processing, computer-readable recording medium with the program recorded thereon, image processor, and image processing method Pending JP2009075867A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007244292A JP2009075867A (en) 2007-09-20 2007-09-20 Program for image processing, computer-readable recording medium with the program recorded thereon, image processor, and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007244292A JP2009075867A (en) 2007-09-20 2007-09-20 Program for image processing, computer-readable recording medium with the program recorded thereon, image processor, and image processing method

Publications (1)

Publication Number Publication Date
JP2009075867A true JP2009075867A (en) 2009-04-09

Family

ID=40610772

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007244292A Pending JP2009075867A (en) 2007-09-20 2007-09-20 Program for image processing, computer-readable recording medium with the program recorded thereon, image processor, and image processing method

Country Status (1)

Country Link
JP (1) JP2009075867A (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11134491A (en) * 1997-10-31 1999-05-21 Victor Co Of Japan Ltd Image processor and its method
JP2001229403A (en) * 2000-02-17 2001-08-24 Namco Ltd Game system and information storage medium
JP2002298136A (en) * 2001-04-02 2002-10-11 Nyuurii Kk Conversion program into painting style image
JP2003323630A (en) * 2002-04-26 2003-11-14 Namco Ltd Image generation system, image generation program and information storage medium
JP2005032140A (en) * 2003-07-10 2005-02-03 Namco Ltd Image generation system, program, and information storage medium
JP2006318389A (en) * 2005-05-16 2006-11-24 Namco Bandai Games Inc Program, information storage medium, and image generation system

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11134491A (en) * 1997-10-31 1999-05-21 Victor Co Of Japan Ltd Image processor and its method
JP2001229403A (en) * 2000-02-17 2001-08-24 Namco Ltd Game system and information storage medium
JP2002298136A (en) * 2001-04-02 2002-10-11 Nyuurii Kk Conversion program into painting style image
JP2003323630A (en) * 2002-04-26 2003-11-14 Namco Ltd Image generation system, image generation program and information storage medium
JP2005032140A (en) * 2003-07-10 2005-02-03 Namco Ltd Image generation system, program, and information storage medium
JP2006318389A (en) * 2005-05-16 2006-11-24 Namco Bandai Games Inc Program, information storage medium, and image generation system

Similar Documents

Publication Publication Date Title
CN106575445B (en) Fur avatar animation
US20090080803A1 (en) Image processing program, computer-readable recording medium recording the program, image processing apparatus and image processing method
JP4842242B2 (en) Method and apparatus for real-time expression of skin wrinkles during character animation
JP4804122B2 (en) Program, texture data structure, information storage medium, and image generation system
CN115082607A (en) Virtual character hair rendering method and device, electronic equipment and storage medium
JP4267646B2 (en) Image generating apparatus, image generating method, and program
JP5007633B2 (en) Image processing program, computer-readable recording medium storing the program, image processing apparatus, and image processing method
JP4651527B2 (en) Program, information storage medium, and image generation system
GB2360681A (en) Three-dimensional sound and graphics reproduction system
JP2007226572A (en) Program, information storage medium and image creation system
JP2006323512A (en) Image generation system, program, and information storage medium
JP2009129167A (en) Program, information storage medium, and image generation system
JP2008077405A (en) Image generation system, program, and information storage medium
CA2319279A1 (en) Method and apparatus for providing non-photorealistic cartoon outlining within a 3d videographics system
US6972766B2 (en) Recording medium storing dynamic picture image generation program, dynamic picture image generation program, dynamic picture image generation method, and device for the same
JP2006252426A (en) Program, information storage medium, and image generation system
JP2007328460A (en) Image creating program
JP6062589B1 (en) Program, information processing apparatus, influence derivation method, image generation method, and recording medium
JP2009093609A (en) Image processing program, computer-readable recording medium recording the program, image processing apparatus and image processing method
JP4717624B2 (en) Image generation system, program, and information storage medium
JP2009075867A (en) Program for image processing, computer-readable recording medium with the program recorded thereon, image processor, and image processing method
JP5146054B2 (en) Generation control program of sound generated from sound source in virtual space
JP4802254B2 (en) GAME DEVICE AND INFORMATION STORAGE MEDIUM
JP2009064086A (en) Image-processing program, computer-readable recording medium recording the program, image processor and image processing method
JP2006252423A (en) Program, information storage medium and image generation system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100818

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20101019

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120215

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120611