JP4804120B2 - Program, information storage medium, and image generation system - Google Patents

Program, information storage medium, and image generation system Download PDF

Info

Publication number
JP4804120B2
JP4804120B2 JP2005333037A JP2005333037A JP4804120B2 JP 4804120 B2 JP4804120 B2 JP 4804120B2 JP 2005333037 A JP2005333037 A JP 2005333037A JP 2005333037 A JP2005333037 A JP 2005333037A JP 4804120 B2 JP4804120 B2 JP 4804120B2
Authority
JP
Japan
Prior art keywords
effect
color
post
area
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2005333037A
Other languages
Japanese (ja)
Other versions
JP2007140842A (en
Inventor
嘉樹 堂前
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Namco Ltd
Bandai Namco Entertainment Inc
Original Assignee
Namco Ltd
Namco Bandai Games Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Ltd, Namco Bandai Games Inc filed Critical Namco Ltd
Priority to JP2005333037A priority Critical patent/JP4804120B2/en
Publication of JP2007140842A publication Critical patent/JP2007140842A/en
Application granted granted Critical
Publication of JP4804120B2 publication Critical patent/JP4804120B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Generation (AREA)

Description

本発明は、プログラム、情報記憶媒体、及び画像生成システムに関する。   The present invention relates to a program, an information storage medium, and an image generation system.

従来より、キャラクタなどのオブジェクトが配置設定されるオブジェクト空間内(仮想的な3次元空間)において仮想カメラ(所与の視点)から見える画像を生成する画像生成システム(ゲームシステム)が知られており、いわゆる仮想現実を体験できるものとして人気が高い。   Conventionally, an image generation system (game system) that generates an image that can be viewed from a virtual camera (a given viewpoint) in an object space (virtual three-dimensional space) in which an object such as a character is set is known. It is popular as a place to experience so-called virtual reality.

このような画像生成システムでは、オブジェクト空間に配置されたオブジェクトにエフェクト色を反映させて、霧(フォグ)、もや、煙、ホコリなどが掛かった場面を表示する場合がある。この場合には、プレーヤの仮想現実感を向上させるために、仮想カメラ(視点)からの距離に応じてエフェクト色の濃度を変化させ、現実世界のフォグ特性等を表現することが望ましい。このようなエフェクト色の濃度の制御を行う技術としては、特開2003−323630号公報に開示される従来技術がある。   In such an image generation system, an effect color may be reflected on an object arranged in the object space to display a scene with fog, haze, smoke, dust, or the like. In this case, in order to improve the virtual reality of the player, it is desirable to change the density of the effect color according to the distance from the virtual camera (viewpoint) to express the real world fog characteristics and the like. As a technique for controlling the density of the effect color, there is a conventional technique disclosed in Japanese Patent Laid-Open No. 2003-323630.

しかしながら、従来の画像生成システムでは、エフェクト色の濃度の変化は仮想カメラからの距離に応じたα値(フォグの乗り具合)で制御するのみであり、フォグ効果による画像表現には限界があった。
特開2003−323630号公報
However, in the conventional image generation system, the change in the density of the effect color is only controlled by the α value (the amount of fog) according to the distance from the virtual camera, and there is a limit to the image expression by the fog effect. .
JP 2003-323630 A

本発明は、以上のような課題に鑑みてなされたものであり、その目的とするところは、仮想カメラからの距離に応じたエフェクト色の濃度の変化特性に他の変化特性を加味してオブジェクトにエフェクト色を反映させることにより、画像表現のバリエーションを増やして現実感を更に高めるとともに、軽い処理負荷でかかる画像表現を実現することができるプログラム、情報記憶媒体及び画像生成システムを提供することにある。   The present invention has been made in view of the problems as described above, and an object of the present invention is to add another change characteristic to an effect color density change characteristic according to the distance from the virtual camera. The present invention provides a program, an information storage medium, and an image generation system capable of further increasing the reality by increasing the effect color and thereby realizing the image expression with a light processing load. is there.

(1)本発明は、オブジェクト空間に設定されたオブジェクトをスクリーンに投影して仮想カメラから見た視界画像を生成する視界画像生成部と、
前記視界画像に対して色を調整するポストエフェクト処理を行うポストエフェクト処理部とを含み、
前記ポストエフェクト処理部が、
前記スクリーンに対してポストエフェクト領域を設定し、
前記ポストエフェクト領域の一部又は全体において第1のエフェクト色をグラデーション変化させるための第1の色調整情報と、前記視界画像の奥行き値に応じて第1のエフェクト色を変化させるための第2の色調整情報とを設定し、
前記第1の色調整情報と前記第2の色調整情報とに基づいて、前記視界画像の前記ポストエフェクト領域に対応する領域に前記第1のエフェクト色を反映させて前記視界画像の色を調整するポストエフェクト処理を行うことを特徴とする画像生成システムに関係する。
(1) The present invention includes a field-of-view image generation unit that generates a field-of-view image viewed from a virtual camera by projecting an object set in an object space onto a screen;
A post-effect processing unit that performs post-effect processing for adjusting the color of the view image,
The post-effect processing unit
Set a post-effect area for the screen,
First color adjustment information for changing the gradation of the first effect color in a part or the whole of the post-effect area, and a second for changing the first effect color according to the depth value of the view field image And color adjustment information for
Based on the first color adjustment information and the second color adjustment information, the color of the view image is adjusted by reflecting the first effect color in an area corresponding to the post effect area of the view image. The present invention relates to an image generation system characterized by performing post-effect processing.

また本発明は、上記各部としてコンピュータを機能させるプログラムに関係する。また本発明は、コンピュータ読み取り可能な情報記憶媒体であって、上記各部としてコンピュータを機能させるプログラムを記憶(記録)した情報記憶媒体に関係する。   The present invention also relates to a program that causes a computer to function as each of the above-described units. The present invention also relates to a computer-readable information storage medium that stores (records) a program that causes a computer to function as each unit.

本発明において、視界画像とは、フレームバッファに出力された段階の画像データとしてもよいし、フレームバッファに出力される前段階としてワークバッファ等の中間バッファに出力された中間段階の画像データとしてもよい。   In the present invention, the field-of-view image may be image data at a stage output to the frame buffer, or may be image data at an intermediate stage output to an intermediate buffer such as a work buffer as a previous stage output to the frame buffer. Good.

また、ポストエフェクト処理とは、フレームバッファに出力された視界画像の画像データにエフェクト色を反映させるようにしてもよいし、ワークバッファに出力された視界画像の画像データにエフェクト色を反映させた画像データを、フレームバッファに出力するようにしてもよい。   In post-effect processing, the effect color may be reflected in the image data of the view image output to the frame buffer, or the effect color may be reflected in the image data of the view image output to the work buffer. The image data may be output to the frame buffer.

また、視界画像に対して色を調整するポストエフェクト処理とは、視界画像に対して直接的に色を調整することの他、他の色調整処理等を加えた後の視界画像に対して色を調整することを含む。また、視界画像に第1のエフェクト色を反映させるとは、視界画像に直接的に第1のエフェクト色を反映させることの他、他の色調整処理等を加えた後の視界画像に第1のエフェクト色を反映させることを含む。   In addition, the post-effect processing for adjusting the color for the view image is not only for directly adjusting the color for the view image, but also for the view image after other color adjustment processing is added. Including adjusting. Also, reflecting the first effect color in the view image means that the first effect color is directly reflected in the view image and the first view color is added to the view image after other color adjustment processing or the like is added. Including reflecting the effect color.

また、視界画像の奥行き値とは、Zバッファに格納された視界画像のZ値や、該Z値を変換した所定の距離情報とすることができる。   Further, the depth value of the view image can be the Z value of the view image stored in the Z buffer, or predetermined distance information obtained by converting the Z value.

本発明によれば、奥行き値に応じたエフェクト色の変化特性に、所定の領域でグラデーション変化するエフェクト色の変化特性を加味した変化特性により、視界画像に第1のエフェクト色を反映させることができる。例えば、視界画像の地平線や水平線付近の領域をポストエフェクト領域として設定すれば、地平線や水平線から離れるにつれ空の色がグラデーション変化するようにすることができる。   According to the present invention, the first effect color can be reflected in the visual field image by the change characteristic in which the change characteristic of the effect color that changes in gradation in the predetermined region is added to the change characteristic of the effect color according to the depth value. it can. For example, if an area near the horizon or horizontal line of the view image is set as a post-effect area, the sky color can be changed in gradation as the distance from the horizon or horizontal line increases.

従って、奥行き値が最遠景として一定に設定される空などの領域では、視界画像の奥行き値に応じた色調整情報だけではエフェクト色の反映に変化を持たせることができなかったが、本発明によれば、例えば、地平線や水平線付近での空の色の変化等を表現することができる。   Therefore, in an area such as the sky in which the depth value is set to be the most distant view, the reflection of the effect color cannot be changed only by the color adjustment information according to the depth value of the view field image. For example, changes in the color of the sky near the horizon or the horizon can be expressed.

しかも、スクリーンに対して設定されたポストエフェクト領域に、より手前側のオブジェクトが存在する場合には、視界画像の奥行き値に応じた第2の色調整情報によって第1のエフェクト色が調整される。従って、ポストエフェクト領域において第1のエフェクト色をグラデーション変化させても不自然に見えることはない。   Moreover, when an object on the near side is present in the post-effect area set for the screen, the first effect color is adjusted by the second color adjustment information corresponding to the depth value of the view field image. . Therefore, even if the gradation of the first effect color is changed in the post effect area, it does not look unnatural.

更に、従来の画像生成システムでは、地平線や水平線付近での空の色の変化等を表現する際には、空に対応する領域に天球(スフィア)等を設定し、該天球の法線ベクトルの向きと仮想カメラの視線方向に基づいて、空の色の変化を調整するための演算を行う等していた。しかし、本発明によれば、かかる手法を採用しなくとも、軽い処理負荷で地平線や水平線付近での空の色の変化等をリアルに表現することができる。   Furthermore, in the conventional image generation system, when expressing changes in the color of the sky near the horizon or the horizontal line, a sphere or the like is set in a region corresponding to the sky, and the normal vector of the celestial sphere is set. Based on the direction and the direction of the line of sight of the virtual camera, calculations for adjusting changes in the sky color are performed. However, according to the present invention, a change in the color of the sky near the horizon or the horizon can be realistically expressed with a light processing load without adopting such a method.

(2)また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、
(1)の発明において、
前記ポストエフェクト処理部が、
第1のα値を前記第1の色調整情報として設定するとともに、第2のα値を第2の色調整情報として設定し、
前記第1のα値と前記第2のα値との乗算結果に基づいてαブレンディングを行うことにより、前記視界画像に対して前記ポストエフェクト処理を行うようにしてもよい。
(2) In the image generation system, program, and information storage medium according to the present invention,
In the invention of (1),
The post-effect processing unit
A first α value is set as the first color adjustment information, and a second α value is set as the second color adjustment information.
The post-effect processing may be performed on the field-of-view image by performing α blending based on a multiplication result of the first α value and the second α value.

本発明によれば、第1のエフェクト色をグラデーション変化させる第1のα値と、視界画像の奥行き値に応じた第2のα値との乗算結果に基づいてαブレンディングを行うことにより、奥行き値に応じたエフェクト色の変化特性に、所定の領域でグラデーション変化するエフェクト色の変化特性を加味した変化特性により、視界画像に第1のエフェクト色を反映させることができる。   According to the present invention, the depth is obtained by performing α blending based on the multiplication result of the first α value that changes the gradation of the first effect color and the second α value corresponding to the depth value of the view field image. The first effect color can be reflected in the field-of-view image by a change characteristic in which an effect color change characteristic that changes gradation in a predetermined region is added to the effect color change characteristic corresponding to the value.

(3)また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、
(1)、(2)の発明のいずれかにおいて、
前記ポストエフェクト処理部が、
前記仮想カメラの制御情報に基づいて、前記ポストエフェクト領域を設定するようにしてもよい。
(3) In the image generation system, the program, and the information storage medium according to the present invention,
In any of the inventions of (1) and (2),
The post-effect processing unit
The post effect area may be set based on the control information of the virtual camera.

本発明においては、仮想カメラの位置、向き、画角に関する制御情報や、それらの情報に基づいて求められる情報に基づいて、ポストエフェクト領域を設定することができる。また、ポストエフェクト領域を設定するとは、ポストエフェクト領域の基準位置を設定するようにしてもよいし、ポストエフェクト領域の範囲を設定するようにしてもよい。   In the present invention, the post-effect area can be set based on control information related to the position, orientation, and angle of view of the virtual camera, and information obtained based on the information. Setting the post-effect area may be such that the reference position of the post-effect area may be set, or the range of the post-effect area may be set.

本発明によれば、仮想カメラの位置、向き、画角の変化により、ポストエフェクト処理の対象とすべき領域のスクリーン上の位置が変化した場合に、仮想カメラの位置、向き、画角の変化に合わせてポストエフェクト領域を設定することができる。   According to the present invention, when the position on the screen of the area to be subjected to post-effect processing changes due to the change in the position, orientation, and angle of view of the virtual camera, the change in the position, orientation, and angle of view of the virtual camera. The post-effect area can be set to match.

例えば、仮想カメラの位置が高くなれば、或いは仮想カメラの向きが上向きになれば、スクリーンに投影される地平線や水平線は相対的にスクリーンの下方に位置することになる。そこで、仮想カメラの位置、向き、画角の変化に合わせてポストエフェクト領域を設定することにより、仮想カメラの位置、向き、画角が変化しても、例えば地平線や水平線付近をポストエフェクト処理の対象領域とすることができる。   For example, if the position of the virtual camera becomes higher or the orientation of the virtual camera becomes upward, the horizon and horizontal lines projected on the screen are relatively positioned below the screen. Therefore, by setting the post-effect area according to changes in the position, orientation, and angle of view of the virtual camera, even if the position, orientation, and angle of view of the virtual camera change, for example, the post-effect processing near the horizon or the horizontal line It can be a target area.

(4)また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、
(1)〜(3)の発明のいずれかにおいて、
前記ポストエフェクト処理部が、
オブジェクト空間の所定の基準面からの高さ情報に基づいて該高さ情報に対応するスクリーン座標系における座標情報を取得し、取得した座標情報に基づいて前記ポストエフェクト領域を設定するようにしてもよい。
(4) In the image generation system, the program, and the information storage medium according to the present invention,
In any one of the inventions of (1) to (3),
The post-effect processing unit
The coordinate information in the screen coordinate system corresponding to the height information is acquired based on the height information from the predetermined reference plane of the object space, and the post-effect area is set based on the acquired coordinate information. Good.

本発明においては、例えばCPU等の演算手段が演算した座標情報を、ポストエフェクト処理部が取得するようにしてもよいし、ポストエフェクト処理部が座標情報を演算することにより座標情報を取得するようにしてもよい。   In the present invention, for example, the post-effect processing unit may acquire coordinate information calculated by a calculation unit such as a CPU, or the post-effect processing unit may acquire coordinate information by calculating the coordinate information. It may be.

また、オブジェクト空間の所定の基準面からの高さ情報とは、該オブジェクト空間のオブジェクト配置や仮想カメラの移動範囲等に応じて、任意に定めることができる。   The height information from the predetermined reference plane of the object space can be arbitrarily determined according to the object arrangement in the object space, the movement range of the virtual camera, and the like.

本発明によれば、例えば、オブジェクト空間における所定の高さ情報に対応するスクリーン座標系における座標情報を、ポストエフェクト領域を設定する際の基準とすることができる。従って、仮想カメラの位置、向き、画角の変化により、ポストエフェクト処理の対象とすべき領域のスクリーン上の位置が変化した場合に、仮想カメラの位置、向き、画角の変化に合わせてポストエフェクト領域を設定することができる。   According to the present invention, for example, coordinate information in the screen coordinate system corresponding to predetermined height information in the object space can be used as a reference when setting the post-effect area. Therefore, when the position on the screen of the area that should be subject to post-effect processing changes due to changes in the position, orientation, and angle of view of the virtual camera, posts are made according to changes in the position, orientation, and angle of view of the virtual camera. The effect area can be set.

(5)また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、
(1)〜(4)の発明のいずれかにおいて、
前記ポストエフェクト処理部が、
前記第1の色調整情報を、前記ポストエフェクト領域の一部であるグラデーション調整領域の一端から他端に向けてグラデーション変化するように設定するようにしてもよい。
(5) In the image generation system, the program, and the information storage medium according to the present invention,
In any one of the inventions of (1) to (4),
The post-effect processing unit
The first color adjustment information may be set so that the gradation changes from one end to the other end of the gradation adjustment area that is a part of the post-effect area.

本発明によれば、グラデーション調整領域の一端から他端に向けて第1のエフェクト色がグラデーション変化するように、第1のエフェクト色を視界画像に反映させることができる。   According to the present invention, the first effect color can be reflected in the view field image so that the first effect color changes in gradation from one end to the other end of the gradation adjustment region.

(6)また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、
(5)の発明において、
前記ポストエフェクト処理部が、
前記第1の色調整情報を設定する処理として、一端側の頂点と他端側の頂点とで異なるα値が設定された第1のポリゴンを描画する処理を行うようにしてもよい。
(6) In the image generation system, the program, and the information storage medium according to the present invention,
In the invention of (5),
The post-effect processing unit
As the process of setting the first color adjustment information, a process of drawing a first polygon in which different α values are set for the vertex on one end side and the vertex on the other end side may be performed.

本発明において、第1のポリゴンは、例えば、スクリーンの横幅に対応する一定サイズの矩形のポリゴンとしてもよい。ここで、スクリーンの横幅に対応するとは、スクリーンの横幅と横幅が等しいポリゴンとしてもよいし、スクリーンの横幅よりも横幅が多少広い或いは狭いポリゴンとしてもよい。   In the present invention, the first polygon may be, for example, a rectangular polygon having a certain size corresponding to the horizontal width of the screen. Here, “corresponding to the horizontal width of the screen” may be a polygon whose horizontal width is equal to the horizontal width of the screen, or may be a polygon whose width is slightly wider or narrower than the horizontal width of the screen.

本発明によれば、ポリゴンの頂点に対して設定したα値により、グラデーション調整領域において第1のエフェクト色の濃度をグラデーション変化させることができる。例えば、矩形のポリゴンの右上、左上の頂点に設定されるα値を0.0(透明)とし、右下、左下の頂点に設定されるα値を1.0(不透明)とすれば、第1のポリゴンの上端から下端に向けてα値が線形補間され、第1のエフェクト色の濃度が次第に濃くなるようにすることができる。   According to the present invention, the density of the first effect color can be changed in gradation in the gradation adjustment region by the α value set for the vertex of the polygon. For example, if the α values set at the upper right and upper left vertices of a rectangular polygon are 0.0 (transparent) and the α values set at the lower right and lower left vertices are 1.0 (opaque), The alpha value is linearly interpolated from the upper end to the lower end of one polygon, so that the density of the first effect color gradually increases.

(7)また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、
(5)、(6)の発明のいずれかにおいて、
前記ポストエフェクト処理部が、
前記第1の色調整情報を、前記ポストエフェクト領域の前記グラデーション調整領域以外の領域では前記グラデーション調整領域の他端に設定される色調整情報に設定するようにしてもよい。
(7) In the image generation system, the program, and the information storage medium according to the present invention,
In any of the inventions of (5) and (6),
The post-effect processing unit
The first color adjustment information may be set to color adjustment information set at the other end of the gradation adjustment area in an area other than the gradation adjustment area in the post-effect area.

本発明によれば、ポストエフェクト領域において、グラデーション調整領域とそれ以外の領域とで第1の色調整情報(第1のα値)の変化特性を連続させることができる。従って、グラデーション調整領域とそれ以外の領域とで、設定される色調整情報(例えばα値)が急激に変化して不自然な画像が生成されることを防止することができる。   According to the present invention, in the post-effect area, the change characteristics of the first color adjustment information (first α value) can be made continuous between the gradation adjustment area and the other areas. Therefore, it is possible to prevent an unnatural image from being generated due to abrupt changes in the color adjustment information (for example, α value) that is set in the gradation adjustment region and other regions.

また、視界画像の奥行き値が手前側である領域では、視界画像の奥行き値に応じた第2の色調整情報(例えば第2のα値)によって、ポストエフェクト領域に対して最終的に設定される色調整情報(例えばα値)が0もしくは0に近い値にされることになる。従って、グラデーション調整領域以外の領域に対して第1の色調整情報(例えば第1のα値)を固定して設定しても、奥行き値が手前側である領域においては第1のエフェクト色の濃度を0もしくは非常に薄くなるようにすることができる。   In the area where the depth value of the visual field image is on the near side, the post-effect area is finally set by the second color adjustment information (for example, the second α value) corresponding to the depth value of the visual field image. Color adjustment information (for example, α value) is set to 0 or a value close to 0. Therefore, even if the first color adjustment information (for example, the first α value) is fixedly set for an area other than the gradation adjustment area, the first effect color of the area where the depth value is on the near side is set. The concentration can be 0 or very low.

(8)また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、
(7)の発明において、
前記ポストエフェクト処理部が、
前記ポストエフェクト領域を設定する処理として、全ての頂点に対して前記グラデーション調整領域の他端での色調整情報が設定され、前記ポストエフェクト領域の前記グラデーション調整領域以外の領域に対応する第2のポリゴンを描画する処理を行うようにしてもよい。
(8) In the image generation system, the program, and the information storage medium according to the present invention,
In the invention of (7),
The post-effect processing unit
As the processing for setting the post-effect area, color adjustment information at the other end of the gradation adjustment area is set for all vertices, and a second area corresponding to an area other than the gradation adjustment area in the post-effect area. You may make it perform the process which draws a polygon.

本発明において、第2のポリゴンとは、スクリーンの横幅と横幅が等しいポリゴンとしてもよいし、スクリーンの横幅よりも横幅が多少広い或いは狭いポリゴンとしてもよい。また、第2のポリゴンは、グラデーション調整領域の設定位置や設定範囲に応じて、サイズが変化するようにしてもよい。   In the present invention, the second polygon may be a polygon whose horizontal width is equal to the horizontal width of the screen, or may be a polygon whose horizontal width is slightly wider or narrower than the horizontal width of the screen. The size of the second polygon may be changed according to the setting position or setting range of the gradation adjustment area.

本発明によれば、ポリゴンの頂点に対して設定したα値により、ポストエフェクト領域のグラデーション調整領域以外の領域でのα値を、グラデーション調整領域の他端でのα値に固定して設定することができる。   According to the present invention, the α value set for the vertex of the polygon is fixed by setting the α value in the region other than the gradation adjustment region in the post-effect region to the α value at the other end of the gradation adjustment region. be able to.

(9)また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、
(1)〜(8)の発明のいずれかにおいて、
前記ポストエフェクト処理部が、
前記視界画像の奥行き値に応じて第2のエフェクト色を変化させるための第3の色調整情報を設定し、
前記第3の色調整情報に基づいて、前記視界画像の全領域に前記第2のエフェクト色を反映させて前記視界画像の色を調整するポストエフェクト処理を更に行うようにしてもよい。
(9) In the image generation system, the program, and the information storage medium according to the present invention,
In any one of the inventions (1) to (8),
The post-effect processing unit
Setting third color adjustment information for changing the second effect color according to the depth value of the view field image;
Based on the third color adjustment information, post-effect processing for adjusting the color of the visual field image by reflecting the second effect color in the entire region of the visual field image may be further performed.

本発明によれば、第1のエフェクト色に加え、第1のエフェクト色とは異なる第2のエフェクト色を、奥行き値に応じて視界画像の全領域に反映することができる。従って、ポストエフェクト調整領域における第1のエフェクト色を、第2のエフェクト色に溶け込ませるようにした微妙な画像表現を行うことができる。   According to the present invention, in addition to the first effect color, the second effect color different from the first effect color can be reflected in the entire region of the view field image according to the depth value. Therefore, it is possible to perform a delicate image expression in which the first effect color in the post-effect adjustment area is merged with the second effect color.

(10)また本発明に係る画像生成システムは、
オブジェクト空間に設定されたオブジェクトをスクリーンに投影した視界画像に対して色を調整するポストエフェクト処理を行うポストエフェクト処理部を含み、
前記ポストエフェクト処理部が、
前記視界画像中の地平線及び水平線の少なくとも一方を含む領域をポストエフェクト領域として設定し、
前記ポストエフェクト領域において、前記地平線及び水平線の少なくとも一方からその上方に離れるにつれて第1のエフェクト色が薄くなるように第1のエフェクト色をグラデーション変化させるとともに、前記視界画像の奥行き値に応じて第1のエフェクト色を変化させて、前記視界画像に前記第1のエフェクト色を反映させるポストエフェクト処理を行うようにしてもよい。
(10) An image generation system according to the present invention includes:
Including a post-effect processing unit that performs post-effect processing for adjusting the color of the field-of-view image obtained by projecting the object set in the object space onto the screen;
The post-effect processing unit
An area including at least one of the horizon and the horizon in the view image is set as a post-effect area,
In the post effect area, the first effect color is changed in gradation so that the first effect color becomes lighter as it moves away from at least one of the horizon and the horizontal line, and the first effect color is changed according to the depth value of the visual field image. One effect color may be changed, and post-effect processing for reflecting the first effect color in the view field image may be performed.

また本発明は、上記ポストエフェクト処理部としてコンピュータを機能させるプログラムに関係する。また本発明は、コンピュータ読み取り可能な情報記憶媒体であって、上記ポストエフェクト処理部としてコンピュータを機能させるプログラムを記憶(記録)した情報記憶媒体に関係する。   The present invention also relates to a program that causes a computer to function as the post-effect processing unit. The present invention also relates to a computer-readable information storage medium that stores (records) a program that causes a computer to function as the post-effect processing unit.

本発明によれば、奥行き値に応じたエフェクト色の変化特性に、所定の領域でグラデーション変化するエフェクト色の変化特性を加味した変化特性により、視界画像に第1のエフェクト色を反映させることができる。そして、視界画像の地平線や水平線付近の領域をポストエフェクト領域として設定することにより、地平線や水平線からその上方に離れるにつれ空の色がグラデーション変化するようにすることができる。   According to the present invention, the first effect color can be reflected in the visual field image by the change characteristic in which the change characteristic of the effect color that changes in gradation in the predetermined region is added to the change characteristic of the effect color according to the depth value. it can. Then, by setting the area near the horizon or the horizontal line of the field-of-view image as the post-effect area, the color of the sky can be changed in gradation as it moves away from the horizon or horizontal line.

以下、本実施形態について図面を用いて説明する。   Hereinafter, the present embodiment will be described with reference to the drawings.

なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。   In addition, this embodiment demonstrated below does not unduly limit the content of this invention described in the claim. In addition, all the configurations described in the present embodiment are not necessarily essential configuration requirements of the present invention.

1.構成
図1に、本実施形態の画像生成システム(ゲームシステム)の機能ブロック図の一例を示す。なお同図において本実施形態は、少なくとも処理部100を含めばよく(或いは処理部100と記憶部170を含めばよく)、それ以外の各部(機能ブロック)については任意の構成要素とすることができる。
1. Configuration FIG. 1 shows an example of a functional block diagram of an image generation system (game system) of the present embodiment. In this figure, the present embodiment only needs to include at least the processing unit 100 (or include the processing unit 100 and the storage unit 170), and the other units (functional blocks) may be optional components. it can.

操作部160は、プレーヤが操作データを入力するためのものであり、その機能は、レバー、ボタン、ステアリング、シフトレバー、アクセルペダル、ブレーキペダル、マイク、センサー、或いは筺体などのハードウェアにより実現できる。   The operation unit 160 is for the player to input operation data, and the function can be realized by hardware such as a lever, button, steering, shift lever, accelerator pedal, brake pedal, microphone, sensor, or housing. .

記憶部170は、処理部100や通信部196などのワーク領域となるもので、その機能はRAMなどのハードウェアにより実現できる。   The storage unit 170 serves as a work area such as the processing unit 100 or the communication unit 196, and its function can be realized by hardware such as a RAM.

情報記憶媒体180(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(CD、DVD)、光磁気ディスク(MO)、磁気ディスク、ハードディスク、磁気テープ、或いはメモリ(ROM)などのハードウェアにより実現できる。処理部100は、この情報記憶媒体180に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。即ち情報記憶媒体180には、本実施形態の各部(各手段)としてコンピュータを機能させるためのプログラム(各部をコンピュータに実現させるためのプログラム)が記憶(記録、格納)される。   The information storage medium 180 (computer-readable medium) stores programs, data, and the like, and functions as an optical disk (CD, DVD), magneto-optical disk (MO), magnetic disk, hard disk, and magnetic tape. Alternatively, it can be realized by hardware such as a memory (ROM). The processing unit 100 performs various processes of this embodiment based on a program (data) stored in the information storage medium 180. That is, the information storage medium 180 stores (records and stores) a program for causing the computer to function as each unit (each unit) of the present embodiment (a program for causing the computer to implement each unit).

表示部190は、本実施形態により生成された画像を出力するものであり、その機能は、CRT、LCD、或いはHMD(ヘッドマウントディスプレイ)などのハードウェアにより実現できる。   The display unit 190 outputs an image generated according to the present embodiment, and the function thereof can be realized by hardware such as a CRT, LCD, or HMD (head mounted display).

音出力部192は、本実施形態により生成された音を出力するものであり、その機能は、スピーカ、或いはヘッドフォンなどのハードウェアにより実現できる。   The sound output unit 192 outputs the sound generated by the present embodiment, and its function can be realized by hardware such as a speaker or headphones.

携帯型情報記憶装置194は、プレーヤの個人データやゲームのセーブデータなどが記憶されるものであり、この携帯型情報記憶装置194としては、メモリカードや携帯型ゲーム装置などを考えることができる。   The portable information storage device 194 stores player personal data, game save data, and the like. As the portable information storage device 194, a memory card, a portable game device, and the like can be considered.

通信部196は、外部(例えばホスト装置や他の画像生成システム)との間で通信を行うための各種の制御を行うものであり、その機能は、各種プロセッサ又は通信用ASICなどのハードウェアや、プログラムなどにより実現できる。   The communication unit 196 performs various controls for communicating with the outside (for example, a host device or other image generation system), and functions thereof are hardware such as various processors or a communication ASIC, It can be realized by a program.

なお本実施形態の各部としてコンピュータを機能させるためのプログラム(データ)は、ホスト装置(サーバー)が有する情報記憶媒体からネットワーク及び通信部196を介して情報記憶媒体180(記憶部170)に配信するようにしてもよい。このようなホスト装置(サーバー)の情報記憶媒体の使用も本発明の範囲内に含まれる。   Note that a program (data) for causing a computer to function as each unit of this embodiment is distributed from the information storage medium of the host device (server) to the information storage medium 180 (storage unit 170) via the network and the communication unit 196. You may do it. Use of such an information storage medium of the host device (server) is also included in the scope of the present invention.

処理部100(プロセッサ)は、操作部160からの操作データやプログラムなどに基づいて、ゲーム処理、画像生成処理、或いは音生成処理などの各種の処理を行う。この場合、処理部100は、記憶部170内の主記憶部172をワーク領域として使用して、各種の処理を行う。この処理部100の機能は、各種プロセッサ(CPU、DSP等)又はASIC(ゲートアレイ等)などのハードウェアや、プログラム(ゲームプログラム)により実現できる。   The processing unit 100 (processor) performs various processes such as a game process, an image generation process, and a sound generation process based on operation data from the operation unit 160, a program, and the like. In this case, the processing unit 100 performs various processes using the main storage unit 172 in the storage unit 170 as a work area. The function of the processing unit 100 can be realized by hardware such as various processors (CPU, DSP, etc.) or ASIC (gate array, etc.) and a program (game program).

処理部100は、移動・動作処理部110、オブジェクト空間設定部112、仮想カメラ制御部114、描画部120、音生成部130を含む。なお、処理部100は、これらの各部(機能ブロック)を全て含む必要はなく、その一部を省略してもよい。   The processing unit 100 includes a movement / motion processing unit 110, an object space setting unit 112, a virtual camera control unit 114, a drawing unit 120, and a sound generation unit 130. Note that the processing unit 100 does not need to include all these units (functional blocks), and some of them may be omitted.

移動・動作処理部110は、オブジェクト(移動体)の移動情報(位置、回転角度)や動作情報(オブジェクトの各パーツの位置、回転角度)を求める処理を行う。即ち、操作部160によりプレーヤが入力した操作データやゲームプログラムなどに基づいて、オブジェクトを移動させたり動作(モーション、アニメーション)させたりする処理を行う。   The movement / motion processing unit 110 performs processing for obtaining movement information (position, rotation angle) and motion information (position, rotation angle of each part of the object) of the object (moving body). That is, based on operation data input by the player through the operation unit 160, a game program, or the like, processing for moving an object or moving (motion, animation) is performed.

オブジェクト空間設定部112は、移動体(キャラクタ、車、戦車、ロボット)、柱、壁、建物、マップ(地形)などの各種オブジェクト(ポリゴン、自由曲面又はサブディビジョンサーフェスなどのプリミティブ面で構成されるオブジェクト)をオブジェクト空間内に配置設定するための処理を行う。より具体的には、ワールド座標系でのオブジェクトの位置や回転角度(方向)を決定し、その位置(X、Y、Z)にその回転角度(X、Y、Z軸回りでの回転)でオブジェクトを配置する。   The object space setting unit 112 includes various objects (polygons, free-form surfaces, subdivision surfaces, etc.) such as moving objects (characters, cars, tanks, robots), columns, walls, buildings, maps (terrain), and the like. A process for arranging and setting (object) in the object space is performed. More specifically, the position and rotation angle (direction) of the object in the world coordinate system are determined, and the rotation angle (rotation around the X, Y, and Z axes) is determined at that position (X, Y, Z). Arrange objects.

仮想カメラ制御部114は、オブジェクト空間内に設定される仮想カメラを制御する処理を行う。即ち、仮想カメラの位置(X、Y、Z)又は回転(X、Y、Z軸回りでの回転)などの仮想カメラ情報を求め、仮想カメラを制御する(視点位置や視線方向を制御する)。   The virtual camera control unit 114 performs processing for controlling a virtual camera set in the object space. That is, virtual camera information such as the position (X, Y, Z) or rotation (rotation around the X, Y, Z axes) of the virtual camera is obtained, and the virtual camera is controlled (controls the viewpoint position and line-of-sight direction). .

例えば、仮想カメラにより移動オブジェクトを後方から撮影する場合には、移動オブジェクトの位置又は回転の変化に仮想カメラが追従するように、仮想カメラの位置又は回転(仮想カメラの方向)を制御することが望ましい。この場合には、移動・動作処理部110で得られた移動オブジェクトの位置、方向又は速度などの情報に基づいて、仮想カメラを制御することになる。或いは、仮想カメラを、予め決められた移動経路で移動させながら予め決められた角度で回転させるようにしてもよい。この場合には、仮想カメラの位置(移動経路)や回転角度を特定するための仮想カメラデータに基づいて仮想カメラを制御する。   For example, when a moving object is photographed from behind with a virtual camera, the position or rotation (direction of the virtual camera) of the virtual camera may be controlled so that the virtual camera follows changes in the position or rotation of the moving object. desirable. In this case, the virtual camera is controlled based on information such as the position, direction, or speed of the moving object obtained by the movement / motion processing unit 110. Alternatively, the virtual camera may be rotated at a predetermined angle while being moved along a predetermined movement route. In this case, the virtual camera is controlled based on virtual camera data for specifying the position (movement path) and rotation angle of the virtual camera.

描画部120は、処理部100で行われる種々の処理(ゲーム処理)の結果に基づいて描画処理を行い、これにより画像を生成し、表示部190に出力する。いわゆる3次元ゲーム画像を生成する場合には、まずオブジェクトの各頂点の頂点データ(頂点の位置座標、テクスチャ座標、色データ、法線ベクトル或いはα値等)を含む頂点リストが入力され、入力された頂点リストに含まれる頂点データに基づいて、頂点処理(頂点シェーディング)が行われる。なお頂点シェーディングを行う際に、必要に応じてポリゴンを再分割するための頂点生成処理(テッセレーション、曲面分割、ポリゴン分割)を行うこともできる。頂点シェーディングでは、頂点シェーダプログラム(広義には、第1のシェーダプログラム)に従って、頂点の移動処理や、座標変換(ワールド座標変換、カメラ座標変換)、クリッピング処理、あるいは透視変換等のジオメトリ処理が行われ、その処理結果に基づいて、オブジェクトを構成する頂点群について与えられた頂点データを変更(更新、調整)する。そして、頂点シェーディング後の頂点データに基づいてラスタライズ(走査変換)が行われ、表示画像を構成するピクセル(表示画面を構成するフラグメント)を描画するピクセルシェーディング(広義には、ピクセル処理、フラグメント処理)が行われる。ピクセルシェーディングでは、ピクセルシェーダプログラム(第2のシェーダプログラム)に従って、テクスチャの読出し(テクスチャマッピング)、色データの設定/変更、半透明合成、アンチエイリアス等の各種処理を行って、最終的な表示画像のピクセルの描画色を決定し、透視変換されたオブジェクトの描画色を描画バッファ172に出力(描画)する。すなわち、ピクセルシェーディングでは、表示画像のピクセル単位で画像情報(色、法線、輝度、α値等)を設定あるいは変更するパーピクセル処理を行う。これにより、オブジェクト空間内において仮想カメラ(所与の視点)から見える画像(フレーム画像)が生成される。なお、仮想カメラ(視点)が複数存在する場合には、それぞれの仮想カメラから見える画像を分割画像として1画面に表示できるようにフレーム画像を生成することができる。   The drawing unit 120 performs drawing processing based on the results of various processing (game processing) performed by the processing unit 100, thereby generating an image and outputting the image to the display unit 190. When generating a so-called three-dimensional game image, first, a vertex list including vertex data (vertex position coordinates, texture coordinates, color data, normal vector, α value, etc.) of each vertex of the object is input and input. Vertex processing (vertex shading) is performed based on the vertex data included in the vertex list. When performing vertex shading, vertex generation processing (tessellation, curved surface division, polygon division) for subdividing a polygon can be performed as necessary. In vertex shading, according to the vertex shader program (first shader program in a broad sense), vertex movement processing, coordinate transformation (world coordinate transformation, camera coordinate transformation), clipping processing, or geometric processing such as perspective transformation is performed. On the basis of the processing result, the vertex data given to the vertex group constituting the object is changed (updated or adjusted). Then, rasterization (scan conversion) is performed based on the vertex data after vertex shading, and pixel shading (pixel processing and fragment processing in a broad sense) that draws pixels (fragments that configure the display screen) that constitute the display image Is done. In pixel shading, according to the pixel shader program (second shader program), various processes such as texture reading (texture mapping), color data setting / change, translucent composition, anti-aliasing, etc. are performed, and the final display image is displayed. The drawing color of the pixel is determined, and the drawing color of the perspective-transformed object is output (drawn) to the drawing buffer 172. That is, in pixel shading, per-pixel processing for setting or changing image information (color, normal, luminance, α value, etc.) for each pixel of a display image is performed. As a result, an image (frame image) that can be seen from the virtual camera (given viewpoint) in the object space is generated. In addition, when there are a plurality of virtual cameras (viewpoints), a frame image can be generated so that an image seen from each virtual camera can be displayed on one screen as a divided image.

なお描画バッファ172、表示バッファ173は、フレームバッファ、ワークバッファなどのピクセル単位で画像情報を記憶できるバッファ(画像バッファ)であり、例えば画像生成システムのVRAM上に確保される。また本実施形態では、描画バッファ172(バックバッファ)、表示バッファ173(フロントバッファ)のダブルバッファ構成にしてもよいし、シングルバッファ構成やトリプルバッファ構成にしてもよい。或いは4個以上のバッファを用いるようにしてもよい。   The drawing buffer 172 and the display buffer 173 are buffers (image buffers) that can store image information in units of pixels, such as a frame buffer and a work buffer, and are secured on the VRAM of the image generation system, for example. In this embodiment, the drawing buffer 172 (back buffer) and the display buffer 173 (front buffer) may be configured as a double buffer, or may be configured as a single buffer or a triple buffer. Alternatively, four or more buffers may be used.

また、描画部120は、テクスチャマッピング処理や隠面消去処理やαブレンディング処理を行うことができる。   The drawing unit 120 can perform texture mapping processing, hidden surface removal processing, and α blending processing.

ここでテクスチャマッピング処理は、テクスチャ記憶部174に記憶されるテクスチャ(テクセル値)をオブジェクトにマッピングする処理である。具体的には、オブジェクト(プリミティブ面)の頂点に設定(付与)されるテクスチャ座標等を用いてテクスチャ記憶部174からテクスチャ(色、α値などの表面プロパティ)を読み出す。そして、2次元の画像又はパターンであるテクスチャをオブジェクトにマッピングする。この場合に、ピクセルとテクセルとを対応づける処理やバイリニア補間(テクセル補間)などを行う。   Here, the texture mapping process is a process of mapping a texture (texel value) stored in the texture storage unit 174 to an object. Specifically, the texture (surface properties such as color and α value) is read from the texture storage unit 174 using the texture coordinates set (given) at the vertices of the object (primitive surface). Then, a texture that is a two-dimensional image or pattern is mapped to the object. In this case, processing for associating pixels and texels, bilinear interpolation (texel interpolation), and the like are performed.

また隠面消去処理は、例えば、各ピクセルのZ値(奥行き情報)が格納されているZバッファ176(奥行きバッファ)を用いるZバッファ法(奥行き比較法、Zテスト)により実現される。即ちオブジェクトのプリミティブ面の各ピクセルを描画する際に、Zバッファ176に格納されているZ値を参照する。そして参照されたZバッファ176のZ値と、プリミティブ面の描画対象ピクセルでのZ値とを比較し、プリミティブ面のZ値が、仮想カメラから見て手前側となるZ値(例えば大きなZ値)である場合には、そのピクセルの描画処理を行うと共にZバッファ176のZ値を新たなZ値に更新する。   The hidden surface removal process is realized, for example, by a Z buffer method (depth comparison method, Z test) using a Z buffer 176 (depth buffer) in which the Z value (depth information) of each pixel is stored. That is, when drawing each pixel on the primitive surface of the object, the Z value stored in the Z buffer 176 is referred to. Then, the Z value of the referenced Z buffer 176 is compared with the Z value at the drawing target pixel of the primitive surface, and the Z value of the primitive surface is the front side when viewed from the virtual camera (for example, a large Z value). ), The pixel drawing process is performed and the Z value of the Z buffer 176 is updated to a new Z value.

またαブレンディング処理は、α値(A値)に基づいて行う処理であり、通常αブレンディング、加算αブレンディング或いは減算αブレンディングなどがある。例えば通常αブレンディングの場合には下式の処理を行う。   The α blending process is a process performed based on the α value (A value), and includes normal α blending, addition α blending, subtraction α blending, and the like. For example, in the case of normal α blending, the following processing is performed.

=(1−α)×R+α×R
=(1−α)×G+α×G
=(1−α)×B+α×B
一方、加算αブレンディングの場合には下式の処理を行う。
R Q = (1−α) × R 1 + α × R 2
G Q = (1−α) × G 1 + α × G 2
B Q = (1−α) × B 1 + α × B 2
On the other hand, in the case of addition α blending, the following processing is performed.

=R+α×R
=G+α×G
=B+α×B
また、減算αブレンディングの場合には下式の処理を行う。
R Q = R 1 + α × R 2
G Q = G 1 + α × G 2
B Q = B 1 + α × B 2
In the case of subtractive α blending, the following processing is performed.

=R−α×R
=G−α×G
=B−α×B
ここで、R、G、Bは、描画バッファ172(フレームバッファ)に既に描画されている画像(視界画像)のRGB成分であり、R、G、Bは、描画バッファ172に描画すべき画像のRGB成分である。また、R、G、Bは、αブレンディングにより得られる画像のRGB成分である。なおα値は、各ピクセル(テクセル、ドット)に関連づけて記憶できる情報であり、例えば色情報以外のプラスアルファの情報である。α値は、半透明度(透明度、不透明度と等価)情報、マスク情報、或いはバンプ情報などとして使用できる。本実施の形態では、R、G、Bにエフェクト色のR、G、B成分を設定して上記のようなαブレンディング処理を行うことで、視界画像にエフェクト(霧、雲、湯気、もや、ほこり、ちり、煙、竜巻又は露等)が掛かった画像を生成できる。
R Q = R 1 −α × R 2
G Q = G 1 −α × G 2
B Q = B 1 −α × B 2
Here, R 1 , G 1 , B 1 are RGB components of an image (view image) already drawn in the drawing buffer 172 (frame buffer), and R 2 , G 2 , B 2 are drawing buffers 172. Are RGB components of the image to be drawn. R Q , G Q , and B Q are RGB components of an image obtained by α blending. The α value is information that can be stored in association with each pixel (texel, dot), for example, plus alpha information other than color information. The α value can be used as translucency (equivalent to transparency and opacity) information, mask information, or bump information. In the present embodiment, the effect color (fog, cloud, steam) is applied to the view image by setting the R, G, B components of the effect color in R 2 , G 2 , B 2 and performing the α blending process as described above. , Haze, dust, dust, smoke, tornado or dew).

特に、本実施の形態では、描画部120は、視界画像生成部122、ポストエフェクト処理部124を含む。視界画像生成部122は、オブジェクトをスクリーンに投影して視界画像を生成する。即ち、透視変換後(ジオメトリ処理後)のオブジェクト(1又は複数プリミティブ面)を描画バッファ172に出力する。また、ポストエフェクト処理部124は、色調整情報としてのα値に基づいて、視界画像に対して色を調整するポストエフェクト処理を行う。   In particular, in the present embodiment, the drawing unit 120 includes a view image generation unit 122 and a post-effect processing unit 124. The view image generation unit 122 projects an object on a screen to generate a view image. That is, the object (one or a plurality of primitive surfaces) after perspective transformation (after geometry processing) is output to the drawing buffer 172. Further, the post effect processing unit 124 performs post effect processing for adjusting the color of the view image based on the α value as the color adjustment information.

より詳細には、ポストエフェクト処理部124は、仮想カメラの制御情報等に基づいて、スクリーンに対してポストエフェクト領域を設定する処理と、設定したポストエフェクト領域の一部又は全体において第1のエフェクト色をグラデーション変化させるための第1のα値と、視界画像の奥行き値に応じて第1のエフェクト色を変化させるための第2のα値とを設定する処理と、第1のα値と第2のα値とに基づいて、視界画像に第1のエフェクト色を反映させて視界画像のポストエフェクト領域に対応する領域の色を調整する処理とを行う。   More specifically, the post-effect processing unit 124 sets the post-effect area for the screen based on the virtual camera control information and the like, and the first effect in part or all of the set post-effect area. A process for setting a first α value for changing the gradation of the color and a second α value for changing the first effect color according to the depth value of the visual field image; Based on the second α value, a process of adjusting the color of the area corresponding to the post-effect area of the visual field image by reflecting the first effect color in the visual field image is performed.

具体的には、ポストエフェクト処理部124は、オブジェクト空間の所定の基準面からの高さ情報に基づいて該高さ情報に対応するスクリーン座標系における座標情報を取得し、取得した座標情報に基づいてポストエフェクト領域の一部をグラデーション調整領域として設定する処理を行う。   Specifically, the post-effect processing unit 124 acquires coordinate information in a screen coordinate system corresponding to the height information based on height information from a predetermined reference plane in the object space, and based on the acquired coordinate information. To set a part of the post-effect area as a gradation adjustment area.

また、ポストエフェクト処理部124は、グラデーション調整領域に第1のα値を設定する処理として、一端側の頂点と他端側の頂点とで異なるα値が設定され、スクリーンの横幅に対応する一定サイズの第1のポリゴンを描画する処理を行う。また、ポストエフェクト領域のグラデーション調整領域以外の領域に第1のα値を設定する処理として、全ての頂点に対して第1のポリゴンの他端でのα値が設定され、グラデーション調整領域以外の領域に対応する可変サイズの第2のポリゴンを描画する処理を行う。   Further, as a process for setting the first α value in the gradation adjustment region, the post-effect processing unit 124 sets different α values for the vertex on the one end side and the vertex on the other end side, and is a constant corresponding to the horizontal width of the screen. A process of drawing the first polygon having the size is performed. In addition, as a process of setting the first α value in the area other than the gradation adjustment area in the post-effect area, the α value at the other end of the first polygon is set for all the vertices, and the areas other than the gradation adjustment area are set. A process of drawing a variable-sized second polygon corresponding to the region is performed.

また、ポストエフェクト処理部124は、ポストエフェクト領域に第2のα値を設定する処理として、テクスチャマッピング処理を利用して、Zバッファ176に格納された視界画像の各画素のZ値や該Z値を変換した距離情報などの奥行き値に基づいて、該奥行き値に応じたα値とエフェクト色のR、G、B成分とを設定する処理を行う。例えば、LUT記憶部179に記憶されるインデックスカラー・テクスチャマッピング用のLUT(ルックアップテーブル)を用いてテクスチャマッピングを行うことにより、視界画像の各画素の奥行き値に応じた第2のα値とエフェクト色のR、G、B成分とを設定することができる。   Further, the post-effect processing unit 124 uses a texture mapping process as a process for setting the second α value in the post-effect area, and uses the Z value of each pixel of the view field image stored in the Z buffer 176 or the Z value. Based on a depth value such as distance information obtained by converting the value, a process of setting an α value corresponding to the depth value and R, G, and B components of the effect color is performed. For example, by performing texture mapping using an LUT (lookup table) for index color / texture mapping stored in the LUT storage unit 179, the second α value corresponding to the depth value of each pixel of the view image The effect color R, G, and B components can be set.

この場合、LUT記憶部179が、インデックス番号とα値及びエフェクト色とを対応付けるインデックスカラー・テクスチャマッピング用のルックアップテーブルを記憶し、ポストエフェクト処理部124が、視界画像の奥行き値をルックアップテーブルのインデックス番号として扱い、該ルックアップテーブルを用いて第1のポリゴン及び第2のポリゴンに対してインデックスカラー・テクスチャマッピングを行って、視界画像の各画素の奥行き値に応じた第2のα値と第1のエフェクト色とを設定する。   In this case, the LUT storage unit 179 stores a look-up table for index color / texture mapping that associates the index number with the α value and the effect color, and the post-effect processing unit 124 uses the look-up table for the depth value of the visual field image. The second alpha value corresponding to the depth value of each pixel of the field-of-view image by performing index color / texture mapping on the first polygon and the second polygon using the lookup table And the first effect color.

ここで、インデックスカラー・テクスチャマッピング用のルックアップテーブルが256色として設定されている場合には、ポストエフェクト処理部124が、Zバッファの視界画像のZ値を0〜255までの256段階の距離情報に変換して、これをインデックス番号として扱うようにしてもよい。   Here, when the lookup table for index color / texture mapping is set as 256 colors, the post-effect processing unit 124 sets the Z value of the view image in the Z buffer to a 256-step distance from 0 to 255. It may be converted into information and handled as an index number.

また、ポストエフェクト処理部124は、第3のα値を設定する処理として、第2のα値を設定する処理と同様に、視界画像の奥行き値をルックアップテーブルのインデックス番号として扱い、該ルックアップテーブルを用いてスクリーンサイズ又は分割スクリーンサイズの第3のポリゴンに対してインデックスカラー・テクスチャマッピングを行って、視界画像の各画素の奥行き値に応じた第3のα値と第2のエフェクト色とを設定する。   Further, as the process of setting the third α value, the post-effect processing unit 124 treats the depth value of the view field image as the index number of the lookup table, similarly to the process of setting the second α value. The third alpha value and the second effect color corresponding to the depth value of each pixel of the field-of-view image are obtained by performing index color / texture mapping on the third polygon of screen size or divided screen size using the up table. And set.

そして、ポストエフェクト処理部124は、第1のα値と第2のα値との乗算結果に基づいて、視界画像の色と第1のポリゴン及び第2のポリゴンの色とをαブレンディングすることにより、視界画像に第1のエフェクト色を反映させる処理を行う。すなわち、第1のα値をα、第2のα値をαとすると、α=α×αのようにして求めたα値を用いて、上述した通常αブレンディング、加算αブレンディング或いは減算αブレンディングの式の処理を行う。更に、第3のα値に基づいて、視界画像の色と第3のポリゴンの色とをαブレンディングすることにより、視界画像に第2のエフェクト色を反映させる処理を行う。 The post-effect processing unit 124 then α blends the color of the view image with the colors of the first polygon and the second polygon based on the multiplication result of the first α value and the second α value. Thus, a process of reflecting the first effect color on the view field image is performed. That is, when the first α value is α 1 and the second α value is α 2 , the above-described normal α blending and addition α blending are performed using the α value obtained as α = α 1 × α 2. Alternatively, the subtractive α blending formula is processed. Furthermore, a process for reflecting the second effect color on the view image is performed by α blending the color of the view image and the color of the third polygon based on the third α value.

音生成部130は、処理部100で行われる種々の処理の結果に基づいて音処理を行い、BGM、効果音、又は音声などのゲーム音を生成し、音出力部192に出力する。   The sound generation unit 130 performs sound processing based on the results of various processes performed by the processing unit 100, generates game sounds such as BGM, sound effects, or sounds, and outputs the game sounds to the sound output unit 192.

なお、本実施形態の画像生成システムは、1人のプレーヤのみがプレイできるシングルプレーヤモード専用のシステムにしてもよいし、このようなシングルプレーヤモードのみならず、複数のプレーヤがプレイできるマルチプレーヤモードも備えるシステムにしてもよい。   Note that the image generation system of the present embodiment may be a system dedicated to the single player mode in which only one player can play, or not only the single player mode but also a multiplayer mode in which a plurality of players can play. The system may also be provided.

また複数のプレーヤがプレイする場合に、これらの複数のプレーヤに提供するゲーム画像やゲーム音を、1つの端末を用いて生成してもよいし、ネットワーク(伝送ライン、通信回線)などで接続された複数の端末(ゲーム機、携帯電話)を用いて生成してもよい。   Further, when a plurality of players play, game images and game sounds to be provided to the plurality of players may be generated using one terminal, or connected via a network (transmission line, communication line) or the like. Alternatively, it may be generated using a plurality of terminals (game machine, mobile phone).

2.本実施形態の手法
次に本実施形態の手法について図面を用いて説明する。なお、以下では、本実施の形態のポストエフェクト処理の手法をフォグの表現に適用した場合を主に例にとり説明するが、本実施形態の手法は、フォグ以外の画像表現に適用することも可能である。
2. Next, the method of this embodiment will be described with reference to the drawings. In the following, a case where the post-effect processing method of the present embodiment is applied to fog expression will be mainly described as an example, but the method of the present embodiment can also be applied to image representation other than fog. It is.

2.1 距離に応じたフォグ濃度の変化
オブジェクト空間を仮想カメラから見た画像を生成する場合に、よりリアルなフォグエフェクトを表現するためには、仮想カメラ(視点)からの距離に応じてフォグ濃度を変化させることが望ましい。即ち、仮想カメラからの距離が遠くなるほどフォグ濃度を濃くすることにより、現実世界のフォグエフェクトを表現することができる。
2.1 Change in fog density according to distance When generating an image of the object space viewed from a virtual camera, in order to express a more realistic fog effect, the fog density depends on the distance from the virtual camera (viewpoint). It is desirable to change the concentration. That is, the fog effect in the real world can be expressed by increasing the fog density as the distance from the virtual camera increases.

そこで本実施形態では、仮想カメラからの距離パラメータであるZ値(ZバッファのZ値)に基づいて、α値とエフェクト色のR、G、B成分を設定する手法を採用している。具体的には図2のA1に示すように、まず視界画像(描画バッファ上に描画された画像)のZ値ZPを奥行き距離情報D(仮想カメラからの距離情報、視界画像のZ値を変換することで得られる第2のZ値)に変換する。本実施の形態では、視界画像のZ値ZPを、仮想カメラから見て奥側に対応する0から、手前側に対応する255までの256段階の奥行き距離情報Dに変換する。そして、A2に示すように、奥行き距離情報Dをエフェクト色ECPとα値αPとに変換する。   Therefore, in the present embodiment, a method of setting the α value and the R, G, and B components of the effect color based on the Z value (Z value of the Z buffer) that is a distance parameter from the virtual camera is employed. Specifically, as shown in A1 of FIG. 2, first, the Z value ZP of the view image (image drawn on the drawing buffer) is converted into the depth distance information D (distance information from the virtual camera, the Z value of the view image). To the second Z value obtained by doing so. In the present embodiment, the Z value ZP of the field-of-view image is converted into 256-step depth distance information D from 0 corresponding to the back side when viewed from the virtual camera to 255 corresponding to the front side. Then, as shown in A2, the depth distance information D is converted into an effect color ECP and an α value αP.

そして図2のA3に示すように、視界画像の色ICP(RGB、YUV等)と、エフェクト色ECPとを、αPに基づいてαブレンディングする。これにより、仮想カメラからの距離に応じてフォグ濃度が変化するフォグエフェクトが施されたフォグ処理後画像を生成することができる。   Then, as shown by A3 in FIG. 2, the color ICP (RGB, YUV, etc.) of the view field image and the effect color ECP are α-blended based on αP. As a result, it is possible to generate an image after fog processing to which a fog effect whose fog density changes according to the distance from the virtual camera.

なお、ZバッファのZ値を奥行き距離情報Dに変換する際には、奥側に対応するZ値と手前側に対応するZ値との間で、奥行き距離情報Dの最小値及び最大値を任意に設定することができる。   When the Z value of the Z buffer is converted into the depth distance information D, the minimum value and the maximum value of the depth distance information D are set between the Z value corresponding to the back side and the Z value corresponding to the near side. It can be set arbitrarily.

2.2 インデックスカラー・テクスチャマッピングによる距離に応じたフォグ濃度の変化
そして本実施形態では、図2のA2に示す、奥行き距離情報Dをエフェクト色ECPとα値αPとに変換する処理を、インデックスカラー・テクスチャマッピングを有効利用して実現している。
2.2 Change in fog density according to distance by index color / texture mapping In this embodiment, the process of converting depth distance information D into effect color ECP and α value αP shown in A2 of FIG. It is realized by using color and texture mapping effectively.

通常のインデックスカラー・テクスチャーマッピングでは、テクスチャ記憶部の使用記憶容量を節約するために、図3のB1に示すように、実際の色情報(RGB)ではなくインデックス番号が、テクスチャの各テクセルに関連づけて記憶される。また、図3のB2に示すように、インデックスカラー・テクスチャマッピング用のLUT(カラーパレット)には、インデックス番号により指定される色情報が記憶される。そして、オブジェクトに対してテクスチャマッピングを行う際には、テクスチャの各テクセルのインデックス番号に基づいてLUTを参照し、対応する色情報をLUTから読み出し、読み出された色情報を描画バッファ(フレームバッファ等)に描画する。   In normal index color / texture mapping, in order to save the storage capacity of the texture storage unit, an index number, not actual color information (RGB), is associated with each texel of the texture as shown in B1 of FIG. Is memorized. Also, as indicated by B2 in FIG. 3, the color information specified by the index number is stored in the index color / texture mapping LUT (color palette). When texture mapping is performed on an object, the LUT is referred to based on the index number of each texture texel, the corresponding color information is read from the LUT, and the read color information is read from the drawing buffer (frame buffer). Etc.).

このようなインデックスカラーモードのテクスチャマッピングでは、LUTを用いない通常モードのテクスチャマッピングに比べて、使用できる色数は少なくなる(例えば256色)。しかしながら、テクスチャ記憶部に実際の色情報(例えば24ビットの色情報)を記憶する必要が無くなるため、テクスチャ記憶部の使用記憶容量を大幅に節約できる。   In such texture mapping in the index color mode, the number of colors that can be used is smaller (for example, 256 colors) than in texture mapping in the normal mode that does not use the LUT. However, since there is no need to store actual color information (for example, 24-bit color information) in the texture storage unit, the used storage capacity of the texture storage unit can be greatly saved.

そこで、本実施形態では、このようなインデックスカラー・テクスチャマッピングを通常とは異なる形態で利用し、奥行き距離情報Dを、α値とエフェクト色のR、G、B成分とに変換している。このため、図4に示すように、ルックアップテーブルLUT2に、インデックス番号により指定されるα値(0.0〜1.0)とエフェクト色のR、G、B成分(図4のLUT2では黄色単色)とを格納しておく。   Therefore, in this embodiment, such index color / texture mapping is used in a form different from normal, and the depth distance information D is converted into the α value and the R, G, and B components of the effect color. Therefore, as shown in FIG. 4, in the lookup table LUT2, the α value (0.0 to 1.0) designated by the index number and the R, G, and B components of the effect color (yellow in the LUT2 in FIG. 4). (Single color).

図5は、本実施の形態のルックアップテーブルLUT2に格納されているLUT2のインデックス番号(奥行き距離情報D)とα値との関係をグラフ化したものである。図5のグラフでは、横軸がインデックス番号(奥行き距離情報D)を表し、255が手前側、0が最遠景(奥側)と対応する。また、縦軸がα値を表し、256段階の値が0.0〜1.0で表されている。図5に示すように、ルックアップテーブルLUT2では、最遠景の奥行き距離情報Dに対応するインデックス番号0には、奥側の奥行き値用のα値としてエフェクト色を濃く反映させるα=1.0(255)が対応付けられ、手前側の奥行き距離情報Dに対応するインデックス番号255には、手前側の奥行き値用のα値としてエフェクト色を反映させないα=0.0(0)が対応付けられている。そして、奥行き距離情報Dが手前側から奥側となるにつれ、フォグ濃度の変化特性に従ってエフェクト色の濃度が濃くなるようにα値が格納されている。   FIG. 5 is a graph showing the relationship between the index number (depth distance information D) of the LUT 2 stored in the lookup table LUT 2 of this embodiment and the α value. In the graph of FIG. 5, the horizontal axis represents an index number (depth distance information D), and 255 corresponds to the near side and 0 corresponds to the farthest view (back side). In addition, the vertical axis represents the α value, and 256 levels are represented by 0.0 to 1.0. As shown in FIG. 5, in the lookup table LUT2, the index number 0 corresponding to the depth distance information D of the farthest view reflects the effect color darkly as the α value for the depth value on the far side α = 1.0. (255) is associated, and the index number 255 corresponding to the near-side depth distance information D is associated with α = 0.0 (0) that does not reflect the effect color as the α value for the near-side depth value. It has been. Then, as the depth distance information D changes from the near side to the far side, the α value is stored so that the effect color density increases in accordance with the fog density change characteristic.

そして、図4のB3に示すように、256段階の奥行き距離情報DをルックアップテーブルLUT2のインデックス番号として扱い(奥行き距離情報Dをインデックス番号とみなし)、LUT2を用いて、図4のB4に示すように仮想オブジェクト(例えば表示画面サイズ、スクリーンサイズのスプライト、ポリゴン)に対してインデックスカラー・テクスチャマッピングを行う。これにより、視界画像の各画素の奥行き値に応じたα値と、エフェクト色のR、G、B成分とを得ることができる。そして、B5に示すように、視界画像の色とエフェクト色とを、奥行き値に応じたα値に基づいてαブレンディングし、視界画像の全領域にエフェクト色を反映させた画像を生成する。   Then, as shown in B3 of FIG. 4, the 256-step depth distance information D is treated as an index number of the lookup table LUT2 (the depth distance information D is regarded as an index number), and LUT2 is used to change to B4 of FIG. As shown, index color / texture mapping is performed on a virtual object (for example, display screen size, screen size sprite, polygon). Thereby, the α value corresponding to the depth value of each pixel of the field-of-view image and the R, G, and B components of the effect color can be obtained. Then, as shown in B5, the color of the visual field image and the effect color are α blended based on the α value corresponding to the depth value, and an image in which the effect color is reflected in the entire region of the visual field image is generated.

例えば、図6のような視界画像の奥行き距離情報DをLUT2のインデックス番号として扱い、図5のLUT2を用いて、スクリーンサイズのポリゴン(第3のポリゴン)に対してインデックスカラー・テクスチャマッピングを行う。すると、図7のように、視界画像の各画素の奥行き距離情報Dに応じたα値(第3のα値)と黄色のエフェクト色(第2のエフェクト色)とを設定することができる。そして、上記インデックスカラー・テクスチャマッピングを行ったスクリーンサイズのポリゴン(第3のポリゴン)を、頂点データのα値を全てα=1.0として、視界画像が描画されている描画バッファ172にαブレンディング描画する。すると、図8のように、視界画像の全領域に視界画像の奥行き距離情報Dに応じて黄色のエフェクト色(第2のエフェクト色)が反映され、現実世界のフォグ濃度の変化特性に従ったフォグ効果が反映された画像を生成することができる。   For example, the depth distance information D of the visual field image as shown in FIG. 6 is treated as an LUT2 index number, and index color / texture mapping is performed on a screen-sized polygon (third polygon) using the LUT2 of FIG. . Then, as shown in FIG. 7, it is possible to set an α value (third α value) and a yellow effect color (second effect color) corresponding to the depth distance information D of each pixel of the view field image. Then, the screen-size polygon (third polygon) subjected to the index color / texture mapping is α-blended in the drawing buffer 172 in which the field-of-view image is drawn with all α values of the vertex data set to α = 1.0. draw. Then, as shown in FIG. 8, the yellow effect color (second effect color) is reflected in the entire area of the view image according to the depth distance information D of the view image, and follows the change characteristics of the fog density in the real world. An image reflecting the fog effect can be generated.

なお、上記例では、スクリーンサイズのポリゴンに対してテクスチャマッピングを行っているが、スクリーンを分割したサイズのポリゴンに対してテクスチャマッピングを行うようにしてもよい。   In the above example, texture mapping is performed on screen-sized polygons, but texture mapping may be performed on polygons having a size obtained by dividing the screen.

2.3 グラデーション領域におけるポストエフェクト処理
以上のように、本実施の形態の画像生成システムでは、フォグ濃度の変化を仮想カメラからの距離に応じたα値(フォグの乗り具合)で制御しているが、かかる手法によるフォグ効果による画像表現には限界がある。例えば、図8の画像では、空に対応する領域Fでは、奥行き距離情報Dが最遠景として一定に設定されているため、エフェクト色の濃度(第3のα値)が一様に設定され、エフェクト色(第2のエフェクト色)の反映に変化を持たせることができない。
2.3 Post Effect Processing in Gradation Region As described above, in the image generation system according to the present embodiment, the change in fog density is controlled by the α value (fog riding condition) corresponding to the distance from the virtual camera. However, there is a limit to the image expression by the fog effect by such a method. For example, in the image of FIG. 8, in the region F corresponding to the sky, the depth distance information D is set to be constant as the farthest view, so the effect color density (third α value) is set uniformly, The reflection of the effect color (second effect color) cannot be changed.

そこで、本実施の形態では、上述した視界画像の全領域にエフェクト色(第2のエフェクト色)を反映させるポストエフェクト処理に加え、視界画像の一部の領域であって横幅がスクリーンの横幅に対応する領域をグラデーション調整領域として設定し、グラデーション調整領域に、該領域において第1のエフェクト色をグラデーション変化させるための第1のα値と、視界画像の奥行き値に応じて第1のエフェクト色を変化させるための第2のα値とを設定する。そして、第1のα値と第2のα値との乗算結果に基づいて、視界画像のグラデーション調整領域に対応する領域に第1のエフェクト色を反映させて視界画像の色を調整するポストエフェクト処理を行う。   Therefore, in the present embodiment, in addition to the post-effect processing in which the effect color (second effect color) is reflected in the entire area of the above-described visual field image, the horizontal width of the partial area of the visual field image is set to the horizontal width of the screen. The corresponding area is set as the gradation adjustment area, and the first effect color is set in the gradation adjustment area in accordance with the first α value for changing the gradation of the first effect color in the area and the depth value of the view field image. And a second α value for changing. Then, based on the multiplication result of the first α value and the second α value, the post effect that adjusts the color of the visual field image by reflecting the first effect color in the region corresponding to the gradation adjustment region of the visual field image Process.

例えば、図9に示すように、グラデーション調整領域Gを、図6の視界画像の地平線L付近に対応するスクリーン上の領域に設定する。本実施の形態では、図6の視界画像の地平線L付近に対応する領域に、スクリーンの横幅に対応した一定サイズの矩形の第1のポリゴンを描画する。この第1のポリゴンは、右上、左上の頂点に対してα値が0.0(透明)として設定され、右下、左下の頂点に対してα値が1.0(不透明)として設定されている。従って、第1のポリゴンの各ピクセルには、その上端のα値0.0と下端のα値1.0とが線形補間された第1のα値が設定される。即ち、第1のポリゴンの上端から下端に向けてグラデーション変化する第1のα値が設定される。   For example, as shown in FIG. 9, the gradation adjustment area G is set to an area on the screen corresponding to the vicinity of the horizon L of the visual field image of FIG. In the present embodiment, a rectangular first polygon having a fixed size corresponding to the horizontal width of the screen is drawn in an area corresponding to the vicinity of the horizon L of the visual field image of FIG. This first polygon has an α value set to 0.0 (transparent) for the upper right and upper left vertices, and an α value set to 1.0 (opaque) for the lower right and lower left vertices. Yes. Accordingly, the first α value obtained by linearly interpolating the α value 0.0 at the upper end and the α value 1.0 at the lower end is set for each pixel of the first polygon. That is, a first α value that changes in gradation from the upper end to the lower end of the first polygon is set.

更に、グラデーション調整領域Gの下端からスクリーンの下端までの領域Rには、全ての頂点に対してグラデーション調整領域Gの下端でのα値1.0が設定された矩形の第2のポリゴンを描画する。従って、第2のポリゴンの各ピクセルには、1.0に固定された第1のα値が設定される。このように、本実施の形態では、グラデーション調整領域Gの上端からスクリーンの下端まで、第1のα値の変化特性を連続させている。なお、本実施の形態では、スクリーンの上端から第1のポリゴンの上端までの領域にはポリゴンを設定しない(描画しない)が、全ての頂点に対してα値0.0が設定されたポリゴンを設定してもよい。   Furthermore, in the area R from the bottom edge of the gradation adjustment area G to the bottom edge of the screen, a rectangular second polygon in which the α value 1.0 at the bottom edge of the gradation adjustment area G is set for all vertices is drawn. To do. Accordingly, the first α value fixed to 1.0 is set for each pixel of the second polygon. Thus, in the present embodiment, the first α value change characteristic is continuous from the upper end of the gradation adjustment region G to the lower end of the screen. In this embodiment, no polygon is set (not drawn) in the area from the upper end of the screen to the upper end of the first polygon, but polygons having an α value of 0.0 are set for all vertices. It may be set.

そして、上述した視界画像の全領域にエフェクト色(第2のエフェクト色)を反映させるポストエフェクト処理と同様に、図6の視界画像の奥行き距離情報DをルックアップテーブルLUTのインデックス番号として扱い、第2のエフェクト色用のLUT2とは別に用意された第1のエフェクト色用のルックアップテーブルLUT1を用いて、第1のポリゴン及び第2のポリゴンに対してインデックスカラー・テクスチャマッピングを行う。ここで用いられるLUT1は、インデックス番号により指定されるR、G、B成分がオレンジ色単色とされている。また、インデックス番号により指定される第2のα値の変化特性は、図10に示すように、図5で示したα値の変化特性よりも傾きが緩やかで、最大値は0.7となっている。即ち、最遠景での第1のエフェクト色の濃度は、最遠景での第2のエフェクト色の濃度ほど濃くならないように第2のα値が設定される。   Then, similarly to the post-effect processing in which the effect color (second effect color) is reflected in the entire area of the view image described above, the depth distance information D of the view image in FIG. 6 is handled as the index number of the lookup table LUT, Index color / texture mapping is performed on the first polygon and the second polygon using the first effect color lookup table LUT1 prepared separately from the second effect color LUT2. In the LUT 1 used here, the R, G, and B components specified by the index number are set to an orange single color. Further, as shown in FIG. 10, the change characteristic of the second α value specified by the index number is more gradual than the change characteristic of the α value shown in FIG. 5, and the maximum value is 0.7. ing. That is, the second α value is set so that the density of the first effect color in the farthest view does not become as high as the density of the second effect color in the farthest view.

すると、第1のポリゴン及び第2のポリゴンの各ピクセルには、第1のポリゴン及び第2のポリゴンの頂点に対して設定されたα値に基づき設定される第1のα値と、インデックスカラー・テクスチャマッピングにより設定される視界画像の各画素の奥行き距離情報Dに応じた第2のα値との乗算結果のα値が設定される。従って、図11のように、第2のα値が最大(0.7)に設定される最遠景に対応する領域Fにおいては、第1のポリゴンの上端では第1のα値×第2のα値=0.0×0.7=0.0となり第1のエフェクト色は反映されない。しかし、第1のポリゴンの下端では第1のα値×第2のα値=1.0×0.7=0.7となり第1のエフェクト色が濃く反映される。即ち、最遠景に対応する領域Fにおいては、スクリーンの下方に向かうにつれ第1のエフェクト色であるオレンジ色が濃くなるように、第1のα値と第2のα値との乗算結果であるα値が設定される。   Then, for each pixel of the first polygon and the second polygon, the first α value set based on the α value set for the vertices of the first polygon and the second polygon, and the index color The α value that is the result of multiplication with the second α value corresponding to the depth distance information D of each pixel of the view field image set by texture mapping is set. Accordingly, as shown in FIG. 11, in the region F corresponding to the farthest view where the second α value is set to the maximum (0.7), at the upper end of the first polygon, the first α value × the second α value = 0.0 × 0.7 = 0.0, and the first effect color is not reflected. However, at the lower end of the first polygon, the first α value × the second α value = 1.0 × 0.7 = 0.7, and the first effect color is reflected deeply. That is, in the region F corresponding to the farthest view, the result of multiplication of the first α value and the second α value is such that the orange color as the first effect color becomes darker toward the bottom of the screen. An α value is set.

一方、最遠景よりも手前側に対応する領域Nにおいては、視界画像の各画素の奥行き距離情報Dに応じた第2のα値によって、乗算の結果、第1のα値がキャンセルされる。図11の例では、第1のポリゴンが設定されるグラデーション調整領域Gにおいて、最遠景よりも手前側に山オブジェクトMが配置されているが、山オブジェクトMに対応する領域では、手前側用の第2のα値として小さな値のα値(例えば0.01)が設定されるので、第1のポリゴンに設定された第1のα値が小さな値(例えば0.07)とされる。また、第2のポリゴンが設定される領域Rにおいては、より手前側の地形オブジェクトLが配置されているので、同様に第2のポリゴンに設定された第1のα値が0もしくは0に近い値とされる。このように、本実施の形態では、奥側のオブジェクトにはグラデーション変化する第1のエフェクト色を反映させつつも、手前側のオブジェクトには第1のエフェクト色を反映させないようにα値を設定することができる。   On the other hand, in the region N corresponding to the near side of the farthest view, the first α value is canceled as a result of the multiplication by the second α value corresponding to the depth distance information D of each pixel of the view field image. In the example of FIG. 11, in the gradation adjustment region G in which the first polygon is set, the mountain object M is arranged on the near side of the farthest view, but in the region corresponding to the mountain object M, the near side object is used. Since a small α value (for example, 0.01) is set as the second α value, the first α value set for the first polygon is set to a small value (for example, 0.07). Further, in the region R where the second polygon is set, the terrain object L on the near side is arranged, so that the first α value set for the second polygon is similarly 0 or close to 0. Value. As described above, in the present embodiment, the α value is set so that the first effect color that changes the gradation is reflected in the back object, but the first effect color is not reflected in the near object. can do.

そして、第2のエフェクト色を反映させた視界画像が描画されている描画バッファ172に、第1のポリゴン及び第2のポリゴンをαブレンディング描画する。すると、図12のように、視界画像の全領域に奥行き距離情報Dに応じた第2のエフェクト色(黄色)が反映され、かつ、グラデーション調整領域Gにおいてグラデーション変化する第1のエフェクト色(オレンジ色)が反映された画像を生成することができる。   Then, the first polygon and the second polygon are α blended and drawn in the drawing buffer 172 in which the field-of-view image reflecting the second effect color is drawn. Then, as shown in FIG. 12, the first effect color (orange) in which the second effect color (yellow) corresponding to the depth distance information D is reflected in the entire area of the field-of-view image and the gradation changes in the gradation adjustment area G. An image reflecting the color) can be generated.

2.4 グラデーション調整領域の制御
また、本実施の形態の画像生成システムでは、仮想カメラの位置、向き、画角が変化するが、仮想カメラの位置、向き、画角が変化すると、スクリーンに投影されるオブジェクトの位置も変化し、グラデーション調整領域とすべき領域のスクリーン上の位置が変化する。例えば、仮想カメラの位置が、図6の視界画像が生成される位置から上方に変化した場合には、生成される視界画像における地平線Lの位置は相対的にスクリーンの下方に移動する。また、仮想カメラの向きが上方に変化した場合や、画角を狭めた場合や広げた場合も同様である。
2.4 Control of gradation adjustment area In the image generation system according to the present embodiment, the position, orientation, and angle of view of the virtual camera change. When the position, orientation, and angle of view of the virtual camera change, the image is projected onto the screen. The position of the object to be changed also changes, and the position on the screen of the area to be the gradation adjustment area changes. For example, when the position of the virtual camera changes upward from the position where the view image in FIG. 6 is generated, the position of the horizon L in the generated view image moves relatively below the screen. The same applies when the orientation of the virtual camera changes upward, or when the angle of view is narrowed or widened.

そこで、本実施の形態では、仮想カメラの制御情報に基づいて、グラデーション調整領域Gを設定する。従って、仮想カメラの位置、向き、画角の変化により、グラデーション調整領域Gとすべき領域のスクリーン上の位置が変化した場合でも、仮想カメラの位置、向き、画角の変化に合わせてグラデーション調整領域Gを設定することができる。   Therefore, in the present embodiment, the gradation adjustment region G is set based on the control information of the virtual camera. Therefore, even if the position on the screen of the region to be the gradation adjustment region G changes due to changes in the position, orientation, and angle of view of the virtual camera, gradation adjustment is performed according to changes in the position, orientation, and angle of view of the virtual camera. Region G can be set.

図13は、オブジェクト空間OBに対する仮想カメラCMとスクリーンSCの対応関係を示す概念図である。本実施の形態では、オブジェクト空間の所定の基準面からの高さ情報OHに基づいて、該高さ情報OHに対応するスクリーン座標系における座標情報SHを取得し、取得した座標情報SHに基づいてグラデーション調整領域Gを設定する。より具体的には、ワールド座標系の高さ情報OHをスクリーン座標系にマトリクス変換することにより座標情報SHを求め、座標情報SHに基づき、第1のポリゴンを描画する。   FIG. 13 is a conceptual diagram showing the correspondence between the virtual camera CM and the screen SC with respect to the object space OB. In the present embodiment, based on the height information OH from a predetermined reference plane of the object space, coordinate information SH in the screen coordinate system corresponding to the height information OH is acquired, and based on the acquired coordinate information SH. The gradation adjustment area G is set. More specifically, the coordinate information SH is obtained by matrix-converting the height information OH of the world coordinate system into the screen coordinate system, and the first polygon is drawn based on the coordinate information SH.

ここで、高さ情報OHは、オブジェクト空間OBのオブジェクト配置や仮想カメラCMの移動範囲等に応じて、任意に定めることができる。本実施の形態では、図6の地平線Lの位置に座標情報SHが対応するように高さ情報OHを定めている。従って、仮想カメラの位置、向き、画角の変化に応じて地平線Lのスクリーン上の位置を擬似的に求めることができ、仮想カメラの位置、向き、画角が変化しても、地平線L付近の領域にグラデーション調整領域Gを設定することができる。   Here, the height information OH can be arbitrarily determined according to the object arrangement in the object space OB, the movement range of the virtual camera CM, and the like. In the present embodiment, the height information OH is determined so that the coordinate information SH corresponds to the position of the horizon L in FIG. Accordingly, the position of the horizon L on the screen can be obtained in a pseudo manner according to changes in the position, orientation, and angle of view of the virtual camera. Even if the position, orientation, and angle of view of the virtual camera change, the vicinity of the horizon L The gradation adjustment area G can be set in this area.

なお、本実施の形態では、座標情報SHに対応するスクリーンのピクセル位置を上端として、そこから縦幅を30ピクセルとし、横幅がスクリーンの横幅と等しい一定サイズの第1のポリゴンを描画する。そして、縦幅を第1のポリゴンの下端からスクリーンの下端までとし、横幅がスクリーンの横幅と等しい可変サイズの第2のポリゴンを描画する。   In the present embodiment, a first polygon having a fixed size is drawn with the pixel position of the screen corresponding to the coordinate information SH as the upper end, the vertical width of 30 pixels, and the horizontal width equal to the horizontal width of the screen. Then, the vertical width is set from the lower end of the first polygon to the lower end of the screen, and a second polygon having a variable size equal to the horizontal width of the screen is drawn.

また、仮想カメラの位置、向き、画角が大きく変化して、例えば第1のポリゴンの下端が地平線Lよりも上方に位置してしまったとしても、第1のポリゴンの下方には、グラデーション調整領域Gでの第1のエフェクト色の変化特性を連続させる第2のポリゴンが描画される。従って、仮に座標情報SHと地平線Lのスクリーン上の位置がずれてしまう場合があっても、第1のエフェクト色がある線を境に全く反映されなくなるという不自然な画像が生成されることを防止することができる。   Further, even if the position, orientation, and angle of view of the virtual camera change greatly, for example, even if the lower end of the first polygon is positioned above the horizon L, gradation adjustment is performed below the first polygon. A second polygon that draws the change characteristic of the first effect color in the region G is drawn. Therefore, even if the position of the coordinate information SH and the horizon L on the screen may be shifted, an unnatural image is generated in which the first effect color is not reflected at the boundary of the line with the first effect color. Can be prevented.

3.本実施の形態の処理
次に、本実施の形態の処理を、図14のフローチャートを用いて説明する。
3. Processing of this Embodiment Next, the processing of this embodiment will be described with reference to the flowchart of FIG.

まず、ステップS1において、視界画像(透視変換後のオブジェクト)をフレームバッファに出力する。   First, in step S1, a view field image (an object after perspective transformation) is output to a frame buffer.

ステップS2において、視界画像のZバッファ値を256段階の奥行き距離情報Dに変換してワークバッファに格納する。   In step S2, the Z buffer value of the view field image is converted into 256 steps of depth distance information D and stored in the work buffer.

ステップS3において、ワークバッファの奥行き距離情報Dを256色のインデックステクスチャとして設定し、第2のエフェクト色用のLUT2をインデックスカラー・テクスチャチャマッピング用のLUTとして設定する。   In step S3, the depth distance information D of the work buffer is set as an index texture of 256 colors, and the LUT2 for the second effect color is set as an LUT for index color / texture mapping.

ステップS4において、LUT2を用いてインデックスカラー・テクスチャマッピングを行った第3のポリゴンを、頂点データのα値を全てα=1.0としてフレームバッファにαブレンディング描画する。   In step S4, the third polygon subjected to the index color / texture mapping using the LUT2 is α blended and drawn in the frame buffer with all α values of the vertex data set to α = 1.0.

ステップS5において、第1のポリゴンの描画位置を求める。   In step S5, the drawing position of the first polygon is obtained.

ステップS6において、ワークバッファの奥行き距離情報Dを256色のインデックステクスチャとして設定し、第1のエフェクト色用のLUT1をインデックスカラー・テクスチャチャマッピング用のLUTとして設定する。   In step S6, the depth distance information D of the work buffer is set as an index texture of 256 colors, and the LUT1 for the first effect color is set as the LUT for index color / texture mapping.

ステップS7において、LUT1を用いてインデックスカラー・テクスチャマッピングを行った第1のポリゴンを、頂点データのα値を上端がα=0.0、下端がα=1.0として、求められた描画位置でフレームバッファにαブレンディング描画するとともに、インデックスカラー・テクスチャマッピングを行った第2のポリゴンを、頂点データのα値を全てα=1.0として、第1のポリゴンの描画位置から定まる位置でフレームバッファにαブレンディング描画する。   In step S7, the first polygon subjected to index color / texture mapping using LUT1 is obtained with the alpha value of the vertex data set to α = 0.0 at the upper end and α = 1.0 at the lower end. In the frame buffer, α blending is rendered in the frame buffer, and the second polygon subjected to index color / texture mapping is framed at a position determined from the rendering position of the first polygon, with all alpha values of α = 1.0. Draw alpha blending in the buffer.

4.ハードウェア構成
次に、本実施形態を実現できるハードウェアの構成の一例について図15を用いて説明する。
4). Hardware Configuration Next, an example of a hardware configuration capable of realizing the present embodiment will be described with reference to FIG.

メインプロセッサ900は、CD982(情報記憶媒体)に格納されたプログラム、通信インターフェース990を介して転送されたプログラム、或いはROM950(情報記憶媒体の1つ)に格納されたプログラムなどに基づき動作し、ゲーム処理、画像処理、音処理などの種々の処理を実行する。   The main processor 900 operates based on a program stored in the CD 982 (information storage medium), a program transferred via the communication interface 990, or a program stored in the ROM 950 (one of information storage media). Various processes such as processing, image processing, and sound processing are executed.

コプロセッサ902は、メインプロセッサ900の処理を補助するものであり、高速並列演算が可能な積和算器や除算器を有し、マトリクス演算(ベクトル演算)を高速に実行する。例えば、オブジェクトを移動・動作(モーション)させるための物理シミュレーションに、マトリクス演算などの処理が必要な場合には、メインプロセッサ900上で動作するプログラムが、その処理をコプロセッサ902に指示(依頼)する。   The coprocessor 902 assists the processing of the main processor 900, has a product-sum calculator and a divider capable of high-speed parallel calculation, and executes matrix calculation (vector calculation) at high speed. For example, when processing such as matrix calculation is required for physical simulation for moving / moving an object, a program operating on the main processor 900 instructs (requests) the processing to the coprocessor 902. To do.

ジオメトリプロセッサ904は、座標変換、透視変換、光源計算、曲面生成などのジオメトリ処理を行うものであり、高速並列演算が可能な積和算器や除算器を有し、マトリクス演算(ベクトル演算)を高速に実行する。例えば、座標変換、透視変換、光源計算などの処理を行う場合には、メインプロセッサ900で動作するプログラムが、その処理をジオメトリプロセッサ904に指示する。   The geometry processor 904 performs geometry processing such as coordinate transformation, perspective transformation, light source calculation, and curved surface generation, has a product-sum calculator and a divider capable of high-speed parallel computation, and performs matrix computation (vector computation). Run fast. For example, when processing such as coordinate transformation, perspective transformation, and light source calculation is performed, a program operating on the main processor 900 instructs the geometry processor 904 to perform the processing.

データ伸張プロセッサ906は、圧縮された画像データや音データを伸張するデコード処理を行ったり、メインプロセッサ900のデコード処理をアクセレートする処理を行う。これにより、オープニング画面、インターミッション画面、エンディング画面、或いはゲーム画面などにおいて、MPEG方式等で圧縮された動画像を表示できるようになる。なお、デコード処理の対象となる画像データや音データは、ROM950、CD982に格納されたり、或いは通信インターフェース990を介して外部から転送される。   The data decompression processor 906 performs a decoding process for decompressing the compressed image data and sound data, and a process for accelerating the decoding process of the main processor 900. As a result, a moving image compressed by the MPEG method or the like can be displayed on the opening screen, the intermission screen, the ending screen, or the game screen. Note that the image data and sound data to be decoded are stored in the ROM 950 and the CD 982 or transferred from the outside via the communication interface 990.

描画プロセッサ910は、ポリゴンや曲面などのプリミティブ(プリミティブ面)で構成されるオブジェクトの描画(レンダリング)処理を高速に実行するものである。オブジェクトの描画の際には、メインプロセッサ900は、DMAコントローラ970の機能を利用して、オブジェクトデータを描画プロセッサ910に渡すと共に、必要であればテクスチャ記憶部924にテクスチャを転送する。すると、描画プロセッサ910は、これらのオブジェクトデータやテクスチャに基づいて、Zバッファなどを利用した陰面消去を行いながら、オブジェクトをフレームバッファ922に高速に描画する。また、描画プロセッサ910は、αブレンディング(半透明処理)、デプスキューイング、ミップマッピング、フォグ処理、バイリニア・フィルタリング、トライリニア・フィルタリング、アンチエリアシング、シェーディング処理なども行うことができる。また、頂点シェーダやピクセルシェーダなどのプログラマブルシェーダも描画プロセッサ910に実装されており、本実施形態の手法を実現するシェーダプログラムに従って、頂点データの作成・変更(更新)やピクセル(あるいはフラグメント)の描画色の決定を行う。そして、1フレーム分の画像がフレームバッファ922に書き込まれると、その画像はディスプレイ912に表示される。   The drawing processor 910 performs drawing (rendering) processing of an object composed of primitives (primitive surfaces) such as polygons and curved surfaces at high speed. When drawing an object, the main processor 900 uses the function of the DMA controller 970 to pass the object data to the drawing processor 910 and transfer the texture to the texture storage unit 924 if necessary. Then, the rendering processor 910 renders the object in the frame buffer 922 at high speed while performing hidden surface removal using a Z buffer or the like based on the object data and texture. The drawing processor 910 can also perform α blending (translucent processing), depth cueing, mip mapping, fog processing, bilinear filtering, trilinear filtering, anti-aliasing, shading processing, and the like. In addition, a programmable shader such as a vertex shader or a pixel shader is also mounted on the drawing processor 910, and creation / change (update) of vertex data and pixel (or fragment) drawing are performed according to the shader program that realizes the method of this embodiment. Make a color decision. When an image for one frame is written in the frame buffer 922, the image is displayed on the display 912.

サウンドプロセッサ930は、多チャンネルのADPCM音源などを内蔵し、BGM、効果音、音声などの高品位のゲーム音を生成する。生成されたゲーム音は、スピーカ932から出力される。   The sound processor 930 includes a multi-channel ADPCM sound source and the like, and generates high-quality game sounds such as BGM, sound effects, and sounds. The generated game sound is output from the speaker 932.

ゲームコントローラ942(レバー、ボタン、筺体、パッド型コントローラ又はガン型コントローラ等)からの操作データや、メモリカード944からのセーブデータ、個人データは、シリアルインターフェース940を介してデータ転送される。   Operation data from the game controller 942 (lever, button, chassis, pad type controller, gun type controller, etc.), save data from the memory card 944, and personal data are transferred via the serial interface 940.

ROM950にはシステムプログラムなどが格納される。なお、業務用ゲームシステムの場合には、ROM950が情報記憶媒体として機能し、ROM950に各種プログラムが格納されることになる。なお、ROM950の代わりにハードディスクを利用するようにしてもよい。   The ROM 950 stores system programs and the like. In the case of the arcade game system, the ROM 950 functions as an information storage medium, and various programs are stored in the ROM 950. A hard disk may be used instead of the ROM 950.

RAM960は、各種プロセッサの作業領域として用いられる。   The RAM 960 is used as a work area for various processors.

DMAコントローラ970は、プロセッサ、メモリ(RAM、VRAM、ROM等)間でのDMA転送を制御するものである。   The DMA controller 970 controls DMA transfer between the processor and memory (RAM, VRAM, ROM, etc.).

CDドライブ980は、プログラム、画像データ、或いは音データなどが格納されるCD982(情報記憶媒体)を駆動し、これらのプログラム、データへのアクセスを可能にする。   The CD drive 980 drives a CD 982 (information storage medium) in which programs, image data, sound data, and the like are stored, and enables access to these programs and data.

通信インターフェース990は、ネットワークを介して外部との間でデータ転送を行うためのインターフェースである。この場合に、通信インターフェース990に接続されるネットワークとしては、通信回線(アナログ電話回線、ISDN)、高速シリアルバスなどを考えることができる。そして、通信回線を利用することでインターネットを介したデータ転送が可能になる。また、高速シリアルバスを利用することで、他の画像生成システムとの間でのデータ転送が可能になる。   The communication interface 990 is an interface for transferring data to and from the outside via a network. In this case, as a network connected to the communication interface 990, a communication line (analog telephone line, ISDN), a high-speed serial bus, or the like can be considered. By using a communication line, data transfer via the Internet becomes possible. Further, by using the high-speed serial bus, data transfer with other image generation systems becomes possible.

なお、本実施形態の各部(各手段)は、その全てを、ハードウェアのみにより実現してもよいし、情報記憶媒体に格納されるプログラムや通信インターフェースを介して配信されるプログラムのみにより実現してもよい。或いは、ハードウェアとプログラムの両方により実現してもよい。   Note that all the units (units) of the present embodiment may be realized only by hardware, or only by a program stored in an information storage medium or a program distributed via a communication interface. May be. Alternatively, it may be realized by both hardware and a program.

そして、本実施形態の各部をハードウェアとプログラムの両方により実現する場合には、情報記憶媒体には、ハードウェア(コンピュータ)を本実施形態の各部として機能させるためのプログラムが格納されることになる。より具体的には、上記プログラムが、ハードウェアである各プロセッサ902、904、906、910、930等に処理を指示すると共に、必要であればデータを渡す。そして、各プロセッサ902、904、906、910、930等は、その指示と渡されたデータとに基づいて、本発明の各部を実現することになる。   And when each part of this embodiment is implement | achieved by both hardware and a program, the program for functioning hardware (computer) as each part of this embodiment is stored in an information storage medium. Become. More specifically, the program instructs each processor 902, 904, 906, 910, 930, etc., which is hardware, and passes data if necessary. Each of the processors 902, 904, 906, 910, 930 and the like implements each unit of the present invention based on the instruction and the passed data.

5.変形例
また本発明は、上記実施形態で説明したものに限らず、種々の変形実施が可能である。例えば、明細書中の記載において広義な用語(仮想オブジェクト)として引用された用語(スプライト、ポリゴン等)は、明細書中の他の記載においても広義な用語に置き換えることができる。
5. Modifications The present invention is not limited to that described in the above embodiment, and various modifications can be made. For example, terms (sprites, polygons, etc.) cited as broad terms (virtual objects) in the description in the specification can be replaced with broad terms in other descriptions in the specification.

また、上記実施の形態では、ポリゴンの頂点に設定されたα値に基づき設定される第1のα値により第1のエフェクト色をグラデーション変化させる例を挙げて説明したが、これに限らず、第1のエフェクト色がグラデーション変化するグラデーションテクスチャを用意しておき、これを第1のポリゴンにテクスチャマッピングするようにしてもよい。この場合には、グラデーションテクスチャのα値、又はポリゴンの頂点に設定されたα値、又はグラデーションテクスチャのα値とポリゴンの頂点に設定されたα値の乗算結果としてのα値に基づいて、エフェクト色としてのテクスチャの色と視界画像の色とをαブレンディングすることができる。   In the above-described embodiment, the example in which the first effect color is changed in gradation by the first α value set based on the α value set at the vertex of the polygon has been described. A gradation texture in which the first effect color changes in gradation may be prepared, and this may be texture-mapped to the first polygon. In this case, the effect is based on the α value of the gradation texture, the α value set at the vertex of the polygon, or the α value as the result of multiplying the α value of the gradation texture and the α value set at the vertex of the polygon. It is possible to α blend the texture color as the color and the color of the view image.

なお、グラデーションテクスチャを用いる場合には、奥行き値に応じた第2のα値を反映させるために、マルチテクスチャマッピングの手法を用いて、グラデーションテクスチャとインデックステクスチャをマルチテクスチャマッピングするようにすればよい。   In the case of using a gradation texture, in order to reflect the second α value corresponding to the depth value, the gradation texture and the index texture may be subjected to the multi-texture mapping using a multi-texture mapping technique. .

また、ゲーム状況(ゲーム上の仮想時間情報、実時間情報、入力情報やプログラムに基づき発生したゲームイベントの種類、ゲーム上に設定される気候等)に応じて、エフェクト色の種類や変化特性、グラデーション領域Gの範囲、グラデーション領域Gを設定するための高さ情報OHを変化させてもよい。ここで、エフェクト色の種類や変化特性を変化させる場合には、例えば、第1のエフェクト色用のLUT1と第2のエフェクト色用のLUT2に設定されるR、G、B成分やα値の変化特性を変化させたり、ルックアップテーブルLUTを複数用意しておき、用いるLUTを変更すればよい。また、グラデーション領域Gの範囲を変化させる場合には、例えば、第1のポリゴンの縦幅を変更設定して描画すればよい。かかる構成を採用すれば、ゲーム状況に応じて、朝から夕方までの時間的変化や、天候の変化等を表現することができる。また、仮想カメラの制御情報に応じて、エフェクト色の種類や変化特性、グラデーション領域Gの範囲を変化させるようにしてもよい。   In addition, depending on the game situation (virtual time information on the game, real time information, input information and the type of game event that occurred based on the program, the climate set on the game, etc.) The range of the gradation area G and the height information OH for setting the gradation area G may be changed. Here, when changing the type and change characteristics of the effect color, for example, R, G, B components and α values set in the LUT 1 for the first effect color and the LUT 2 for the second effect color are changed. The change characteristic may be changed, or a plurality of lookup tables LUT may be prepared and the LUT to be used may be changed. Further, when changing the range of the gradation region G, for example, the vertical width of the first polygon may be changed and drawn. By adopting such a configuration, it is possible to express a temporal change from morning to evening, a change in weather, and the like according to the game situation. Further, the type and change characteristics of the effect color and the range of the gradation area G may be changed according to the control information of the virtual camera.

また、α値のブレンディング手法も、本実施形態で説明した手法に限定されず、種々の変形実施が可能である。   Also, the blending method of the α value is not limited to the method described in the present embodiment, and various modifications can be made.

また、本発明は種々のゲーム(格闘ゲーム、競争ゲーム、シューティングゲーム、ロボット対戦ゲーム、スポーツゲーム、ロールプレイングゲーム等)にも適用することができる。また本発明は、業務用ゲームシステム、家庭用ゲームシステム、多数のプレーヤが参加する大型アトラクションシステム、シミュレータ、マルチメディア端末、ゲーム画像を生成するシステムボード等の種々の画像生成システム(ゲームシステム)に適用することができる。   The present invention can also be applied to various games (such as fighting games, competitive games, shooting games, robot battle games, sports games, role-playing games, etc.). The present invention is also applicable to various image generation systems (game systems) such as a business game system, a home game system, a large attraction system in which a large number of players participate, a simulator, a multimedia terminal, and a system board for generating game images. Can be applied.

また、本発明のうち従属請求項に係る発明においては、従属先の請求項の構成要件の一部を省略する構成とすることもできる。また、本発明の1の独立請求項に係る発明の要部を、他の独立請求項に従属させることもできる。   In the invention according to the dependent claims of the present invention, a part of the constituent features of the dependent claims can be omitted. Moreover, the principal part of the invention according to one independent claim of the present invention can be made dependent on another independent claim.

本実施形態の画像生成システムの機能ブロック図の例。The example of a functional block diagram of the image generation system of this embodiment. Z値に応じたα値に基づいてエフェクト色を反映させる手法の説明図。Explanatory drawing of the method of reflecting an effect color based on (alpha) value according to Z value. インデックスカラー・テクスチャマッピングについての説明図。Explanatory drawing about index color and texture mapping. インデックスカラー・テクスチャマッピングについての説明図。Explanatory drawing about index color and texture mapping. 本実施形態のLUTの説明図。Explanatory drawing of LUT of this embodiment. 本実施形態の手法で生成された視界画像の例。The example of the visual field image produced | generated by the method of this embodiment. 本実施形態の手法で生成された中間画像の例。The example of the intermediate image produced | generated by the method of this embodiment. 本実施形態の手法で生成されたポストエフェクト処理後の視界画像の例。The example of the visual field image after the post-effect process produced | generated by the method of this embodiment. 本実施形態の手法で生成された中間画像の例。The example of the intermediate image produced | generated by the method of this embodiment. 本実施形態のLUTの説明図。Explanatory drawing of LUT of this embodiment. 本実施形態の手法で生成された中間画像の例。The example of the intermediate image produced | generated by the method of this embodiment. 本実施形態の手法で生成されたポストエフェクト処理後の視界画像の例。The example of the visual field image after the post-effect process produced | generated by the method of this embodiment. 本実施形態の画像生成の手法の説明図。Explanatory drawing of the method of the image generation of this embodiment. 本実施形態の処理の詳細例。The detailed example of the process of this embodiment. ハードウェア構成例。Hardware configuration example.

符号の説明Explanation of symbols

ICP 視界画像の色
ZP 視界画像のZ値
FCP フォグの色
αP フォグのα値
LUT ルックアップテーブル
D 奥行き距離情報
100 処理部
120 描画部
122 視界画像生成部
124 ポストエフェクト処理部
170 記憶部
172 描画バッファ
174 テクスチャ記憶部
176 Zバッファ
179 LUT記憶部
190 表示部
ICP View image color ZP View image Z value FCP Fog color αP Fog α value LUT Lookup table D Depth distance information 100 Processing unit 120 Drawing unit 122 View image generating unit 124 Post-effect processing unit 170 Storage unit 172 Drawing buffer 174 Texture storage unit 176 Z buffer 179 LUT storage unit 190 Display unit

Claims (9)

画像を生成するためのプログラムであって、
オブジェクト空間に設定されたオブジェクトをスクリーンに投影して仮想カメラから見た視界画像を生成する視界画像生成部と、
前記スクリーンに対してポストエフェクト領域を設定し、前記ポストエフェクト領域の一部又は全体において第1のエフェクト色をグラデーション変化させるための第1の色調整情報と、前記視界画像の奥行き値に応じて第1のエフェクト色を変化させるための第2の色調整情報とを設定し、前記第1の色調整情報と前記第2の色調整情報とに基づいて、前記視界画像の前記ポストエフェクト領域に対応する領域に前記第1のエフェクト色を反映させて前記視界画像の色を調整するポストエフェクト処理を行うポストエフェクト処理部としてコンピュータを機能させ、
前記ポストエフェクト処理部が、
前記仮想カメラの制御情報に基づいて、前記ポストエフェクト領域の一部であるグラデーション調整領域を設定し、前記第1の色調整情報を、前記グラデーション調整領域の一端から他端に向けてグラデーション変化するように設定することを特徴とするプログラム。
A program for generating an image,
A field-of-view image generation unit that projects an object set in the object space onto a screen and generates a field-of-view image viewed from a virtual camera;
A post-effect area is set for the screen, and the first color adjustment information for changing the gradation of the first effect color in a part or the whole of the post-effect area and the depth value of the visual field image Second color adjustment information for changing the first effect color is set, and based on the first color adjustment information and the second color adjustment information, the post-effect area of the field-of-view image is set in the post-effect area. Causing the computer to function as a post-effect processing unit that performs post-effect processing for adjusting the color of the field-of-view image by reflecting the first effect color in a corresponding region ;
The post-effect processing unit
Based on the control information of the virtual camera, a gradation adjustment area that is a part of the post-effect area is set, and the first color adjustment information is changed in gradation from one end to the other end of the gradation adjustment area. A program characterized by setting as follows .
請求項1において、
前記ポストエフェクト処理部が、
第1のα値を前記第1の色調整情報として設定するとともに、第2のα値を第2の色調整情報として設定し、
前記第1のα値と前記第2のα値との乗算結果に基づいてαブレンディングを行うことにより、前記視界画像に対して前記ポストエフェクト処理を行うことを特徴とするプログラム。
In claim 1,
The post-effect processing unit
A first α value is set as the first color adjustment information, and a second α value is set as the second color adjustment information.
A program that performs the post-effect processing on the field-of-view image by performing α blending based on a multiplication result of the first α value and the second α value.
請求項1、2のいずれかにおいて、
前記ポストエフェクト処理部が、
オブジェクト空間の所定の基準面からの高さ情報に基づいて該高さ情報に対応するスクリーン座標系における座標情報を取得し、取得した座標情報に基づいて前記グラデーション調整領域を設定することを特徴とするプログラム。
In any one of Claims 1 and 2 ,
The post-effect processing unit
Acquiring coordinate information in a screen coordinate system corresponding to the height information based on height information from a predetermined reference plane of the object space, and setting the gradation adjustment region based on the acquired coordinate information Program to do.
請求項1〜3のいずれかにおいて、
前記ポストエフェクト処理部が、
前記第1の色調整情報を設定する処理として、一端側の頂点と他端側の頂点とで異なるα値が設定された第1のポリゴンを描画する処理を行うことを特徴とするプログラム。
In any one of Claims 1-3 ,
The post-effect processing unit
A program characterized in that, as the process of setting the first color adjustment information, a process of drawing a first polygon in which different α values are set for a vertex on one end side and a vertex on the other end side is performed.
請求項1〜4のいずれかにおいて、
前記ポストエフェクト処理部が、
前記第1の色調整情報を、前記ポストエフェクト領域の前記グラデーション調整領域以外の領域では前記グラデーション調整領域の他端に設定される色調整情報に設定すること
を特徴とするプログラム。
In any one of Claims 1-4 ,
The post-effect processing unit
The program according to claim 1, wherein the first color adjustment information is set to color adjustment information set at the other end of the gradation adjustment area in an area other than the gradation adjustment area in the post-effect area.
請求項において、
前記ポストエフェクト処理部が、
前記ポストエフェクト領域を設定する処理として、全ての頂点に対して前記グラデーション調整領域の他端での色調整情報が設定され、前記ポストエフェクト領域の前記グラデーション調整領域以外の領域に対応する第2のポリゴンを描画する処理を行うことを特徴とするプログラム。
In claim 5 ,
The post-effect processing unit
As the processing for setting the post-effect area, color adjustment information at the other end of the gradation adjustment area is set for all vertices, and a second area corresponding to an area other than the gradation adjustment area in the post-effect area. A program characterized by performing a process of drawing a polygon.
請求項1〜のいずれかにおいて、
前記ポストエフェクト処理部が、
前記視界画像の奥行き値に応じて第2のエフェクト色を変化させるための第3の色調整情報を設定し、
前記第3の色調整情報に基づいて、前記視界画像の全領域に前記第2のエフェクト色を反映させて前記視界画像の色を調整するポストエフェクト処理を更に行うことを特徴とするプログラム。
In any one of Claims 1-6 ,
The post-effect processing unit
Setting third color adjustment information for changing the second effect color according to the depth value of the view field image;
A program that further performs post-effect processing for adjusting the color of the visual field image by reflecting the second effect color in the entire region of the visual field image based on the third color adjustment information.
コンピュータ読み取り可能な情報記憶媒体であって、請求項1〜のいずれかのプログラムを記憶したことを特徴とする情報記憶媒体。 A computer-readable information storage medium, wherein the program according to any one of claims 1 to 7 is stored. 画像生成システムであって、
オブジェクト空間に設定されたオブジェクトをスクリーンに投影して仮想カメラから見た視界画像を生成する視界画像生成部と、
前記スクリーンに対してポストエフェクト領域を設定し、前記ポストエフェクト領域の一部又は全体において第1のエフェクト色をグラデーション変化させるための第1の色調整情報と、前記視界画像の奥行き値に応じて第1のエフェクト色を変化させるための第2の色調整情報とを設定し、前記第1の色調整情報と前記第2の色調整情報とに基づいて、前記視界画像の前記ポストエフェクト領域に対応する領域に前記第1のエフェクト色を反映させて前記視界画像の色を調整するポストエフェクト処理を行うポストエフェクト処理部とを含み、
前記ポストエフェクト処理部が、
前記仮想カメラの制御情報に基づいて、前記ポストエフェクト領域の一部であるグラデーション調整領域を設定し、前記第1の色調整情報を、前記グラデーション調整領域の一端から他端に向けてグラデーション変化するように設定することを特徴とする画像生成システム。
An image generation system,
A field-of-view image generation unit that projects an object set in the object space onto a screen and generates a field-of-view image viewed from a virtual camera;
A post-effect area is set for the screen, and the first color adjustment information for changing the gradation of the first effect color in a part or the whole of the post-effect area and the depth value of the visual field image Second color adjustment information for changing the first effect color is set, and based on the first color adjustment information and the second color adjustment information, the post-effect area of the field-of-view image is set in the post-effect area. A post-effect processing unit that performs post-effect processing for adjusting the color of the view image by reflecting the first effect color in a corresponding region ,
The post-effect processing unit
Based on the control information of the virtual camera, a gradation adjustment area that is a part of the post-effect area is set, and the first color adjustment information is changed in gradation from one end to the other end of the gradation adjustment area. An image generation system characterized by setting as described above .
JP2005333037A 2005-11-17 2005-11-17 Program, information storage medium, and image generation system Active JP4804120B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005333037A JP4804120B2 (en) 2005-11-17 2005-11-17 Program, information storage medium, and image generation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005333037A JP4804120B2 (en) 2005-11-17 2005-11-17 Program, information storage medium, and image generation system

Publications (2)

Publication Number Publication Date
JP2007140842A JP2007140842A (en) 2007-06-07
JP4804120B2 true JP4804120B2 (en) 2011-11-02

Family

ID=38203627

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005333037A Active JP4804120B2 (en) 2005-11-17 2005-11-17 Program, information storage medium, and image generation system

Country Status (1)

Country Link
JP (1) JP4804120B2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011101904A1 (en) * 2010-02-18 2011-08-25 三菱電機株式会社 Gradation drawing device
JP5613433B2 (en) * 2010-03-31 2014-10-22 株式会社カプコン Image processing program, recording medium, and computer apparatus
WO2011128939A1 (en) * 2010-04-15 2011-10-20 三菱電機株式会社 Image drawing device and method of drawing image
DE112012005849T5 (en) * 2012-02-10 2014-10-30 Mitsubishi Electric Corporation Gradation drawing device
JP5997640B2 (en) 2013-03-25 2016-09-28 株式会社ジオ技術研究所 3D image output apparatus and background image generation apparatus
JP6457593B1 (en) * 2017-07-18 2019-01-23 株式会社カプコン Game program and game system
US10643398B2 (en) * 2018-07-23 2020-05-05 Microsoft Technology Licensing, Llc Depth ray layer for reduced visual noise
JP7223610B2 (en) * 2019-03-22 2023-02-16 任天堂株式会社 Image processing program, image processing system, image processing apparatus, and image processing method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4590770B2 (en) * 2001-04-06 2010-12-01 三菱電機株式会社 Cityscape display device
JP2004334661A (en) * 2003-05-09 2004-11-25 Namco Ltd Image generating system, program, and information storage medium
JP4360237B2 (en) * 2004-03-18 2009-11-11 セイコーエプソン株式会社 Image modifying device, image modifying method, and computer program

Also Published As

Publication number Publication date
JP2007140842A (en) 2007-06-07

Similar Documents

Publication Publication Date Title
JP2006318389A (en) Program, information storage medium, and image generation system
JP4804120B2 (en) Program, information storage medium, and image generation system
US7479961B2 (en) Program, information storage medium, and image generation system
JP2006318388A (en) Program, information storage medium, and image forming system
JP4749198B2 (en) Program, information storage medium, and image generation system
JP2007141082A (en) Program, texture data structure, information storage medium, and image generation system
JP2002063596A (en) Game system, program and information storage medium
JP4223244B2 (en) Image generation system, program, and information storage medium
JP2006252426A (en) Program, information storage medium, and image generation system
JP4827250B2 (en) Program, information storage medium, and image generation system
JP2001143099A (en) Image-forming system and information storage medium
JP4159082B2 (en) Image generation system, program, and information storage medium
JP4913399B2 (en) Program, information storage medium, and image generation system
JP4861862B2 (en) Program, information storage medium, and image generation system
JP4632855B2 (en) Program, information storage medium, and image generation system
US7710419B2 (en) Program, information storage medium, and image generation system
US7724255B2 (en) Program, information storage medium, and image generation system
JP4476040B2 (en) Program, information storage medium, and image generation system
JP4521811B2 (en) Program, information storage medium, and image generation system
JP2006277488A (en) Program, information storage medium and image generation system
JP2010033302A (en) Image generation system, program and information storage medium
JP2010033253A (en) Program, information storage medium, and image generation system
JP2010033297A (en) Program, information storage medium, and image generation system
JP2008077406A (en) Image generation system, program, and information storage medium
JP4680670B2 (en) Program, information storage medium, and image generation system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081030

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110314

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110323

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110519

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110803

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110809

R150 Certificate of patent or registration of utility model

Ref document number: 4804120

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140819

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140819

Year of fee payment: 3

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250