JP2005275795A - Program, information storage medium and image generation system - Google Patents

Program, information storage medium and image generation system Download PDF

Info

Publication number
JP2005275795A
JP2005275795A JP2004087991A JP2004087991A JP2005275795A JP 2005275795 A JP2005275795 A JP 2005275795A JP 2004087991 A JP2004087991 A JP 2004087991A JP 2004087991 A JP2004087991 A JP 2004087991A JP 2005275795 A JP2005275795 A JP 2005275795A
Authority
JP
Japan
Prior art keywords
translucent
view
distant
distant view
farthest
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2004087991A
Other languages
Japanese (ja)
Inventor
Hisato Sotoosa
久人 外筬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Namco Ltd
Original Assignee
Namco Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Ltd filed Critical Namco Ltd
Priority to JP2004087991A priority Critical patent/JP2005275795A/en
Publication of JP2005275795A publication Critical patent/JP2005275795A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Image Generation (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a program, an information storage medium and an image generation system, allowing generation of an image wherein a boundary between a background (distant view) object and a most distant view is natural. <P>SOLUTION: In this image generation system, an object information storage part 172 stores object information about a semi-transparent distant view object set with an α value such that a transparency degree becomes high as it approaches the boundary of the most distant view in an area positioned in the boundary to the most distant view, an object arrangement processing part 136 arranges the semi-transparent distant view object in a prescribed position in an inner part of the background object in a view from a viewpoint, a depth queueing processing part 134 performs a depth queueing process with a prescribed range including the background object and the semi-transparent distant view object as a depth queueing processing range, and a drawing part 140 performs a semi-transparency process to a drawing buffer drawn with the most distant view to the semi-transparent distant view object on the basis of the α value set in the semi-transparent distant view object and draws it. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、プログラム、情報記憶媒体及び画像生成システムに関する。   The present invention relates to a program, an information storage medium, and an image generation system.

従来より、仮想的な3次元空間であるオブジェクト空間内の所与の視点から見える画像を生成する画像生成システムが知られており、いわゆる仮想現実を体験できるものとして人気が高い。   2. Description of the Related Art Conventionally, an image generation system that generates an image that can be seen from a given viewpoint in an object space that is a virtual three-dimensional space is known, and is popular as being able to experience so-called virtual reality.

このような画像生成システムでは、プレーヤの仮想現実感の向上のために、よりリアルな画像を生成することが重要な技術的課題になっている。   In such an image generation system, it is an important technical problem to generate a more realistic image in order to improve the player's virtual reality.

さて、背景(遠景)にあるオブジェクトの画像をより自然でリアルなものにする手法として、デプスキューイングと呼ばれる手法が知られている。このデプスキューイングでは、例えば視点からの距離に応じてオブジェクトの色をターゲット色(例えば灰色、白)に近づける処理を行うことで、背景(遠景)にあるオブジェクトをぼやかす。
特開2002−273029
Now, a technique called depth cueing is known as a technique for making an image of an object in the background (far view) more natural and realistic. In this depth cueing, for example, an object in the background (distant view) is blurred by performing a process of bringing the color of the object closer to the target color (eg, gray, white) according to the distance from the viewpoint.
JP 2002-273029 A

しかしながら、例えばデプスキューイングのターゲット色が灰色で最遠景(背景)が夜空などである場合には、デプスキューイングのターゲット色(灰色)と最遠景の色(黒)が異なった色になり、背景(遠景)オブジェクトと最遠景の境界がくっきり見えてしまい不自然な画像となってしまうという問題点があった。   However, for example, if the depth cueing target color is gray and the farthest view (background) is the night sky, the depth cueing target color (gray) and the farthest view color (black) will be different, There is a problem in that the boundary between the background (distant view) object and the farthest view is clearly seen, resulting in an unnatural image.

(1)本発明は、
オブジェクト情報を記憶するオブジェクト情報記憶部と、
オブジェクト情報に基づきオブジェクトをオブジェクト空間に配置するオブジェクト配置処理部と、
デプスキューイング処理を行うデプスキューイング処理部と、
オブジェクト空間内において仮想カメラから見える画像を描画する画像描画部をとしてコンピュータを機能させるためのプログラムであって、
前記オブジェクト情報記憶部は、
最遠景との境界に位置するエリアでは最遠景の境界に近づくほど透明度が高くなるように透明度情報が設定された半透明遠景オブジェクトのオブジェクト情報を記憶し、
オブジェクト配置処理部は、
前記半透明遠景オブジェクトを視点から見て背景オブジェクトより奥となる所定の位置に配置し、
デプスキューイング処理部は、
背景オブジェクト及び半透明遠景オブジェクトを含む所定の範囲をデプスキューイング処理範囲としてデプスキューイング処理を行い、
前記描画部は、
前記半透明遠景オブジェクトに設定されている透明度情報に基づき、当該半透明遠景オブジェクトを最遠景が描画された描画バッファに半透明処理を行って描画することを特徴とする。
(1) The present invention
An object information storage unit for storing object information;
An object placement processing unit for placing an object in the object space based on the object information;
A depth cueing processing unit for performing depth cueing processing;
A program for causing a computer to function as an image drawing unit that draws an image seen from a virtual camera in an object space,
The object information storage unit
In the area located at the boundary with the farthest view, the object information of the translucent distant view object in which the transparency information is set so that the transparency becomes higher as it approaches the boundary of the farthest view,
The object placement processing unit
Place the translucent distant view object at a predetermined position behind the background object when viewed from the viewpoint,
The depth cueing processor
Depth cueing processing is performed with a predetermined range including a background object and a translucent distant object as a depth cueing processing range,
The drawing unit
Based on the transparency information set for the translucent distant view object, the translucent distant view object is rendered by performing a translucent process in a rendering buffer in which the farthest view is rendered.

また本発明は、上記各部を有する画像生成システムに関係する。また本発明は、コンピュータ読み取り可能な情報記憶媒体であって、上記各部としてコンピュータを機能させるプログラムを記憶(記録)した情報記憶媒体に関係する。   The present invention also relates to an image generation system having the above-described units. The present invention also relates to a computer-readable information storage medium that stores (records) a program that causes a computer to function as each unit.

オブジェクト情報とは、オブジェクトのモデル情報や配置情報(例えば固定物の配置位置等)を含む。   The object information includes object model information and arrangement information (for example, an arrangement position of a fixed object).

最遠景とは、例えば空(天空)等のオブジェクト空間の最も端を構成するオブジェクトである。背景オブジェクトとは、例えばキャラクタが登場するゲームであれば、キャラクタの背景を構成する建物や木や山や地面や河川等の自然物等であるが、本発明では視点から比較的に離れたオブジェクト(遠景を構成するオブジェクト)について適用するとより効果的である。   The farthest view is an object that forms the end of the object space such as the sky (sky). For example, in the case of a game in which a character appears, the background object is a natural object such as a building, a tree, a mountain, a ground, or a river that constitutes the background of the character. It is more effective when applied to a distant view object).

なお最遠景が描画されたとは、最遠景オブジェクトが描画されている場合でもよいし、描画バッファ(フレームバッファ)に描画されている初期値やデフォルト値や所定のRGB値(所定の色)を最遠景として使用する場合でもよい。   The farthest view is drawn may be when the farthest object is drawn, or the initial value, default value, or predetermined RGB value (predetermined color) drawn in the drawing buffer (frame buffer) is the maximum. It may be used as a distant view.

前記半透明遠景オブジェクトは、最遠景との境界に位置するエリアでは最遠景の境界にあたるオブジェクトの端に近づくほど透明度が低くなるように透明度情報が連続的又は段階的に変化するように設定されるようにしてもよい。   The translucent distant view object is set so that the transparency information changes continuously or stepwise so that the transparency is lower in the area located at the border with the farthest view as it approaches the end of the object that is the border of the farthest view. You may do it.

またデプスキューイング処理は、視点から遠いほどオブジェクトの色がターゲット色に近づくようにする処理とすることができるが、これに限定されず、これと等価の画像エフェクトを得ることができる処理であってもよい。   In addition, the depth cueing process can be a process in which the color of the object approaches the target color as the distance from the viewpoint increases. However, the depth cueing process is not limited to this, and the process can obtain an equivalent image effect. May be.

本発明によれば、背景オブジェクト及び半透明遠景オブジェクトを含む所定の範囲についてデプスキューイング処理を行うとにより、遠景を構成する背景オブジェクトがかすんだような自然な画像を生成することができる。   According to the present invention, by performing depth cueing processing on a predetermined range including a background object and a translucent distant view object, it is possible to generate a natural image in which the background object constituting the distant view is hazy.

そして背景オブジェクトの奥に半透明遠景オブジェクトを配置して、前記半透明遠景オブジェクトに設定されている透明度情報に基づき、当該半透明遠景オブジェクトを最遠景が描画された描画バッファに半透明処理を行って描画することにより、背景オブジェクトの輪郭が、いずれもデプスキューイング処理の例えばターゲット色の影響を受けた半透明遠景オブジェクトと背景オブジェクトの境界として形成されるため輪郭の目立たない自然な画像となる。   Then, a translucent distant object is placed behind the background object, and based on the transparency information set for the translucent distant object, the translucent object is subjected to a translucency process in the drawing buffer in which the farthest view is drawn. As a result, the outline of the background object is formed as a boundary between the translucent distant object and the background object affected by the target color of the depth cueing process. .

また半透明遠景オブジェクトは、最遠景との境界にむけて透明度が高くなるように透明度情報が設定されているので、デプスキューイング処理の例えばターゲット色の影響が次第にうすれて最遠景の画像にとけ込んでいく自然な画像が生成される。   Also, since the transparency information is set so that the translucent distant view object has higher transparency toward the boundary with the farthest view, the influence of the target color of the depth cueing process gradually fades into the farthest view image. A natural image is generated.

本発明によれば、背景(遠景)オブジェクトと最遠景の境目が自然な画像を生成可能なプログラム、情報記憶媒体及び画像画像生成システムを提供することができる。   According to the present invention, it is possible to provide a program, an information storage medium, and an image image generation system capable of generating an image with a natural boundary between a background (distant view) object and the farthest view.

(2)本発明のプログラム、情報記憶媒体、画像生成システムは、
最遠景オブジェクトを省略し、
前記描画部が、描画領域に予め設定されている画素値を最遠景の画素値と擬制して前記半透明処理を行うことを特徴とする。
(2) The program, information storage medium, and image generation system of the present invention are:
Omit the farthest object,
The drawing unit performs the semi-transparency process by pretending a pixel value preset in a drawing area as a pixel value of the farthest view.

例えば最遠景が単一なカラーである場合には、描画領域(フレームバッファ)に予め単一なカラーを描画しておくことで最遠景オブジェクトを省略することができる。   For example, when the farthest view has a single color, the farthest view object can be omitted by drawing a single color in the drawing area (frame buffer) in advance.

このような場合、より自然な画像を生成するために、デプスキューイング処理を行うと、背景オブジェクトをかすんで見えるようにすることはできるが、最遠景にはオブジェクト(ポリゴン)が存在しないため、デプスキューイング処理の影響を受けない。従ってせっかくターゲット色でかすんで見える背景オブジェクトと最遠景の境界が結果的にくっきりとして不自然な画像となってしまう。   In such a case, to generate a more natural image, the depth cueing process can make the background object look blurred, but the object (polygon) does not exist in the farthest view. Unaffected by depth cueing process. Therefore, the boundary between the background object that looks hazy with the target color and the farthest view becomes clear, resulting in an unnatural image.

しかし本発明のように、半透明遠景オブジェクトを背景オブジェクトより奥の所定の位置に配置し、背景オブジェクト及び最遠景オブジェクトを含む所定の範囲をデプスキューイング処理範囲としてデプスキューイング処理を行い、前記半透明遠景オブジェクトに設定されている透明度情報に基づき、当該半透明遠景オブジェクトを最遠景が描画された描画バッファに半透明処理を行って描画することにより、背景オブジェクトの輪郭は、半透明遠景オブジェクトのデプスキューイング処理のターゲット色の影響の強いエリアとデプスキューイング処理のターゲット色の影響を受けた背景オブジェクトの境界として形成されるため、輪郭が際だつ事のなく自然な画像となる。   However, as in the present invention, the translucent distant view object is arranged at a predetermined position behind the background object, and the predetermined range including the background object and the farthest view object is used as the depth cueing processing range, and the depth cueing process is performed. Based on the transparency information set for the semi-transparent distant object, the semi-transparent distant object is drawn by performing the semi-transparent process in the drawing buffer in which the farthest view is drawn. Since this is formed as a boundary between the area strongly influenced by the target color of the depth cueing process and the background object affected by the target color of the depth cueing process, the contour is unremarkably natural.

また半透明遠景オブジェクトは、最遠景との境界にむけて透明度が高くなるように透明度情報が設定されているので、デプスキューイング処理の例えばターゲット色の影響が次第にうすれて最遠景にとけ込んでいく自然な画像が生成される。   In addition, since the transparency information is set so that the translucent distant view object becomes transparent toward the boundary with the farthest view, the influence of the target color of the depth cueing process gradually fades into the farthest view. A natural image is generated.

本発明によれば最遠景オブジェクトの像生成処理を省略しても背景(遠景)オブジェクトと最遠景の境目が自然な画像を生成できる。従って少ない処理負荷で背景(遠景)オブジェクトと最遠景の境目が自然な画像を生成可能なプログラム、情報記憶媒体及び画像画像生成システムを提供することができる。   According to the present invention, even if the image generation processing of the farthest view object is omitted, an image in which the boundary between the background (distant view) object and the farthest view is natural can be generated. Accordingly, it is possible to provide a program, an information storage medium, and an image image generation system capable of generating an image in which the boundary between the background (far view) object and the farthest view is natural with a small processing load.

(3)本発明のプログラム、情報記憶媒体、画像生成システムは、
夜場面と昼場面が登場するゲームにおいて、夜場面においては最遠景オブジェクトを省略することを特徴とする。
(3) The program, information storage medium, and image generation system of the present invention are:
In a game in which a night scene and a day scene appear, the farthest view object is omitted in the night scene.

例えば最遠景が夜空(黒)である場合には、描画領域(フレームバッファ)に予め描画されている画素値を最遠景として使用することにより最遠景オブジェクトを省略することができる。   For example, when the farthest view is the night sky (black), the farthest view object can be omitted by using the pixel value drawn in advance in the drawing area (frame buffer) as the farthest view.

例えばスポーツゲームにおいて、デイゲーム場面とナイター場面がある場合にはナイター場面において最遠景オブジェクトを省略するようにしてもよい。   For example, in a sports game, when there are a day game scene and a night game scene, the farthest view object may be omitted in the night game scene.

本発明によれば少ない処理負荷で背景(遠景)オブジェクトと最遠景の境目が自然な夜場面の画像を生成することができる。   According to the present invention, it is possible to generate an image of a night scene in which the boundary between the background (distant view) object and the farthest view is natural with a small processing load.

(4)本発明のプログラム、情報記憶媒体、画像生成システムは、
ゲーム空間の明るさ情報が暗い設定にされているゲーム空間の画像を生成する場合には、最遠景オブジェクトを省略することを特徴とする。
(4) The program, information storage medium, and image generation system of the present invention are:
When generating an image of a game space in which the brightness information of the game space is set to be dark, the farthest view object is omitted.

この場合のゲーム空間(オブジェクト空間)の明るさ情報は、例えば光源の明るさ情報(光源強度)や、ゲーム空間(オブジェクト空間)に配置されるオブジェクト(プリミティブ面)のα値や輝度情報や明度情報や彩度情報などがある。   The brightness information of the game space (object space) in this case is, for example, brightness information (light source intensity) of the light source, α value of the object (primitive plane) arranged in the game space (object space), luminance information, and brightness. Information and saturation information.

(5)本発明のプログラム、情報記憶媒体、画像生成システムは、
前記半透明遠景オブジェクトは、所定の幅をもつ帯状オブジェクトことを特徴とする。
(5) The program, information storage medium, and image generation system of the present invention are:
The translucent distant view object is a band-like object having a predetermined width.

半透明遠景オブジェクトは、例えば厚みにない長方形の帯のような形状であり、
背景オブジェクトを囲むようなリング状に閉じた形状(円筒形状)でもよいし、背景オブジェクトの少なくとも一部を覆うようなひらいた形状でもよいし、1枚板のような形状でもよい。
A translucent distant view object has a shape like a rectangular band that is not thick, for example,
It may be a ring shape (cylindrical shape) that surrounds the background object, a shape that covers at least a part of the background object, or a shape like a single plate.

以下、本発明の好適な実施形態について図面を用いて説明する。   Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings.

1.構成
図1に、本実施形態のブロック図の一例を示す。なお同図において本実施形態は、少なくとも処理部100を含めばよく(或いは処理部100と記憶部170、或いは処理部100と記憶部170と情報記憶媒体180を含めばよく)、それ以外のブロック(例えば操作部160、表示部190、音出力部192、携帯型情報記憶装置194、通信部196)については、任意の構成要素とすることができる。
1. Configuration FIG. 1 shows an example of a block diagram of the present embodiment. In this figure, the present embodiment may include at least the processing unit 100 (or may include the processing unit 100 and the storage unit 170, or the processing unit 100, the storage unit 170, and the information storage medium 180), and other blocks. (For example, the operation unit 160, the display unit 190, the sound output unit 192, the portable information storage device 194, and the communication unit 196) can be arbitrary constituent elements.

ここで処理部100は、システム全体の制御、システム内の各ブロックへの命令の指示、ゲーム処理、画像処理、音処理などの各種の処理を行うものであり、その機能は、各種プロセッサ(CPU、DSP等)、或いはASIC(ゲートアレイ等)などのハードウェアや、所与のプログラム(ゲームプログラム)により実現できる。   Here, the processing unit 100 performs various processes such as control of the entire system, instruction instruction to each block in the system, game processing, image processing, sound processing, and the like. , DSP, etc.) or ASIC (gate array, etc.) or a given program (game program).

操作部160は、プレーヤが操作データを入力するためのものであり、その機能は、レバー、ボタン、筺体などのハードウェアにより実現できる。   The operation unit 160 is for a player to input operation data, and the function can be realized by hardware such as a lever, a button, and a housing.

記憶部170は、処理部100や通信部196などのワーク領域となるもので、その機能はRAMなどのハードウェアにより実現できる。   The storage unit 170 serves as a work area such as the processing unit 100 or the communication unit 196, and its function can be realized by hardware such as a RAM.

そしてこの記憶部170は、最遠景との境界に位置するエリアでは最遠景の境界に近づくほど透明度が高くなるように透明度情報(狭義にはα値。同義には半透明度情報。他の説明でも同様)が設定された半透明遠景オブジェクトのオブジェクト情報を記憶するオブジェクト情報記憶部171を含む。   The storage unit 170 stores transparency information (α value in a narrow sense. Semi-transparency information in a synonym. Transparency information. In other explanations, the transparency increases in the area located at the border with the farthest view. Similarly, an object information storage unit 171 that stores object information of a translucent distant view object set with the same) is included.

情報記憶媒体(コンピュータにより使用可能な記憶媒体)180は、プログラムやデータなどの情報を格納するものであり、その機能は、光ディスク(CD、DVD)、光磁気ディスク(MO)、磁気ディスク、ハードディスク、磁気テープ、或いはメモリ(ROM)などのハードウェアにより実現できる。処理部100は、この情報記憶媒体180に格納される情報に基づいて本発明(本実施形態)の種々の処理を行う。即ち情報記憶媒体180には、本発明(本実施形態)の手段(特に処理部100に含まれるブロック)を実行するための情報(プログラム或いはプログラム及びデータ)が格納される。   An information storage medium (storage medium usable by a computer) 180 stores information such as programs and data, and functions thereof are an optical disk (CD, DVD), a magneto-optical disk (MO), a magnetic disk, and a hard disk. It can be realized by hardware such as a magnetic tape or a memory (ROM). The processing unit 100 performs various processes of the present invention (this embodiment) based on information stored in the information storage medium 180. That is, the information storage medium 180 stores information (program or program and data) for executing the means of the present invention (this embodiment) (particularly, the blocks included in the processing unit 100).

なお、情報記憶媒体180に格納される情報の一部又は全部は、システムへの電源投入時等に記憶部170に転送されることになる。また情報記憶媒体180に記憶される情報は、本発明の処理を行うためのプログラムコード、画像データ、音データ、表示物の形状データ、テーブルデータ、リストデータ、本発明の処理を指示するための情報、その指示に従って処理を行うための情報等の少なくとも1つを含むものである。   Part or all of the information stored in the information storage medium 180 is transferred to the storage unit 170 when the system is powered on. Information stored in the information storage medium 180 includes program code, image data, sound data, display object shape data, table data, list data, and data for instructing the processing of the present invention. It includes at least one of information, information for performing processing according to the instruction, and the like.

表示部190は、本実施形態により生成された画像を出力するものであり、その機能は、CRT、LCD、或いはHMD(ヘッドマウントディスプレイ)などのハードウェアにより実現できる。   The display unit 190 outputs an image generated according to the present embodiment, and the function thereof can be realized by hardware such as a CRT, LCD, or HMD (head mounted display).

音出力部192は、本実施形態により生成された音を出力するものであり、その機能は、スピーカなどのハードウェアにより実現できる。   The sound output unit 192 outputs the sound generated by the present embodiment, and its function can be realized by hardware such as a speaker.

携帯型情報記憶装置194は、プレーヤの個人データやセーブデータなどが記憶されるものであり、この携帯型情報記憶装置194としては、メモリカードや携帯型ゲーム装置などを考えることができる。   The portable information storage device 194 stores player personal data, save data, and the like. As the portable information storage device 194, a memory card, a portable game device, and the like can be considered.

通信部196は、外部(例えばホスト装置や他の画像生成システム)との間で通信を行うための各種の制御を行うものであり、その機能は、各種プロセッサ、或いは通信用ASICなどのハードウェアや、プログラムなどにより実現できる。   The communication unit 196 performs various controls for communicating with the outside (for example, a host device or other image generation system), and functions as hardware such as various processors or a communication ASIC. Or by a program.

なお本発明(本実施形態)の手段を実行するためのプログラム或いはデータは、ホスト装置(サーバー)が有する情報記憶媒体からネットワーク及び通信部196を介して情報記憶媒体180に配信するようにしてもよい。このようなホスト装置(サーバー)の情報記憶媒体の使用も本発明の範囲内に含まれる。   The program or data for executing the means of the present invention (this embodiment) may be distributed from the information storage medium of the host device (server) to the information storage medium 180 via the network and the communication unit 196. Good. Use of such an information storage medium of the host device (server) is also included in the scope of the present invention.

処理部100は、ゲーム処理部110、画像生成部130、音生成部150を含む。   The processing unit 100 includes a game processing unit 110, an image generation unit 130, and a sound generation unit 150.

ここでゲーム処理部110は、コイン(代価)の受け付け処理、各種モードの設定処理、ゲームの進行処理、選択画面の設定処理、オブジェクト(1又は複数のプリミティブ面)の位置や回転角度(X、Y又はZ軸回り回転角度)を求める処理、オブジェクトを動作させる処理(モーション処理)、視点の位置(仮想カメラの位置)や視線角度(仮想カメラの回転角度)を求める処理、マップオブジェクトなどのオブジェクトをオブジェクト空間へ配置する処理、ヒットチェック処理、ゲーム結果(成果、成績)を演算する処理、複数のプレーヤが共通のゲーム空間でプレイするための処理、或いはゲームオーバー処理などの種々のゲーム処理を、操作部160からの操作データや、携帯型情報記憶装置194からの個人データ、保存データや、ゲームプログラムなどに基づいて行う。   Here, the game processing unit 110 receives a coin (price) reception process, various mode setting processes, a game progress process, a selection screen setting process, the position and rotation angle (X, Processing to obtain the rotation angle around the Y or Z axis), processing to move the object (motion processing), processing to obtain the viewpoint position (virtual camera position) and line-of-sight angle (virtual camera rotation angle), objects such as map objects Various game processes, such as a process for placing a game in an object space, a hit check process, a process for calculating game results (results, results), a process for multiple players to play in a common game space, or a game over process , Operation data from the operation unit 160, personal data from the portable information storage device 194, storage data , Carried out on the basis of a game program.

ゲーム処理部110は移動・動作演算部114を含む。   The game processing unit 110 includes a movement / motion calculation unit 114.

ここで移動・動作演算部114は、車などのオブジェクトの移動情報(位置データ、回転角度データ)や動作情報(オブジェクトの各パーツの位置データ、回転角度データ)を演算するものであり、例えば、操作部160によりプレーヤが入力した操作データやゲームプログラムなどに基づいて、オブジェクトを移動させたり動作させたりする処理を行う。   Here, the movement / motion calculation unit 114 calculates movement information (position data, rotation angle data) and movement information (position data of each part of the object, rotation angle data) of an object such as a car. Based on operation data input by the player through the operation unit 160, a game program, or the like, a process of moving or moving an object is performed.

より具体的には、移動・動作演算部114は、オブジェクトの位置や回転角度を例えば1フレーム(1/60秒)毎に求める処理を行う。例えば(k−1)フレームでのオブジェクトの位置をPMk-1、速度をVMk-1、加速度をAMk-1、1フレームの時間を△tとする。するとkフレームでのオブジェクトの位置PMk、速度VMkは例えば下式(1)、(2)のように求められる。   More specifically, the movement / motion calculation unit 114 performs processing for obtaining the position and rotation angle of the object every frame (1/60 seconds), for example. For example, the position of the object in the (k-1) frame is PMk-1, the speed is VMk-1, the acceleration is AMk-1, and the time of one frame is Δt. Then, the position PMk and speed VMk of the object in the k frame are obtained, for example, by the following equations (1) and (2).

PMk=PMk-1+VMk-1×△t (1)
VMk=VMk-1+AMk-1×△t (2)
画像生成部130は、ゲーム処理部110からの指示等にしたがって各種の画像処理を行い、例えばオブジェクト空間内で仮想カメラ(視点)から見える画像を生成して、表示部190に出力する。また、音生成部150は、ゲーム処理部110からの指示等にしたがって各種の音処理を行い、BGM、効果音、音声などの音を生成し、音出力部192に出力する。
PMk = PMk-1 + VMk-1 * .DELTA.t (1)
VMk = VMk-1 + AMk-1 * .DELTA.t (2)
The image generation unit 130 performs various types of image processing in accordance with instructions from the game processing unit 110, for example, generates an image that can be seen from a virtual camera (viewpoint) in the object space, and outputs the generated image to the display unit 190. In addition, the sound generation unit 150 performs various types of sound processing in accordance with instructions from the game processing unit 110, generates sounds such as BGM, sound effects, and voices, and outputs them to the sound output unit 192.

なお、ゲーム処理部110、画像生成部130、音生成部150の機能は、その全てをハードウェアにより実現してもよいし、その全てをプログラムにより実現してもよい。或いは、ハードウェアとプログラムの両方により実現してもよい。   Note that all of the functions of the game processing unit 110, the image generation unit 130, and the sound generation unit 150 may be realized by hardware, or all of them may be realized by a program. Alternatively, it may be realized by both hardware and a program.

画像生成部130は、ジオメトリ処理部132(3次元座標演算部)、デプスキューイング処理部134、オブジェクト配置処理部136、描画部140(レンダリング部)を含む。   The image generation unit 130 includes a geometry processing unit 132 (three-dimensional coordinate calculation unit), a depth cueing processing unit 134, an object arrangement processing unit 136, and a drawing unit 140 (rendering unit).

オブジェクト配置処理部136は、前記半透明遠景オブジェクトを視点から見て背景オブジェクトより奥となる所定の位置に配置する処理を行う。   The object arrangement processing unit 136 performs a process of arranging the translucent distant view object at a predetermined position behind the background object when viewed from the viewpoint.

ここで、ジオメトリ処理部132は、座標変換、クリッピング処理、透視変換、或いは光源計算などの種々のジオメトリ処理(3次元座標演算)を行う。そして、ジオメトリ処理後(透視変換後)のオブジェクトデータ(オブジェクトの頂点座標などの形状データ、或いは頂点テクスチャ座標、輝度データ等)は、記憶部170のメインメモリ172に保存される。   Here, the geometry processing unit 132 performs various types of geometry processing (three-dimensional coordinate calculation) such as coordinate transformation, clipping processing, perspective transformation, or light source calculation. Then, the object data (shape data such as vertex coordinates of the object, vertex texture coordinates, luminance data, etc.) after geometry processing (after perspective transformation) is stored in the main memory 172 of the storage unit 170.

デプスキューイング処理部134は、視点から遠いほどオブジェクト(1又は複数のプリミティブ面)の色がターゲット色に近づくように、オブジェクトのデプスキューイング処理を行う。これにより、例えばターゲット色が灰色である場合には、オブジェクトの元の色が何色であっても、遠景においてはオブジェクトの色が灰色に近づく。なお、デプスキューイング処理は、デプスキューイング効果の強さを決めるパラメータであるデプスキューイング値を用いて制御される。   The depth cueing processing unit 134 performs a depth cueing process on the object so that the color of the object (one or more primitive surfaces) approaches the target color as the distance from the viewpoint increases. Thereby, for example, when the target color is gray, the color of the object approaches gray in a distant view, regardless of the original color of the object. The depth cueing process is controlled using a depth cueing value that is a parameter that determines the strength of the depth cueing effect.

デプスキューイング処理部134は、背景オブジェクト及び半透明遠景オブジェクトを含む所定の範囲をデプスキューイング処理範囲としてデプスキューイング処理を行う。   The depth cueing processing unit 134 performs depth cueing processing using a predetermined range including the background object and the translucent distant object as a depth cueing processing range.

描画部140は、オブジェクトデータやテクスチャなどに基づいて、オブジェクト空間において仮想カメラから見える画像を描画する処理を行う。   The drawing unit 140 performs a process of drawing an image seen from the virtual camera in the object space based on the object data, texture, and the like.

描画部140は、αブレンディング部142(半透明処理部)を含む。   The drawing unit 140 includes an α blending unit 142 (semi-transparent processing unit).

ここでαブレンディング部142は、オブジェクトのα値(広義には透明度情報。他の説明でも同様)に基づいて例えば次式に示すようなαブレンディング処理(半透明処理)を行う。   Here, the α blending unit 142 performs an α blending process (translucent process) as shown in the following equation based on the α value of the object (transparency information in a broad sense; the same applies to other descriptions).

RQ=(1−α)×R1+α×R2 (3)
GQ=(1−α)×G1+α×G2 (4)
BQ=(1−α)×B1+α×B2 (5)
ここで、R1、G1、B1は、フレームバッファ174に既に描画されている元画像の色(輝度)のR、G、B成分であり、R2、G2、B2は、元画像に対して重ね書きする描画画像の色のR、G、B成分である。
RQ = (1-α) × R1 + α × R2 (3)
GQ = (1−α) × G1 + α × G2 (4)
BQ = (1−α) × B1 + α × B2 (5)
Here, R1, G1, and B1 are R, G, and B components of the color (luminance) of the original image already drawn in the frame buffer 174, and R2, G2, and B2 are overwritten on the original image. R, G, and B components of the color of the drawn image to be drawn.

αブレンディング部142は、前記半透明遠景オブジェクトに設定されているα値に基づき、当該半透明遠景オブジェクトを最遠景が描画された描画バッファに半透明処理を行って描画する。   The α blending unit 142 draws the translucent distant object by performing the translucent process in the drawing buffer in which the farthest view is drawn based on the α value set for the translucent distant object.

なお、本実施形態の画像生成システムは、1人のプレーヤのみがプレイできるシングルプレーヤモード専用のシステムにしてもよいし、このようなシングルプレーヤモードのみならず、複数のプレーヤがプレイできるマルチプレーヤモードも備えるシステムにしてもよい。   Note that the image generation system of the present embodiment may be a system dedicated to the single player mode in which only one player can play, or not only the single player mode but also a multiplayer mode in which a plurality of players can play. The system may also be provided.

また複数のプレーヤがプレイする場合に、これらの複数のプレーヤに提供するゲーム画像やゲーム音を、1つの端末を用いて生成してもよいし、ネットワーク(伝送ライン、通信回線)などで接続された複数の端末を用いて生成してもよい。   Further, when a plurality of players play, game images and game sounds to be provided to the plurality of players may be generated using one terminal, or connected via a network (transmission line, communication line) or the like. Alternatively, it may be generated using a plurality of terminals.

2.本実施の形態の特徴と動作
次に本実施の形態の特徴と動作について説明する。
2. Features and Operations of this Embodiment Next, features and operations of this embodiment will be described.

図2は、比較例のゲーム画面である。   FIG. 2 is a game screen of a comparative example.

210はスタジアムの観客席等の仮想カメラに対して比較的遠景に存在する背景オブジェクトである。220はオブジェクト空間の最遠景を構成する最遠景オブジェクト(昼の空を表現したテクスチャをマッピングしたオブジェクト)である。このような場合そのまま画像生成を行うと背景オブジェクト(遠景)はくっきりとした輪郭230を有する画像となり、背景オブジェクト210と最遠景オブジェクト220である昼空との境界がくっきりとした画像となる。   Reference numeral 210 denotes a background object that exists relatively far away from a virtual camera such as a spectator seat in a stadium. Reference numeral 220 denotes a farthest view object (an object mapped with a texture representing the daytime sky) that forms the farthest view of the object space. In such a case, when the image is generated as it is, the background object (distant view) becomes an image having a clear outline 230 and the boundary between the background object 210 and the daylight that is the farthest view object 220 becomes clear.

一般に現実世界では遠方に行くほど景色はかすんで見えるのが自然であり、遠景にあるオブジェクトがくっきりとした輪郭を有するのは不自然である。   In general, in the real world, it is natural that the scenery looks hazy as it goes farther, and it is unnatural that an object in the far view has a clear outline.

さて、背景(遠景)にあるオブジェクトの画像をより自然でリアルなものにする手法として、デプスキューイングと呼ばれる手法が知られている。このデプスキューイングでは、視点からの距離に応じてオブジェクトの色をターゲット色(例えば灰色、白)に近づける処理を行うことで、背景(遠景)にあるオブジェクトをぼやかす。   Now, a technique called depth cueing is known as a technique for making an image of an object in the background (far view) more natural and realistic. In this depth cueing, the object in the background (distant view) is blurred by performing processing to bring the color of the object closer to the target color (for example, gray or white) according to the distance from the viewpoint.

デプスキューイングの手法を用いることで、背景オブジェクト210をかすんで見えるようにすることはできる。しかし最遠景オブジェクト220はデプスキューイング処理の対象外となる(デプスキューイング処理のターゲット色と最遠景オブジェクトの色が異なるためである)。このため、最遠景オブジェクト220はデプスキューイング処理の影響をうけないので、せっかくターゲット色でかすんで見える背景オブジェクト210と最遠景オブジェクト220の境界230が結果的にくっきりとして不自然な画像となってしまう。   By using the depth cueing method, it is possible to make the background object 210 appear blurred. However, the farthest view object 220 is not subject to the depth cueing process (because the target color of the depth cueing process is different from the color of the farthest view object). For this reason, since the farthest view object 220 is not affected by the depth cueing process, the boundary 230 between the background object 210 and the farthest view object 220 that looks hazy with the target color becomes a clear and unnatural image as a result. End up.

そこで本実施の形態では、半透明遠景オブジェクトを背景オブジェクトより奥の所定の位置に配置し、背景オブジェクト及び最遠景オブジェクトを含む所定の範囲をデプスキューイング処理範囲としてデプスキューイング処理を行い、半透明遠景オブジェクトに設定されている透明度情報(α値)に基づき、当該半透明遠景オブジェクトを最遠景が描画された描画バッファに半透明処理を行って描画するという構成を採用することでかかる不具合を解消している。   Therefore, in the present embodiment, the translucent distant view object is arranged at a predetermined position behind the background object, and the depth cueing process is performed using the predetermined range including the background object and the farthest view object as the depth cueing processing range. Based on the transparency information (α value) set for a transparent distant view object, this semi-transparent distant object is rendered by performing a semi-transparent process on the drawing buffer in which the farthest view is drawn. It has been resolved.

図3(A)(B)は、本実施の形態の半透明遠景オブジェクトについて説明するための図である。   3A and 3B are diagrams for explaining the translucent distant view object of the present embodiment.

図3(A)は、本実施の形態の半透明遠景オブジェクトの形状の一例のイメージを示している。同図に示すように本実施の形態の半透明遠景オブジェクト250は、所定の幅wをもつ帯状のオブジェクトして、例えばポリゴンモデルで構成されている。   FIG. 3A shows an image of an example of the shape of the translucent distant view object of the present embodiment. As shown in the figure, the translucent distant view object 250 of the present embodiment is formed of, for example, a polygon model as a band-like object having a predetermined width w.

図3(B)は、図3(A)の帯状の半透明遠景オブジェクトの252部分の拡大図である。   FIG. 3B is an enlarged view of a portion 252 of the belt-like translucent distant view object in FIG.

本実施の形態の帯状の半透明遠景オブジェクト250は、最遠景との境界に位置するエリアでは最遠景の境界に近づくほど透明度が高くなるようにα値(透明度情報)が設定されている。   In the band-like translucent distant view object 250 of the present embodiment, an α value (transparency information) is set such that in an area located at the boundary with the farthest view, the transparency becomes higher as the distance from the farthest view becomes closer.

例えば図3(B)に示すように最遠景との境界254に位置する第1のエリア255から背景オブジェクトとの境界256に位置する第2のエリア257にかけて、第1のエリアでは透明度が高く第2のエリアでは透明度が低くなるようにα値が連続的又は段階的に変化するように設定されている。例えば半透明遠景オブジェクト250をポリゴンオブジェクトとして構成する場合には頂点にαが設定されている。   For example, as shown in FIG. 3B, from the first area 255 located at the boundary 254 with the farthest view to the second area 257 located at the boundary 256 with the background object, the first area has a high transparency. In the area 2, the α value is set to change continuously or stepwise so that the transparency is low. For example, when the translucent distant view object 250 is configured as a polygon object, α is set at the vertex.

第1のエリア255では、最遠景との境界254に近い頂点ほどα1(=0)に近いα値が設定されており境界254上の頂点にはα値としてα1(=0)が設定されている。また第2のエリア257では 背景オブジェクトとの境界256に近い頂点ほどα2(0<α2<100)に近いα値が設定されており境界256上の頂点にはα値としてα2が設定されている。   In the first area 255, an ap value closer to the boundary 254 with the farthest view is set to an α value that is closer to α1 (= 0), and α1 (= 0) is set to the apex on the boundary 254 as an α value. Yes. Also, in the second area 257, an α value closer to α2 (0 <α2 <100) is set for a vertex closer to the boundary 256 with the background object, and α2 is set as an α value for the vertex on the boundary 256. .

ここにおいてα値は半透明遠景オブジェクトを描画バッファ(例えばフレームバッファ)上の描画する際に既に描画済みの画像(ここでは最遠景オブジェクトの画像)と半透明合成を行う際の合成計数である。ここではα値が0に近いほど半透明遠景オブジェクトの透明度が高くなる。すなわち0に近いほど半透明遠景オブジェクトの影響が少なくなり、描画済みの画像の影響が強くなることを示している。   Here, the α value is a composite count when translucent synthesis is performed with an image already drawn (here, the image of the farthest view object) when a translucent distant view object is drawn on a drawing buffer (for example, a frame buffer). Here, the closer the α value is to 0, the higher the transparency of the translucent distant view object. That is, the closer to 0, the less the influence of the translucent distant object, and the stronger the influence of the drawn image.

図4を用いてオブジェクト空間における半透明遠景オブジェクトと背景オブジェクト及び最遠景オブジェクトとの位置関係について説明する。   The positional relationship between the translucent distant view object, the background object, and the farthest view object in the object space will be described with reference to FIG.

図4はオブジェクト空間をY軸方向から見たXZ平面図である。同図に示すように本実施の形態では、半透明遠景オブジェクト250を所与の視点202からみて背景オブジェクト210をより奥であって、最遠景オブジェクト220より手前の所定の位置に配置する。   FIG. 4 is an XZ plan view of the object space viewed from the Y-axis direction. As shown in the figure, in the present embodiment, the translucent distant object 250 is viewed from a given viewpoint 202 and the background object 210 is arranged at a predetermined position in front of the farthest object 220.

図5を用いてオブジェクト空間における半透明遠景オブジェクトと背景オブジェクト及び最遠景オブジェクトとの位置関係とデプスキューイング処理範囲について説明する。   The positional relationship between the translucent distant view object, the background object, and the farthest view object in the object space and the depth cueing processing range will be described with reference to FIG.

図5はオブジェクト空間をX軸方向から見たYZ平面図である。310はZ軸方向におけるデプスキューイング処理範囲(ニアー320〜終了位置340の範囲)を示している。ニアー320はZ軸方向におけるデプスキューイング処理開始位置(前カラー位置)であり、ファー330はZ軸方向におけるターゲット色になる位置(又はターゲット色に最も近づく位置)(奥カラー位置)であり、ファー330以降、終了位置340まではデプスキューイング値(DQ)は同じである。   FIG. 5 is a YZ plan view of the object space viewed from the X-axis direction. Reference numeral 310 denotes a depth cueing processing range (range from the near 320 to the end position 340) in the Z-axis direction. The near 320 is a depth cueing processing start position (front color position) in the Z-axis direction, and the fur 330 is a position (or a position closest to the target color) (back color position) that becomes the target color in the Z-axis direction. The depth cueing value (DQ) is the same from the far 330 to the end position 340.

本実施の形態では背景オブジェクト210及び半透明遠景オブジェクトを含む所定の範囲310をデプスキューイング処理範囲としてデプスキューイング処理を行う。最遠景オブジェクトはデプスキューイング処理対象としない。最遠景がデプスのターゲット色になってしまうのを防止するためである。   In the present embodiment, depth cueing processing is performed using a predetermined range 310 including the background object 210 and the translucent distant view object as a depth cueing processing range. The farthest view object is not subject to depth cueing processing. This is to prevent the farthest view from becoming the depth target color.

本実施の形態では視点202(仮想カメラ、画面、プレーヤが操作する移動体オブジェクト)から遠いほどオブジェクト(1又は複数のポリゴン)の色がターゲット色に近づくように、デプスキューイング処理を行う。これにより、オブジェクトがニアー320より視点から近い場合には、その色は元の色のままとなるが、ニアー320より視点202から遠くなると、その色がターゲット色に近づいて行く。   In this embodiment, the depth cueing process is performed so that the color of the object (one or a plurality of polygons) approaches the target color as it is farther from the viewpoint 202 (virtual camera, screen, moving object operated by the player). As a result, when the object is closer to the viewpoint than the near 320, the color remains the original color, but when the object is farther from the viewpoint 202 than the near 320, the color approaches the target color.

例えば図5において、背景オブジェクト210の頂点VE1には、頂点座標X1、Y1、Z1、色(輝度)情報R1、G1、B1、テクスチャ座標U1、V1、デプスキューイング値DQ1などが設定されている。同様に半透明遠景オブジェクト250の頂点VE2には、頂点座標X2、Y2、Z2、色情報R2、G2、B2、テクスチャ座標U2、V2、デプスキューイング値DQ2、α値αなどが設定されている。本実施形態では、これらの各頂点に与えられた情報に基づいて、各ピクセルの情報を補間演算により求めている。 For example, in FIG. 5, the vertex VE 1 of the background object 210 has vertex coordinates X 1 , Y 1 , Z 1 , color (luminance) information R 1 , G 1 , B 1 , texture coordinates U 1 , V 1 , depth cue. Ing value DQ 1 and the like are set. Similarly, vertex coordinates VE 2 of the translucent distant view object 250 have vertex coordinates X 2 , Y 2 , Z 2 , color information R 2 , G 2 , B 2 , texture coordinates U 2 , V 2 , depth cueing value DQ 2. , Α value α and the like are set. In the present embodiment, information on each pixel is obtained by interpolation based on information given to each of these vertices.

そして本実施形態では、オブジェクトの頂点のZ値(頂点のZ座標そのものの値、或いはZ座標から所与の計算式を用いて得られる値等)に基づいて、オブジェクトの頂点に設定されるDQ値(デプスキューイング値)を変化させる。
例えば画面の奥に行くほどZ値が大きくなり、DQ値が大きいほどデプスキューイング効果が強くなる場合を考える。この場合には、Z値が大きいほど、よりターゲット色に近づくようにDQ値を大きくする。従って、図5の半透明遠景オブジェクト250の頂点VE2のDQ2は、背景オブジェクト210の頂点VE1のDQ1よりも大きくなり、半透明遠景オブジェクト250は、背景オブジェクト210に比べて、よりターゲット色に近い色になる。
In this embodiment, the DQ set at the vertex of the object based on the Z value of the vertex of the object (the value of the Z coordinate itself of the vertex or the value obtained from the Z coordinate using a given calculation formula). Change the value (depth cueing value).
For example, consider a case where the Z value increases as the depth of the screen increases, and the depth cueing effect increases as the DQ value increases. In this case, the DQ value is increased so as to be closer to the target color as the Z value is larger. Accordingly, the DQ 2 of the vertex VE 2 of the translucent distant object 250 in FIG. 5 is larger than the DQ 1 of the vertex VE 1 of the background object 210, and the translucent distant object 250 is more targeted than the background object 210. The color is close to the color.

図6は、デプスキューイング処理の一例を説明するための図である。   FIG. 6 is a diagram for explaining an example of the depth cueing process.

CZは奥行き情報である。またAは前カラー信号と呼ばれる元の色であり、Cは奥カラー信号と呼ばれるデプスキューイング処理の色補間により近づける先となる色(ターゲット色)である。A及びCは、R、G,Bの各色の輝度情報で構成されている。Bは、奥行きCZの位置における色としてデプスキューイング処理により得られるものである。これによりCZが大きいほど、即ち奥側に近づくほど色Bは色Cに近づく。以上の色補間演算をRGBの各成分の輝度に対して施すことでデプスキューイング処理を実現できる。   CZ is depth information. Further, A is an original color called a previous color signal, and C is a color (target color) that is closer to the color interpolation of depth cueing processing called a back color signal. A and C are composed of luminance information of each color of R, G, and B. B is obtained by depth cueing processing as a color at the position of the depth CZ. As a result, the color C approaches the color C as CZ increases, that is, the closer to the back side. The depth cueing process can be realized by performing the above color interpolation operation on the luminance of each component of RGB.

図7は、本実施の形態における最遠景と半透明遠景オブジェクトの半透明処理(αブレンディング処理)について説明するための図である。   FIG. 7 is a diagram for explaining the translucent process (α blending process) for the farthest view and the translucent distant object in the present embodiment.

400は最遠景が描画された(半透明遠景オブジェクトは描画前)のフレームバッファ(描画バッファ)の様子を模式的に示したものであり、410はデプスキューイング処理後の波紋画像である。   Reference numeral 400 schematically shows the state of the frame buffer (drawing buffer) in which the farthest view is drawn (before the semitransparent distant view object is drawn), and 410 is a ripple image after depth cueing processing.

本実施の形態では単カラーのカラーポリゴンで構成された半透明遠景オブジェクトを使用しているため、半透明遠景オブジェクトの画像の各画素の色(RGB値)は単一の値(r、g、b)である。単一の値(r、g、b)は、半透明遠景オブジェクトの元カラーとデプスキューイング処理のターゲット色を半透明遠景オブジェクトの各頂点の奥行き情報に基づき半透明合成して得られ値、又はその値に基づき色補完により得られた値である。   In this embodiment, since a translucent distant object composed of single-colored color polygons is used, the color (RGB value) of each pixel of the image of the translucent distant object is a single value (r, g, b). A single value (r, g, b) is a value obtained by translucently combining the original color of the translucent distant object and the target color of the depth cueing process based on the depth information of each vertex of the translucent distant object. Alternatively, it is a value obtained by color interpolation based on the value.

また本実施の形態の半透明遠景オブジェクトは、最遠景との境界に位置する第1のエリアから背景オブジェクトとの境界に位置する第nのエリアにかけて第1のエリアでは透明度が高く第nのエリアでは透明度が低くなるようにα値が連続的又は段階的に変化するように設定されている。すなわち第1のエリア412−1のα値をα1、第2のエリア412−2のα値をα2、・・・、第nのエリア412−nのα値をαnとすると、α1<α2<・・・<αnとなっている。本実施の形態では、半透明遠景オブジェクトに設定されているα値に基づき、当該半透明遠景オブジェクトを最遠景が描画された描画バッファに半透明処理を行ってフレームバッファに描画する。 In addition, the translucent distant view object of the present embodiment has a high transparency in the first area from the first area located at the boundary with the farthest view to the nth area located at the boundary with the background object. Is set so that the α value changes continuously or stepwise so that the transparency is low. That is, the alpha value alpha 1 of the first area 412-1, 2 alpha value of the second area 412 - 2 alpha, · · ·, if the alpha value of the area 412-n of the n and alpha n, alpha 12 <... <α n . In the present embodiment, based on the α value set for the translucent distant view object, the translucent distant view object is rendered in the frame buffer by performing the translucent process on the rendering buffer in which the farthest view is rendered.

420は半透明遠景オブジェクト描画後のフレームバッファの様子を模式的に表したものである。   Reference numeral 420 schematically represents the state of the frame buffer after rendering the translucent distant view object.

ここでP1は半透明遠景オブジェクトの第1のエリアと重なる部分の半透明遠景オブジェクト描画前のピクセルであり、P1’はP1に半透明遠景オブジェクトが描画された後のフレームバッファにおけるピクセルである。P1におけるRGB値が(R1、G1、B1)、p1におけるRGB値とα値が(r、g、b、α1)で、P1’におけるRGB値が(R1’、G1’、B1’)とすると、R1’、G1’、B1’は以下の式で与えられる。 Here, P 1 is a pixel before drawing the semi-transparent distant view object in a portion overlapping the first area of the semi-transparent distant object, and P 1 ′ is a pixel in the frame buffer after the semi-transparent distant object is drawn on P 1. It is. The RGB values at P 1 are (R 1 , G 1 , B 1 ), the RGB values and α values at p 1 are (r, g, b, α 1 ), and the RGB values at P 1 ′ are (R 1 ′, G 1 ′, B 1 ′), R 1 ′, G 1 ′, B 1 ′ are given by the following equations.

1’=α1r+(1‐α1)R1
1’=α1g+(1‐α1)G1
1’=α1b+(1‐α1)B1
またPnは半透明遠景オブジェクトの第nのエリアと重なる部分の半透明遠景オブジェクト描画前のピクセルであり、Pn’はPnに半透明遠景オブジェクトが描画された後のフレームバッファにおけるピクセルである。PnおけるRGB値が(Rn、Gn、Bn)、pnにおけるRGB値とα値が(r、g、b、αn)で、Pn’におけるRGB値が(Rn’、Gn’、Bn’)とすると、Rn’、Gn’、Bn’は以下の式で与えられる。
R 1 '= α 1 r + (1-α 1 ) R 1
G 1 '= α 1 g + (1-α 1 ) G 1
B 1 '= α 1 b + (1-α 1 ) B 1
The P n is translucent distant object drawing previous pixel portion overlapping with the first n translucent distant object area and P n 'the pixel in the frame buffer after translucent distant object is drawn in the P n is there. The RGB value in P n is (R n , G n , B n ), the RGB value in pn and the α value are (r, g, b, α n ), and the RGB value in P n ′ is (R n ′, G n ′, B n ′), R n ′, G n ′, B n ′ are given by the following equations.

n’=αnr+(1‐αn)Rn
n’=αng+(1‐αn)Gn
n’=αnb+(1‐αn)Bn
ここにおいてα1<αnであるため、第1のエリアのピクセルP1は第nのエリアのピクセルPnに比べ最遠景の影響が大きくデプスキューイング処理のターゲット色の影響は薄くなる。
R n '= α n r + (1-α n ) R n
G n ′ = α n g + (1−α n ) G n
B n ′ = α n b + (1−α n ) B n
Here, since α 1n , the pixel P 1 in the first area has a larger influence on the farthest view than the pixel P n in the n-th area, and the influence of the target color in the depth cueing process becomes lighter.

すなわち第nのエリアではデプスキューイング処理のターゲット色の影響が最も強く、第1のエリアに近づくほどターゲット色の影響がうすれ、最遠景の影響が強くなる。   That is, the influence of the target color of the depth queuing process is the strongest in the nth area, and the influence of the target color is weakened as the distance from the first area becomes closer, and the influence of the farthest view becomes stronger.

図8は最遠景オブジェクト及び半透明遠景オブジェクトの上に背景オブジェクトを描画したあとの画像である。   FIG. 8 shows an image after the background object is drawn on the farthest object and the semi-transparent object.

背景オブジェクトの輪郭230は、デプスキューイング処理のターゲット色の影響の強いエリアの半透明遠景オブジェクト250とデプスキューイング処理のターゲット色の影響を受けた背景オブジェクト210の境界として形成されるため、輪郭が際だつ事のなく自然な画像となる。   The contour 230 of the background object is formed as a boundary between the translucent distant object 250 in the area where the influence of the target color of the depth cueing process is strong and the background object 210 affected by the target color of the depth cueing process. However, it becomes a natural image without any conspicuousness.

また半透明遠景オブジェクト250は、最遠景オブジェクト220との境界280にむけて透明度が高くなるようにα値が設定されているので、デプスキューイング処理のターゲット色の影響が次第にうすれて最遠景の画像にとけ込んでいく自然な画像が生成される。   Further, since the semi-transparent distant view object 250 has an α value set so as to increase in transparency toward the boundary 280 with the farthest view object 220, the influence of the target color of the depth cueing process gradually fades away. A natural image is generated that blends into the image.

図9、図10は、夜場面においては最遠景オブジェクトを省略する例について説明するための図である。   9 and 10 are diagrams for explaining an example in which the farthest object is omitted in a night scene.

夜場面のゲーム画像を生成する際、最遠景が黒一色の夜空等であれば夜空の最遠景オブジェクトを用意せずに、フレームバッファのデフォルト値を用いた夜空の表現も可能である。図9はフレームバッファのデフォルト値を用いて夜空の画像を生成したゲーム画像である。   When generating a game image of a night scene, if the farthest view is a black-colored night sky or the like, the night sky can be expressed using the default value of the frame buffer without preparing the farthest view object of the night sky. FIG. 9 is a game image in which an image of the night sky is generated using the default value of the frame buffer.

210はスタジアムの観客席等の仮想カメラに対して比較的遠景に存在する背景オブジェクトである。220’はオブジェクト空間の最遠景を構成する夜空である。   Reference numeral 210 denotes a background object that exists relatively far away from a virtual camera such as a spectator seat in a stadium. Reference numeral 220 'denotes a night sky constituting the farthest view of the object space.

このような場合より自然な画像を生成するために、デプスキューイング処理を行うと、背景オブジェクト210をかすんで見えるようにすることはできるが、最遠景の夜空にはオブジェクト(ポリゴン)が存在しないため、デプスキューイング処理の影響をうけない。従ってせっかくターゲット色でかすんで見える背景オブジェクト210と最遠景220’の境界230が結果的にくっきりとして不自然な画像となってしまう。   In order to generate a more natural image in such a case, if the depth cueing process is performed, the background object 210 can be seen blurred, but there is no object (polygon) in the night sky of the farthest view. Therefore, it is not affected by the depth cueing process. Therefore, the boundary 230 between the background object 210 and the farthest view 220 ′ that looks hazy with the target color is sharp, resulting in an unnatural image.

これに対し本実施の形態のように、半透明遠景オブジェクトを背景オブジェクトより奥の所定の位置に配置し、背景オブジェクト及び最遠景オブジェクトを含む所定の範囲をデプスキューイング処理範囲としてデプスキューイング処理を行い、前記半透明遠景オブジェクトに設定されているα値に基づき、当該半透明遠景オブジェクトを最遠景が描画された描画バッファに半透明処理を行って描画すると、図10に示すように背景オブジェクトの輪郭230は、半透明遠景オブジェクト250のデプスキューイング処理のターゲット色の影響の強いエリアとデプスキューイング処理のターゲット色の影響を受けた背景オブジェクトの境界として形成されるため、輪郭が際だつ事のなく自然な画像となる。   On the other hand, as in the present embodiment, the translucent distant view object is arranged at a predetermined position behind the background object, and the predetermined range including the background object and the farthest view object is used as the depth cueing processing range. When the semi-transparent distant view object is drawn by performing the semi-transparent process on the drawing buffer in which the farthest view is drawn based on the α value set in the semi-transparent distant object, the background object is shown in FIG. The outline 230 of the semi-transparent object 250 is formed as a boundary between the area affected by the target color of the depth cueing process and the background object affected by the target color of the depth cueing process. It becomes a natural image without.

また半透明遠景オブジェクト250は、最遠景220’との境界280’にむけて透明度が高くなるようにα値が設定されているので、デプスキューイング処理のターゲット色の影響が次第にうすれて最遠景の夜の色にとけ込んでいく自然な画像が生成される。   Further, since the semi-transparent distant view object 250 has an α value set so as to increase in transparency toward the boundary 280 ′ with the farthest view 220 ′, the effect of the target color of the depth cueing process gradually fades away. A natural image is created that blends into the night colors.

図11は、本実施の形態の処理の流れ(最遠景が夜空の場合)について説明するための図である。   FIG. 11 is a diagram for explaining the flow of processing according to the present embodiment (when the farthest view is in the night sky).

まず半透明遠景オブジェクトを視点に対して背景オブジェクトより奥の所定位置に配置する(ステップS10)。半透明遠景オブジェクトは固定物として取り扱い可能なので、予め視点に対して背景オブジェクトより奥となる所定位置を設定しておくことができる。   First, the translucent distant object is placed at a predetermined position behind the background object with respect to the viewpoint (step S10). Since the translucent distant view object can be handled as a fixed object, a predetermined position behind the background object can be set in advance with respect to the viewpoint.

次に、描画バッファ(フレームバッファ)にデフォルト値(最遠景の画素値)を描画する(ステップS20)。   Next, the default value (the farthest view pixel value) is drawn in the drawing buffer (frame buffer) (step S20).

次に、ポリゴン(広義にはオブジェクト)に対するジオメトリ処理を行う(ステップS30)。即ち、例えば、ローカル座標系からワールド座標系へ座標変換や、ワールド座標系から視点座標系への座標変換や、クリッピング処理や、スクリーン座標系への透視変換などを行う。   Next, geometry processing is performed on the polygon (object in a broad sense) (step S30). That is, for example, coordinate conversion from the local coordinate system to the world coordinate system, coordinate conversion from the world coordinate system to the viewpoint coordinate system, clipping processing, perspective conversion to the screen coordinate system, and the like are performed.

次に、Z値がデプスキューイング範囲内にあるか否かを判断する(ステップS40)。そして、Z値がデプスキューイング範囲内にある場合には、ポリゴンの頂点のZ値に基づき、その頂点のDQ値(デプスキューイング値)を演算する。即ち、視点から遠いほどターゲット色に近づくように、その頂点のDQ値を変化させる。   Next, it is determined whether or not the Z value is within the depth cueing range (step S40). When the Z value is within the depth cueing range, the DQ value (depth cueing value) of the vertex is calculated based on the Z value of the vertex of the polygon. That is, the DQ value of the vertex is changed so that it is closer to the target color as it is farther from the viewpoint.

次に、演算結果(ジオメトリ処理、DQ値演算、α値演算などの結果)に基づき頂点データセットを作成する(ステップS60)。   Next, a vertex data set is created based on the calculation results (geometry processing, DQ value calculation, α value calculation, etc.) (step S60).

次に、全てのポリゴンについて処理が完了したか否かを判断し(ステップS70)、完了していない場合にはステップS30に戻る。   Next, it is determined whether or not the processing has been completed for all the polygons (step S70), and if not, the process returns to step S30.

一方、完了した場合には頂点データセットに基づき、デプスキューイング範囲内のポリゴンを、Z値に従って視点から近いポリゴンから順に描画する。半透明遠景オブジェクトを描画する際には、設定されているα値に従って半透明処理を行って描画する(ステップS80)。   On the other hand, when completed, the polygons in the depth cueing range are drawn in order from the polygons closest to the viewpoint according to the Z value based on the vertex data set. When drawing a semi-transparent distant view object, drawing is performed by performing semi-transparency processing according to the set α value (step S80).

3.ハードウェア構成
次に、本実施形態を実現できるハードウェアの構成の一例について図12を用いて説明する。
3. Hardware Configuration Next, an example of a hardware configuration capable of realizing the present embodiment will be described with reference to FIG.

メインプロセッサ900は、CD982(情報記憶媒体)に格納されたプログラム、通信インターフェース990を介して転送されたプログラム、或いはROM950(情報記憶媒体の1つ)に格納されたプログラムなどに基づき動作し、ゲーム処理、画像処理、音処理などの種々の処理を実行する。   The main processor 900 operates based on a program stored in the CD 982 (information storage medium), a program transferred via the communication interface 990, or a program stored in the ROM 950 (one of information storage media). Various processes such as processing, image processing, and sound processing are executed.

コプロセッサ902は、メインプロセッサ900の処理を補助するものであり、高速並列演算が可能な積和算器や除算器を有し、マトリクス演算(ベクトル演算)を高速に実行する。例えば、オブジェクトを移動させたり動作(モーション)させるための物理シミュレーションに、マトリクス演算などの処理が必要な場合には、メインプロセッサ900上で動作するプログラムが、その処理をコプロセッサ902に指示(依頼)する。   The coprocessor 902 assists the processing of the main processor 900, has a product-sum calculator and a divider capable of high-speed parallel calculation, and executes matrix calculation (vector calculation) at high speed. For example, if a physical simulation for moving or moving an object requires processing such as matrix operation, a program operating on the main processor 900 instructs (requests) the processing to the coprocessor 902. )

ジオメトリプロセッサ904は、座標変換、透視変換、光源計算、曲面生成などのジオメトリ処理を行うものであり、高速並列演算が可能な積和算器や除算器を有し、マトリクス演算(ベクトル演算)を高速に実行する。例えば、座標変換、透視変換、光源計算などの処理を行う場合には、メインプロセッサ900で動作するプログラムが、その処理をジオメトリプロセッサ904に指示する。   The geometry processor 904 performs geometry processing such as coordinate transformation, perspective transformation, light source calculation, and curved surface generation, has a product-sum calculator and a divider capable of high-speed parallel computation, and performs matrix computation (vector computation). Run fast. For example, when processing such as coordinate transformation, perspective transformation, and light source calculation is performed, a program operating on the main processor 900 instructs the geometry processor 904 to perform the processing.

データ伸張プロセッサ906は、圧縮された画像データや音データを伸張するデコード処理を行ったり、メインプロセッサ900のデコード処理をアクセレートする処理を行う。これにより、オープニング画面、インターミッション画面、エンディング画面、或いはゲーム画面などにおいて、MPEG方式等で圧縮された動画像を表示できるようになる。なお、デコード処理の対象となる画像データや音データは、ROM950、CD982に格納されたり、或いは通信インターフェース990を介して外部から転送される。   The data decompression processor 906 performs a decoding process for decompressing the compressed image data and sound data, and a process for accelerating the decoding process of the main processor 900. As a result, a moving image compressed by the MPEG method or the like can be displayed on the opening screen, the intermission screen, the ending screen, or the game screen. Note that the image data and sound data to be decoded are stored in the ROM 950 and the CD 982 or transferred from the outside via the communication interface 990.

描画プロセッサ910は、ポリゴンや曲面などのプリミティブ面で構成されるオブジェクトの描画(レンダリング)処理を高速に実行するものである。オブジェクトの描画の際には、メインプロセッサ900は、DMAコントローラ970の機能を利用して、オブジェクトデータを描画プロセッサ910に渡すと共に、必要であればテクスチャ記憶部924にテクスチャを転送する。すると、描画プロセッサ910は、これらのオブジェクトデータやテクスチャに基づいて、Zバッファなどを利用した陰面消去を行いながら、オブジェクトをフレームバッファ922に高速に描画する。また、描画プロセッサ910は、αブレンディング(半透明処理)、ミップマッピング、フォグ処理、トライリニア・フィルタリング、アンチエリアシング、シェーディング処理なども行うことができる。そして、1フレーム分の画像がフレームバッファ922に書き込まれると、その画像はディスプレイ912に表示される。   The drawing processor 910 performs drawing (rendering) processing of an object composed of primitive surfaces such as polygons and curved surfaces at high speed. When drawing an object, the main processor 900 uses the function of the DMA controller 970 to pass the object data to the drawing processor 910 and transfer the texture to the texture storage unit 924 if necessary. Then, the rendering processor 910 renders the object in the frame buffer 922 at high speed while performing hidden surface removal using a Z buffer or the like based on the object data and texture. The drawing processor 910 can also perform α blending (translucent processing), mip mapping, fog processing, trilinear filtering, anti-aliasing, shading processing, and the like. When an image for one frame is written in the frame buffer 922, the image is displayed on the display 912.

サウンドプロセッサ930は、多チャンネルのADPCM音源などを内蔵し、BGM、効果音、音声などの高品位のゲーム音を生成する。生成されたゲーム音は、スピーカ932から出力される。   The sound processor 930 includes a multi-channel ADPCM sound source and the like, and generates high-quality game sounds such as BGM, sound effects, and sounds. The generated game sound is output from the speaker 932.

ゲームコントローラ942からの操作データや、メモリカード944からのセーブデータ、個人データは、シリアルインターフェース940を介してデータ転送される。   Operation data from the game controller 942, save data from the memory card 944, and personal data are transferred via the serial interface 940.

ROM950にはシステムプログラムなどが格納される。なお、業務用ゲームシステムの場合には、ROM950が情報記憶媒体として機能し、ROM950に各種プログラムが格納されることになる。なお、ROM950の代わりにハードディスクを利用するようにしてもよい。   The ROM 950 stores system programs and the like. In the case of an arcade game system, the ROM 950 functions as an information storage medium, and various programs are stored in the ROM 950. A hard disk may be used instead of the ROM 950.

RAM960は、各種プロセッサの作業領域として用いられる。   The RAM 960 is used as a work area for various processors.

DMAコントローラ970は、プロセッサ、メモリ(RAM、VRAM、ROM等)間でのDMA転送を制御するものである。   The DMA controller 970 controls DMA transfer between the processor and memory (RAM, VRAM, ROM, etc.).

CDドライブ980は、プログラム、画像データ、或いは音データなどが格納されるCD982(情報記憶媒体)を駆動し、これらのプログラム、データへのアクセスを可能にする。   The CD drive 980 drives a CD 982 (information storage medium) in which programs, image data, sound data, and the like are stored, and enables access to these programs and data.

通信インターフェース990は、ネットワークを介して外部との間でデータ転送を行うためのインターフェースである。この場合に、通信インターフェース990に接続されるネットワークとしては、通信回線(アナログ電話回線、ISDN)、高速シリアルインターフェースのバスなどを考えることができる。そして、通信回線を利用することでインターネットを介したデータ転送が可能になる。また、高速シリアルインターフェースのバスを利用することで、他の画像生成システム、他のゲームシステム、家電(ビデオデッキ、ビデオカメラ)、或いは情報処理機器(パーソナルコンピュータ、プリンタ、マウス、キーボード)などとの間でのデータ転送が可能になる。   The communication interface 990 is an interface for transferring data to and from the outside via a network. In this case, as a network connected to the communication interface 990, a communication line (analog telephone line, ISDN), a high-speed serial interface bus, and the like can be considered. By using a communication line, data transfer via the Internet becomes possible. In addition, by using the bus of the high-speed serial interface, other image generation systems, other game systems, home appliances (video decks, video cameras), information processing equipment (personal computers, printers, mice, keyboards), etc. Data transfer between them becomes possible.

なお、本発明の各手段は、その全てを、ハードウェアのみにより実行してもよいし、情報記憶媒体に格納されるプログラムや通信インターフェースを介して配信されるプログラムのみにより実行してもよい。或いは、ハードウェアとプログラムの両方により実行してもよい。   All of the means of the present invention may be executed by hardware alone, or may be executed only by a program stored in an information storage medium or a program distributed via a communication interface. Alternatively, it may be executed by both hardware and a program.

そして、本発明の各手段をハードウェアとプログラムの両方により実行する場合には、情報記憶媒体には、本発明の各手段をハードウェアを利用して実行するためのプログラム(プログラム及びデータ)が格納されることになる。より具体的には、上記プログラムが、ハードウェアである各プロセッサ902、904、906、910、930等に処理を指示すると共に、必要であればデータを渡す。そして、各プロセッサ902、904、906、910、930等は、その指示と渡されたデータとに基づいて、本発明の各手段を実行することになる。   When each means of the present invention is executed by both hardware and a program, a program (program and data) for executing each means of the present invention using hardware is stored in the information storage medium. Will be stored. More specifically, the program instructs each processor 902, 904, 906, 910, 930, etc., which is hardware, and passes data if necessary. Each processor 902, 904, 906, 910, 930, etc. executes each means of the present invention based on the instruction and the passed data.

図13(A)に、本実施形態を業務用ゲームシステムに適用した場合の例を示す。プレーヤは、ディスプレイ1100上に映し出されたゲーム画像を見ながら、レバー1102、ボタン1104等を操作してゲームを楽しむ。内蔵されるシステムボード(サーキットボード)1106には、各種プロセッサ、各種メモリなどが実装される。そして、本発明の各手段を実行するためのプログラム(或いはプログラム及びデータ)は、システムボード1106上の情報記憶媒体であるメモリ1108に格納される。以下、この情報を格納情報と呼ぶ。   FIG. 13A shows an example when the present embodiment is applied to an arcade game system. The player enjoys the game by operating the lever 1102, the button 1104, and the like while viewing the game image displayed on the display 1100. Various processors and various memories are mounted on the built-in system board (circuit board) 1106. A program (or program and data) for executing each means of the present invention is stored in the memory 1108 which is an information storage medium on the system board 1106. Hereinafter, this information is referred to as storage information.

図13(B)に、本実施形態を家庭用のゲームシステムに適用した場合の例を示す。プレーヤはディスプレイ1200に映し出されたゲーム画像を見ながら、ゲームコントローラ1202、1204を操作してゲームを楽しむ。この場合、上記格納情報は、本体システムに着脱自在な情報記憶媒体であるCD1206、或いはメモリカード1208、1209等に格納されている。   FIG. 13B shows an example in which this embodiment is applied to a home game system. The player enjoys the game by operating the game controllers 1202 and 1204 while viewing the game image displayed on the display 1200. In this case, the stored information is stored in the CD 1206, which is an information storage medium that is detachable from the main system, or in the memory cards 1208, 1209, and the like.

図13(C)に、ホスト装置1300と、このホスト装置1300とネットワーク1802(LANのような小規模ネットワークや、インターネットのような広域ネットワーク)を介して接続される端末1304-1〜1304-nとを含むシステムに本実施形態を適用した場合の例を示す。この場合、上記格納情報は、例えばホスト装置1300が制御可能な磁気ディスク装置、磁気テープ装置、メモリ等の情報記憶媒体1306に格納されている。端末1304-1〜1304-nが、スタンドアロンでゲーム画像、ゲーム音を生成できるものである場合には、ホスト装置1300からは、ゲーム画像、ゲーム音を生成するためのゲームプログラム等が端末1304-1〜1304-nに配送される。一方、スタンドアロンで生成できない場合には、ホスト装置1300がゲーム画像、ゲーム音を生成し、これを端末1304-1〜1304-nに伝送し端末において出力することになる。   FIG. 13C shows a host device 1300 and terminals 1304-1 to 1304-n connected to the host device 1300 via a network 1802 (a small-scale network such as a LAN or a wide area network such as the Internet). An example of applying this embodiment to a system including In this case, the stored information is stored in an information storage medium 1306 such as a magnetic disk device, a magnetic tape device, or a memory that can be controlled by the host device 1300, for example. When the terminals 1304-1 to 1304-n can generate game images and game sounds stand-alone, the host device 1300 receives a game program and the like for generating game images and game sounds from the terminal 1304-. 1 to 1304-n. On the other hand, if it cannot be generated stand-alone, the host device 1300 generates a game image and a game sound, which is transmitted to the terminals 1304-1 to 1304-n and output at the terminal.

なお、図13(C)の構成の場合に、本発明の各手段を、ホスト装置(サーバー)と端末とで分散して実行するようにしてもよい。また、本発明の各手段を実行するための上記格納情報を、ホスト装置(サーバー)の情報記憶媒体と端末の情報記憶媒体に分散して格納するようにしてもよい。   In the case of the configuration shown in FIG. 13C, each unit of the present invention may be executed in a distributed manner between the host device (server) and the terminal. The storage information for executing each means of the present invention may be distributed and stored in the information storage medium of the host device (server) and the information storage medium of the terminal.

またネットワークに接続する端末は、家庭用ゲームシステムであってもよいし業務用ゲームシステムであってもよい。そして、業務用ゲームシステムをネットワークに接続する場合には、業務用ゲームシステムとの間で情報のやり取りが可能であると共に家庭用ゲームシステムとの間でも情報のやり取りが可能な携帯型情報記憶装置(メモリカード、携帯型ゲーム装置)を用いることが望ましい。   The terminal connected to the network may be a home game system or an arcade game system. When connecting the arcade game system to a network, a portable information storage device capable of exchanging information with the arcade game system and exchanging information with the home game system. It is desirable to use (memory card, portable game device).

なお本発明は、上記実施形態で説明したものに限らず、種々の変形実施が可能である。   The present invention is not limited to that described in the above embodiment, and various modifications can be made.

例えば、本発明のうち従属請求項に係る発明においては、従属先の請求項の構成要件の一部を省略する構成とすることもできる。また、本発明の1の独立請求項に係る発明の要部を、他の独立請求項に従属させることもできる。   For example, in the invention according to the dependent claims of the present invention, a part of the constituent features of the dependent claims can be omitted. Moreover, the principal part of the invention according to one independent claim of the present invention may be made dependent on another independent claim.

また上記実施の形態では半透明遠景オブジェクトの一例として図3に示すようなリング状の帯状オブジェクトを例にとり説明したがこれに限られない。   In the above embodiment, a ring-shaped belt-like object as shown in FIG. 3 has been described as an example of a translucent distant view object. However, the present invention is not limited to this.

例えば半透明遠景オブジェクトは、例えば厚みにない長方形の帯のような形状であり、背景オブジェクトを囲むようなリング状に閉じた形状(円筒形状)でもよいし、背景オブジェクトの少なくとも一部を覆うようなひらいた形状でもよいし、1枚板のような形状でもよい。   For example, a translucent distant view object has a shape like a rectangular band that is not thick, for example, and may have a ring-like shape (cylindrical shape) surrounding the background object, or cover at least part of the background object The shape may be open or may be a shape like a single plate.

また本発明は種々のゲーム(格闘ゲーム、シューティングゲーム、ロボット対戦ゲーム、スポーツゲーム、競争ゲーム、ロールプレイングゲーム、音楽演奏ゲーム、ダンスゲーム等)に適用できる。   The present invention can also be applied to various games (such as fighting games, shooting games, robot fighting games, sports games, competitive games, role playing games, music playing games, dance games, etc.).

また本発明は、業務用ゲームシステム、家庭用ゲームシステム、多数のプレーヤが参加する大型アトラクションシステム、シミュレータ、マルチメディア端末、画像生成システム、ゲーム画像を生成するシステムボード等の種々の画像生成システムに適用できる。   The present invention also relates to various image generation systems such as a business game system, a home game system, a large attraction system in which a large number of players participate, a simulator, a multimedia terminal, an image generation system, and a system board for generating game images. Applicable.

本実施形態のブロック図の一例を示す。An example of the block diagram of this embodiment is shown. 比較例のゲーム画面である。It is a game screen of a comparative example. 図3(A)(B)は、本実施の形態の半透明遠景オブジェクトについて説明するための図である。3A and 3B are diagrams for explaining the translucent distant view object of the present embodiment. オブジェクト空間における半透明遠景オブジェクトと背景オブジェクト及び最遠景オブジェクトとの位置関係について説明するための図である。It is a figure for demonstrating the positional relationship of the translucent distant view object in a object space, a background object, and a farthest view object. オブジェクト空間における半透明遠景オブジェクトと背景オブジェクト及び最遠景オブジェクトとの位置関係とデプスキューイング処理範囲について説明するための図である。It is a figure for demonstrating the positional relationship and the depth cueing process range of the translucent distant view object in a object space, a background object, and a farthest view object. デプスキューイング処理の一例を説明するための図である。It is a figure for demonstrating an example of a depth cueing process. 本実施の形態における最遠景と半透明遠景オブジェクトの半透明処理(αブレンディング処理)について説明するための図である。It is a figure for demonstrating the translucent process ((alpha) blending process) of the farthest view and semi-transparent distant view object in this Embodiment. 最遠景オブジェクト及び半透明遠景オブジェクトの上に背景オブジェクトを描画したあとの画像である。It is an image after drawing a background object on the farthest view object and the semi-transparent view object. フレームバッファのデフォルト値を用いて夜空の画像を生成したゲーム画像である。This is a game image in which an image of the night sky is generated using the default value of the frame buffer. 図9に続いて夜場面においては最遠景オブジェクトを省略する例について説明するための図である。FIG. 10 is a diagram for describing an example in which the farthest object is omitted in a night scene following FIG. 9. 本実施の形態の処理の流れを示すフローチャート図である。It is a flowchart figure which shows the flow of the process of this Embodiment. 本実施形態を実現できるハードウェアの構成の一例を示す図である。It is a figure which shows an example of the structure of the hardware which can implement | achieve this embodiment. 図13(A)(B)(C)は、本実施形態が適用される種々の形態のシステムの例を示す図である。13A, 13B, and 13C are diagrams illustrating examples of various forms of systems to which the present embodiment is applied.

符号の説明Explanation of symbols

100 処理部
110 ゲーム処理部
114 移動・動作演算部
130 画像生成部
132 ジオメトリ処理部
134 デプスキューイング処理部
136 オブジェクト配置処理部
140 描画部
142 αブレンディング部
150 音生成部
160 操作部
170 記憶部
171 オブジェクト情報記憶部
172 メインメモリ
174 フレームバッファ
180 情報記憶媒体
190 表示部
192 音出力部
194 携帯型情報記憶装置
196 通信部
210 背景オブジェクト
220 最遠景オブジェクト
250 半透明遠景オブジェクト
100 processing unit 110 game processing unit 114 movement / motion calculation unit 130 image generation unit 132 geometry processing unit 134 depth cueing processing unit 136 object placement processing unit 140 drawing unit 142 α blending unit 150 sound generation unit 160 operation unit 170 storage unit 171 Object information storage unit 172 Main memory 174 Frame buffer 180 Information storage medium 190 Display unit 192 Sound output unit 194 Portable information storage device 196 Communication unit 210 Background object 220 Farmost view object 250 Translucent distant view object

Claims (7)

オブジェクト情報を記憶するオブジェクト情報記憶部と、
オブジェクト情報に基づきオブジェクトをオブジェクト空間に配置するオブジェクト配置処理部と、
デプスキューイング処理を行うデプスキューイング処理部と、
オブジェクト空間内において仮想カメラから見える画像を描画する画像描画部をとしてコンピュータを機能させるためのプログラムであって、
前記オブジェクト情報記憶部は、
最遠景との境界に位置するエリアでは最遠景の境界に近づくほど透明度が高くなるように透明度情報が設定された半透明遠景オブジェクトのオブジェクト情報を記憶し、
オブジェクト配置処理部は、
前記半透明遠景オブジェクトを視点から見て背景オブジェクトより奥となる所定の位置に配置し、
デプスキューイング処理部は、
背景オブジェクト及び半透明遠景オブジェクトを含む所定の範囲をデプスキューイング処理範囲としてデプスキューイング処理を行い、
前記描画部は、
前記半透明遠景オブジェクトに設定されている透明度情報に基づき、当該半透明遠景オブジェクトを最遠景が描画された描画バッファに半透明処理を行って描画することを特徴とするプログラム。
An object information storage unit for storing object information;
An object placement processing unit for placing an object in the object space based on the object information;
A depth cueing processing unit for performing depth cueing processing;
A program for causing a computer to function as an image drawing unit that draws an image seen from a virtual camera in an object space,
The object information storage unit
In the area located at the boundary with the farthest view, the object information of the translucent distant view object in which the transparency information is set so that the transparency becomes higher as it approaches the boundary of the farthest view,
The object placement processing unit
Place the translucent distant view object at a predetermined position behind the background object when viewed from the viewpoint,
The depth cueing processor
Depth cueing processing is performed with a predetermined range including a background object and a translucent distant object as a depth cueing processing range,
The drawing unit
A program characterized in that, based on the transparency information set for the translucent distant view object, the translucent distant view object is rendered by performing a translucent process in a rendering buffer in which the farthest view is rendered.
請求項1において、
最遠景オブジェクトを省略し、
前記描画部が、描画領域に予め設定されている画素値を最遠景の画素値と擬制して前記半透明処理を行うことを特徴とするプログラム。
In claim 1,
Omit the farthest object,
The program, wherein the rendering unit performs the semi-transparency process by pretending a pixel value preset in a rendering area as a pixel value of the farthest view.
請求項2において、
夜場面と昼場面が登場するゲームにおいて、夜場面においては最遠景オブジェクトを省略することを特徴とするプログラム。
In claim 2,
In a game in which a night scene and a day scene appear, a program that omits the farthest view object in the night scene.
請求項2において、
ゲーム空間の明るさ情報が暗い設定にされているゲーム空間の画像を生成する場合には、最遠景オブジェクトを省略することを特徴とするプログラム。
In claim 2,
A program characterized by omitting the farthest view object when generating an image of a game space in which the brightness information of the game space is set to be dark.
請求項1乃至4のいずれかにおいて、
前記半透明遠景オブジェクトは、所定の幅をもつ帯状オブジェクトであることを特徴とするプログラム。
In any one of Claims 1 thru | or 4,
The translucent distant view object is a strip-like object having a predetermined width.
コンピュータ読み取り可能な情報記憶媒体であって、請求項1乃至5のいずれかのプログラムが記憶されていることを特徴とする情報記憶媒体。   A computer-readable information storage medium, wherein the program according to any one of claims 1 to 5 is stored. オブジェクト情報を記憶するオブジェクト情報記憶部と、
オブジェクト情報に基づきオブジェクトをオブジェクト空間に配置するオブジェクト配置処理部と、
デプスキューイング処理を行うデプスキューイング処理部と、
オブジェクト空間内において仮想カメラから見える画像を描画する画像描画部を含む画像生成システムであって、
前記オブジェクト情報記憶部は、
最遠景との境界に位置するエリアでは最遠景の境界に近づくほど透明度が高くなるように透明度情報が設定された半透明遠景オブジェクトのオブジェクト情報を記憶し、
オブジェクト配置処理部は、
前記半透明遠景オブジェクトを視点から見て背景オブジェクトより奥となる所定の位置に配置し、
デプスキューイング処理部は、
背景オブジェクト及び半透明遠景オブジェクトを含む所定の範囲をデプスキューイング処理範囲としてデプスキューイング処理を行い、
前記描画部は、
前記半透明遠景オブジェクトに設定されている透明度情報に基づき、当該半透明遠景オブジェクトを最遠景が描画された描画バッファに半透明処理を行って描画することを特徴とする画像生成システム。
An object information storage unit for storing object information;
An object placement processing unit for placing an object in the object space based on the object information;
A depth cueing processing unit for performing depth cueing processing;
An image generation system including an image drawing unit for drawing an image seen from a virtual camera in an object space,
The object information storage unit
In the area located at the boundary with the farthest view, the object information of the translucent distant view object in which the transparency information is set so that the transparency becomes higher as it approaches the boundary of the farthest view,
The object placement processing unit
Place the translucent distant view object at a predetermined position behind the background object when viewed from the viewpoint,
The depth cueing processor
Depth cueing processing is performed with a predetermined range including a background object and a translucent distant object as a depth cueing processing range,
The drawing unit
An image generation system characterized in that, based on the transparency information set for the translucent distant view object, the translucent distant view object is rendered by performing a translucent process in a rendering buffer in which the farthest view is rendered.
JP2004087991A 2004-03-24 2004-03-24 Program, information storage medium and image generation system Withdrawn JP2005275795A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004087991A JP2005275795A (en) 2004-03-24 2004-03-24 Program, information storage medium and image generation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004087991A JP2005275795A (en) 2004-03-24 2004-03-24 Program, information storage medium and image generation system

Publications (1)

Publication Number Publication Date
JP2005275795A true JP2005275795A (en) 2005-10-06

Family

ID=35175412

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004087991A Withdrawn JP2005275795A (en) 2004-03-24 2004-03-24 Program, information storage medium and image generation system

Country Status (1)

Country Link
JP (1) JP2005275795A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008077304A (en) * 2006-09-20 2008-04-03 Namco Bandai Games Inc Program, information storage medium, and image generation system
JP2008186158A (en) * 2007-01-29 2008-08-14 Samii Kk Image generating device, game machine, and image generating program
JP2009245386A (en) * 2008-03-31 2009-10-22 Copcom Co Ltd Program, storage medium, and computer device
JP2010191607A (en) * 2009-02-17 2010-09-02 Hitachi Ltd Method and device for generating and displaying image, server device, and image display terminal
WO2015038862A1 (en) * 2013-09-12 2015-03-19 Ventana 3D Llc Depth key compositing for video and holographic projection

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008077304A (en) * 2006-09-20 2008-04-03 Namco Bandai Games Inc Program, information storage medium, and image generation system
JP2008186158A (en) * 2007-01-29 2008-08-14 Samii Kk Image generating device, game machine, and image generating program
JP2009245386A (en) * 2008-03-31 2009-10-22 Copcom Co Ltd Program, storage medium, and computer device
JP2010191607A (en) * 2009-02-17 2010-09-02 Hitachi Ltd Method and device for generating and displaying image, server device, and image display terminal
WO2015038862A1 (en) * 2013-09-12 2015-03-19 Ventana 3D Llc Depth key compositing for video and holographic projection
US9679369B2 (en) 2013-09-12 2017-06-13 Ventana 3D Llc Depth key compositing for video and holographic projection

Similar Documents

Publication Publication Date Title
JP3249955B2 (en) Image generation system and information storage medium
JP4804122B2 (en) Program, texture data structure, information storage medium, and image generation system
JP4305903B2 (en) Image generation system, program, and information storage medium
JP2001319244A (en) Game system and information storage medium
JP3656012B2 (en) GAME SYSTEM AND INFORMATION STORAGE MEDIUM
JP2006323512A (en) Image generation system, program, and information storage medium
JP2001143099A (en) Image-forming system and information storage medium
JP4229319B2 (en) Image generation system, program, and information storage medium
JP4721476B2 (en) Image generation system and information storage medium
JP3297410B2 (en) Image generation system and information storage medium
JP2005275795A (en) Program, information storage medium and image generation system
JP2005209217A (en) Game system and information storage medium
JP4528008B2 (en) Program, information storage medium, and image generation system
JP4245356B2 (en) GAME SYSTEM AND INFORMATION STORAGE MEDIUM
JP4577968B2 (en) GAME SYSTEM AND INFORMATION STORAGE MEDIUM
JP2001229403A (en) Game system and information storage medium
JP4574058B2 (en) Image generation system, program, and information storage medium
JP4394211B2 (en) Image generation system and information storage medium
JP4698701B2 (en) Image generation system, program, and information storage medium
JP2004038639A (en) System for generating picture, program and medium for recording information
JP2007164736A (en) Image generation system, program and information storage medium
JP4803909B2 (en) Image generation system, program, and information storage medium
JP4450535B2 (en) Image generation system and information storage medium
JP2003162734A (en) Game system and information storage medium
JP4728510B2 (en) Image generation system, program, and information storage medium

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20070605