JP2002298157A - Game information, information storage medium and game device - Google Patents

Game information, information storage medium and game device

Info

Publication number
JP2002298157A
JP2002298157A JP2001094374A JP2001094374A JP2002298157A JP 2002298157 A JP2002298157 A JP 2002298157A JP 2001094374 A JP2001094374 A JP 2001094374A JP 2001094374 A JP2001094374 A JP 2001094374A JP 2002298157 A JP2002298157 A JP 2002298157A
Authority
JP
Japan
Prior art keywords
color
information
virtual
game
viewpoint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001094374A
Other languages
Japanese (ja)
Other versions
JP3511597B2 (en
Inventor
Toshiaki Matsuno
俊明 松野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Namco Ltd
Original Assignee
Namco Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Ltd filed Critical Namco Ltd
Priority to JP2001094374A priority Critical patent/JP3511597B2/en
Publication of JP2002298157A publication Critical patent/JP2002298157A/en
Application granted granted Critical
Publication of JP3511597B2 publication Critical patent/JP3511597B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/663Methods for processing data by generating or executing the game program for rendering three dimensional images for simulating liquid objects, e.g. water, gas, fog, snow, clouds

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

PROBLEM TO BE SOLVED: To realistically express a water area such as the sea and the lake with the view thereof changed according to the change in the position of the view point and the direction of the view without impairing the feeling of distance. SOLUTION: A water surface part of a topographical model constituting the surface of the earth in a virtual space is defined by a translucent polygon. The color of the water surface is determined by a virtual body 40. When generating the game image, the virtual body 40 is depicted, and the topographical model is depicted. The virtual body 40 is set in a semi-spherical shape, a dark color and a bright color are arranged in a lowest point 44 and an upper bottom circumference 42, respectively, and the color is gradually changed from the lowest point 44 to the upper bottom circumference 42. The virtual body 40 is arranged in the virtual space following the perpendicularly downward direction of the viewpoint 10 so that the lowest point 44 is downwardly in the perpendicular direction.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、所与の装置に対し
て、所与の視点に基づく仮想空間の画像を生成して所与
のゲームを実行させるためのゲーム情報等に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to game information for causing a given apparatus to generate a virtual space image based on a given viewpoint and execute a given game.

【0002】[0002]

【従来の技術】近年では、三次元の仮想空間と、この仮
想空間内を移動可能な移動体とを構築し、所与の視点に
基づいてこれらの仮想空間を描画して画像を生成し、表
示してなるゲームが種々開発されている。すなわち、ゲ
ームのプレーヤは、コントローラを用いて特定の移動体
の移動方向や動作を指示し、ゲーム装置は、このコント
ローラから入力される指示信号に従って移動体を仮想空
間内で行動させ、画像を生成している。この手のゲーム
では、仮想空間を意図的に歪ませて表現したり、平面的
に表現することによって、独特の雰囲気を醸し出し、特
殊な効果を期待するものもあるが、尤らしい仮想空間を
作り上げてリアルな画像を生成し、現実味のあるゲーム
を展開するものもある。すなわち、現実的な画像を表示
することによって、ゲームにおける臨場感を高め、ま
た、ゲームの展開に迫力や説得力を持たせ、プレーヤを
ゲームに引きつけ没頭させるように工夫したゲームもあ
る。
2. Description of the Related Art In recent years, a three-dimensional virtual space and a movable body that can move in the virtual space are constructed, and an image is generated by drawing these virtual spaces based on a given viewpoint. Various games for display have been developed. That is, a game player instructs a moving direction and an operation of a specific moving object using a controller, and the game device causes the moving object to act in a virtual space in accordance with an instruction signal input from the controller to generate an image. are doing. In this type of game, virtual space is intentionally distorted or expressed two-dimensionally, creating a unique atmosphere and expecting special effects, but creating a plausible virtual space Some games generate realistic images and develop realistic games. That is, in some games, a realistic image is displayed to enhance the sense of presence in the game, and the development of the game can be impressive and persuasive, so that the player can be attracted and immersed in the game.

【0003】しかし、リアルな画像を生成するために
は、緻密な仮想空間を構築し、その仮想空間に配置され
た物体(すなわち、オブジェクト)の1つ1つに対して
視点との位置関係を計算し、更に、光源処理等の物理的
な計算を施して、描画しなければならない。換言すれ
ば、説得力のある画像を生成しようとすればするほど、
画像生成処理にかかる負担が増大し、画像の生成速度が
遅くなる。一方で、ゲームの実行中において、次の1枚
の画像を表示するまでの時間には制限がある。いわゆる
1インターと呼ばれるものである。すなわち、画像を生
成する速度が遅くなれば、次の画像を表示するタイミン
グに間に合わず、ゲームとして成立しないという問題が
生じる。
However, in order to generate a realistic image, a precise virtual space is constructed, and the position of each object (ie, object) arranged in the virtual space with respect to the viewpoint is determined. It must be calculated, and further subjected to physical calculations such as light source processing, and drawn. In other words, the more persuasive the image you are trying to generate,
The load on the image generation processing increases, and the speed of generating images decreases. On the other hand, during execution of the game, there is a limit to the time until the next single image is displayed. This is what is called one inter. That is, if the speed at which an image is generated becomes slow, there is a problem in that the game cannot be established because the timing for displaying the next image is too late.

【0004】そこで、画像を生成する際に、画面上には
っきりとは見えない部分に関しては表現を簡単化して処
理の煩雑化を防ぐという方法がよく使われる。例えば、
視点に対して遠方に存在する景色等は明瞭に描写する必
要はなく、むしろぼかして表現することが望ましい場合
がある。係る部分について処理を簡略して表現する方法
の1つとして、その部分や範囲に板状のオブジェクトを
配置し、このオブジェクトの表面にゲーム実行中の処理
とは別の過程で予め生成した画像を貼りつけるといった
方法がある。具体的には、視点に対する距離を基準とし
て描画する範囲と描画しない範囲とを決定し、その境界
線上に環境の画像を貼り付けた板状のオブジェクトを立
て看板のように配置して表現している。
Therefore, when an image is generated, a method of simplifying the expression of a portion that cannot be clearly seen on the screen to prevent complication of processing is often used. For example,
It is not necessary to clearly describe a scenery or the like that is far from the viewpoint, but rather it may be desirable to express it in a blurred manner. As one of the methods for simply expressing the processing for such a part, a plate-like object is arranged in the part or the area, and an image generated in advance in a process different from the processing during the game is placed on the surface of this object. There is a method such as pasting. Specifically, a range to be drawn and a range not to be drawn are determined based on the distance to the viewpoint, and a plate-like object on which an image of the environment is pasted on the boundary line is arranged and expressed like a signboard. I have.

【0005】[0005]

【発明が解決しようとする課題】上記のような簡単化
は、視点の位置の変化が小さいゲームでは、ほとんど問
題を発生しない。これは、視点の移動範囲が狭い場合に
は、その狭い範囲から見える環境さえ尤らしく見えれ
ば、他の角度や位置からの見え方などを考慮する必要が
ないからである。例えば、現実の世界において、十分遠
方に見える山や星などの見え方は、視点の位置が多少ず
れたとしても変化しない。これと同様に、仮想空間にお
いて、視点の位置から十分遠方に存在する環境を1種類
の画像によって表現した場合であっても、視点の位置を
それほど移動させなければ不自然に見えることはない。
The above simplification hardly causes a problem in a game in which a change in the viewpoint position is small. This is because when the moving range of the viewpoint is narrow, it is not necessary to consider how to view from another angle or position as long as the environment seen from the narrow range looks likelihood. For example, in the real world, the appearance of mountains and stars that appear sufficiently far away does not change even if the position of the viewpoint is slightly shifted. Similarly, even if the environment existing sufficiently far from the viewpoint in the virtual space is represented by one type of image, the environment does not look unnatural unless the viewpoint is moved so much.

【0006】しかしながら、視点の位置が連続的に広範
囲にわたって移動するようなゲームでは、予め用意して
ある1種類の画像によって遠景を表現するには無理が生
じる場合がある。すなわち、視点の移動範囲が広い場合
には、当初視点から見て遠方にあった場所も、視点の移
動に伴って近景に至る可能性があり、係る場合には、徐
々に詳細な部分が明瞭と化すように表現しなければなら
ない。ところが、上記簡単化の方法によって遠方を表現
すると、視点の位置に応じた無数の遠景画像が必要とな
るばかりでなく、遠景画像を切り替えるタイミングや、
遠景から近景へと切り替わるタイミングが離散的になら
ざるを得ず、不自然な印象を与えかねない。また、視点
の進行方向に存在する背景だけでなく、進行方向に対し
て垂直な方向にある背景についても、視点の連続的且つ
高速な移動に伴って徐々に見え方を変化させる必要があ
る。このように、ゲームの進行に伴って遠景の範囲が刻
々と変化するようなゲームにあっては、遠方を予め用意
した画像によって表現する方法は適さず、却ってプレー
ヤに違和感を与える恐れがあった。
However, in a game in which the position of the viewpoint continuously moves over a wide range, it may be impossible to express a distant view with one type of image prepared in advance. In other words, if the range of movement of the viewpoint is wide, places that were far away from the initial viewpoint may also reach the foreground with the movement of the viewpoint, and in such a case, the detailed parts gradually become clearer. Must be expressed as However, if the simplification method is used to represent a distant place, not only do countless distant images corresponding to the positions of the viewpoints become necessary, but also the timing of switching distant images,
The timing of switching from a distant view to a close view must be discrete, which may give an unnatural impression. Further, not only the background existing in the traveling direction of the viewpoint, but also the background perpendicular to the traveling direction, it is necessary to gradually change the appearance as the viewpoint moves continuously and at high speed. As described above, in a game in which the range of the distant view changes every moment as the game progresses, a method of expressing a distant place by using an image prepared in advance is not suitable, and the player may feel uncomfortable. .

【0007】とりわけ、海や湖などの水面は、視点の位
置や視線方向に応じて多様に変化して見えるため、尤ら
しく表現することが困難である。例えば、海上において
海を見渡したとき、水平線近傍の海の色は雲や空の淡い
色を反映した若干淡い青色に見えるが、一方、海を真下
に見下ろしたときの色は、その周辺が深い海であれば、
光を吸収して濃く深い青色に見えることがある。また、
比較的低い位置から海を見下ろした場合と、比較的高い
上空から海を見下ろした場合とでも海の見え方は異な
る。すなわち、近くから海を見下ろした場合には、波の
きらめきや、濃く深い海の色を見ることができるもの
の、高い位置から見下ろした場合には、もはや波は認識
できず、また、大気等の影響を受けて海が若干空の色に
溶け込んで見えるようになる。
In particular, water surfaces such as the sea and lakes appear to be variously changed in accordance with the position of the viewpoint and the direction of the line of sight, and thus it is difficult to represent them plausibly. For example, when overlooking the sea over the sea, the color of the sea near the horizon looks slightly pale blue, reflecting the pale colors of clouds and sky, while the color when looking down directly below the sea has a deeper periphery. In the sea,
Absorbs light and may appear dark and deep blue. Also,
The appearance of the sea is different when looking down at the sea from a relatively low position and when looking down at the sea from a relatively high sky. In other words, when you look down at the sea from a nearby location, you can see the glittering waves and the color of the deep, deep sea. Under the influence, the sea slightly blends into the color of the sky.

【0008】このように、海や湖等の水面の示す色は必
ずしも均一ではなく、視点の位置や視線方向との関係に
応じて示す色に若干の変化が生じる。係る海や湖等の表
現を、視点が広範囲に移動できるゲームに適用するため
には、視点の位置や視線方向の変化に伴って海の色も変
化させなければならない。しかし、上述のように、1種
類の画像や青色を持った板状のオブジェクトによって海
を表現した場合、視点の位置や視線方向の変化に伴う海
の色彩の滑らかな変化を尤らしく表現することは困難で
ある。
As described above, the color indicated by the water surface such as the sea or the lake is not always uniform, and a slight change occurs in the color indicated according to the relationship with the position of the viewpoint and the direction of the line of sight. In order to apply the expression of the sea, lake, and the like to a game in which the viewpoint can move in a wide range, the color of the sea must also be changed according to the change in the position of the viewpoint and the direction of the line of sight. However, as described above, when the sea is represented by one type of image or a plate-like object having a blue color, it is likely that a smooth change in the color of the sea accompanying a change in the position of the viewpoint or the direction of the line of sight is likely. It is difficult.

【0009】本発明の課題は、上記事項に鑑みて成され
たものであって、視点の位置や視線方向の変化に伴って
見え方の変化する物体について、その物体との距離感を
損なうことなくリアルに表現することである。
SUMMARY OF THE INVENTION It is an object of the present invention to solve the above problems, and to impair the sense of distance from an object whose appearance changes with a change in the position of the viewpoint or the direction of the line of sight. It is to express without realism.

【0010】[0010]

【課題を解決するための手段】上記課題を解決するため
に、請求項1に記載の発明は、プロセッサによる演算・
制御により、装置に対して、所与の視点に基づく仮想空
間の画像を生成して所与のゲームを実行させるためのゲ
ーム情報であって、所与の水平面(例えば、本実施の形
態における地表面50)を前記仮想空間に設定する設定
手段(例えば、図15に示す地形データ330)と、略
板状の透過体(例えば、本実施の形態における半透明ポ
リゴン)を前記所与の水平面に配置する透過体配置手段
(例えば、図15に示す地形制御部222)と、所与の
色情報を有する仮想体を前記仮想空間に配置する仮想体
配置手段(例えば、図15に示す仮想体配置部224)
と、前記透過体を描画する際に、前記所与の視点と前記
仮想体の所与の点とを結ぶ直線が前記透過体と交差する
場合には、当該透過体の色情報と当該仮想体の色情報と
を合成して当該透過体を描画する描画手段(例えば、図
15に示す描画部246)と、を前記装置に機能させる
ための情報を含むことを特徴とする。
In order to solve the above-mentioned problems, the present invention according to claim 1 performs an operation by a processor.
Control is game information for causing the device to generate an image of a virtual space based on a given viewpoint and to execute a given game. The game information includes a given horizontal plane (for example, the ground in this embodiment). A setting means (for example, topographic data 330 shown in FIG. 15) for setting the front surface 50) in the virtual space and a substantially plate-shaped transparent body (for example, a translucent polygon in the present embodiment) are placed on the given horizontal plane. A transparent body arranging means (for example, the terrain control unit 222 shown in FIG. 15) for arranging, and a virtual body arranging means for arranging a virtual body having given color information in the virtual space (for example, a virtual body arranging shown in FIG. 15) Part 224)
And when rendering the transparent body, if a straight line connecting the given viewpoint and a given point of the virtual body intersects with the transparent body, the color information of the transparent body and the virtual body And a drawing unit (for example, a drawing unit 246 shown in FIG. 15) for drawing the transparent body by combining the color information with the color information.

【0011】請求項16に記載の発明は、所与の視点に
基づく仮想空間の画像を生成して所与のゲームを実行す
るゲーム装置であって、所与の水平面を前記仮想空間に
設定する設定手段と、略板状の透過体を前記所与の水平
面に配置する透過体配置手段と、所与の色情報を有する
仮想体を前記仮想空間に配置する仮想体配置手段と、少
なくとも、前記仮想空間における前記所与の視点の高度
に応じて、前記仮想体の色情報を決定する色決定手段
と、前記透過体を描画する際に、前記所与の視点と前記
仮想体の所与の点とを結ぶ直線が前記透過体と交差する
場合には、当該透過体の色情報と当該仮想体の色情報と
を合成して当該透過体を描画する描画手段と、を備える
ことを特徴とする。
According to a sixteenth aspect of the present invention, there is provided a game device for generating a virtual space image based on a given viewpoint and executing a given game, wherein a given horizontal plane is set in the virtual space. Setting means, transmitting body arranging means for arranging a substantially plate-shaped transmitting body on the given horizontal plane, and virtual body arranging means for arranging a virtual body having given color information in the virtual space, at least, A color determination unit that determines color information of the virtual body according to an altitude of the given viewpoint in a virtual space; and, when rendering the transmissive body, a given one of the given viewpoint and the given body of the virtual body. When a straight line connecting a point and the transparent body intersects with each other, the drawing unit draws the transparent body by combining the color information of the transparent body and the color information of the virtual body. I do.

【0012】ここで、透過体とは、完全に透明に設定さ
れたポリゴンやオブジェクトに限らず、所与の不透明度
が設定された半透過体であってもかまわない。また、水
平面とは、完全に水平な面である必要はなく、若干の傾
斜を持った面を含むものである。
Here, the transparent body is not limited to a polygon or an object set completely transparent, but may be a semi-transparent body set to a given opacity. The horizontal plane does not need to be a completely horizontal plane, but includes a plane with a slight inclination.

【0013】この請求項1または16に記載の発明によ
れば、仮想空間に水平面を定義し、この水平面に沿って
透過体が配置される。また、この透過体により表現する
物体の色を、仮想体の色と合成することによって決定す
る。すなわち、個々の透過体の色は、個々の透過体に設
定される固定的な色のみならず、別途独立して設定され
る仮想体の色情報が加味されて決定される。したがっ
て、例えば、視点の位置(あるいは、座標)の移動に伴
って仮想体の色を変化させれば、水平面上に配置された
個々の透過体の視点に対する位置関係に矛盾を来すこと
なく、透過体の色味のみを変更して表現することができ
る。
According to the first or 16th aspect of the present invention, a horizontal plane is defined in the virtual space, and the transmitting body is arranged along the horizontal plane. In addition, the color of the object represented by the transparent body is determined by combining the color of the object with the color of the virtual body. That is, the color of each transmissive body is determined in consideration of not only the fixed color set for each transmissive body but also the color information of the virtual body separately set independently. Therefore, for example, if the color of the virtual body is changed in accordance with the movement of the position of the viewpoint (or the coordinates), the positional relationship of the individual transparent bodies arranged on the horizontal plane with respect to the viewpoint does not become inconsistent, It can be expressed by changing only the color of the transparent body.

【0014】例えば、海や湖などを含む画像を生成する
に際し、水面を透過体により表現し、その海や湖の色を
仮想体によって表現すれば、仮想空間における水面の位
置と、その水面に与える色とをそれぞれ切り離して決定
することができる。すなわち、視点の位置の変化に伴っ
て仮想体の色情報のみを変更すれば、水面と視点との物
理的な位置関係に矛盾を来すことなく、海や湖の色を変
化させて奥行感を強調することができる。したがって、
請求項2に記載の発明のように、請求項1に記載のゲー
ム情報において、前記設定手段が、前記仮想空間に含ま
れる水面を前記所与の水平面とするための情報(例え
ば、図15に示す地形データ330による半透明ポリゴ
ン)を含むこととしてもよい。ここで、水面とは、海や
湖沼、河川、田畑、池、水溜りなど、動不動を問わず液
体がまとまって存在する際の表面を含む意である。
For example, when an image including a sea or a lake is generated, if the water surface is represented by a transparent body and the color of the sea or lake is represented by a virtual body, the position of the water surface in the virtual space and the water surface The given colors can be determined separately from each other. In other words, if only the color information of the virtual body is changed according to the change in the position of the viewpoint, the color of the sea or lake can be changed without inconsistency in the physical positional relationship between the water surface and the viewpoint. Can be emphasized. Therefore,
As in the second aspect of the present invention, in the game information according to the first aspect, the setting means sets information for setting a water surface included in the virtual space to the given horizontal surface (for example, FIG. (Translucent polygons based on the indicated terrain data 330). Here, the water surface is intended to include a surface such as a sea, a lake, a marsh, a river, a field, a pond, a puddle, and the like, where the liquid is present irrespective of movement or immovability.

【0015】また、請求項3に記載の発明のように、請
求項2に記載のゲーム情報において、前記透過体配置手
段が、前記水面下に物体が存在する場合には、当該物体
の色情報を前記透過体の色情報に含ませるための情報を
含むこととしてもよい。
According to a third aspect of the present invention, in the game information according to the second aspect, when the transparent body arranging means includes an object under the water, the color information of the object is provided. May be included in the color information of the transparent body.

【0016】この請求項3に記載の発明によれば、透過
体により水面を表現する場合において、その水面下に物
体の存在を表現する際には、その物体の色を透過体の色
情報に含ませる。このとき、透過体の色情報に含まれた
物体の色情報は、透過体を描画する際に仮想体の色情報
と合成されることとなる。したがって、物体の色情報に
も海や湖の色味が含まれることとなり、水面下に物体が
水をかぶって存在するかのように表現することができ
る。
According to the third aspect of the present invention, when the water surface is represented by a transmissive body, when the presence of an object under the water surface is represented, the color of the object is converted to the color information of the transmissive body. Include. At this time, the color information of the object included in the color information of the transparent body is combined with the color information of the virtual body when drawing the transparent body. Therefore, the color information of the object also includes the color of the sea or lake, and it can be expressed as if the object is covered with water below the surface of the water.

【0017】係る発明は、海等の深さを表現する場合に
も好適である。すなわち、海の色等は、視点の向きや位
置に応じて変化するだけでなく、海底の深さに応じても
異なって見える。例えば、海底が深い場合には、海の表
面の色は濃く深い青色であり、浅瀬や珊瑚礁の海の色は
明るい青色やエメラルドグリーンに見えることがある。
こうした深さに応じた海などの色を表現するために、透
過体に浅瀬の色(例えば、白色や黄色など)や珊瑚礁の
色を含ませれば、それ以外の部分と比較して海や湖の色
を淡い色合いに表現でき、係る部分が浅瀬であることを
知らしめることができる。
The invention is also suitable for expressing the depth of the sea or the like. That is, the color and the like of the sea not only change according to the direction and position of the viewpoint, but also look different depending on the depth of the seabed. For example, when the seabed is deep, the color of the surface of the sea is dark and deep blue, and the color of the sea in shallow waters and coral reefs may appear as light blue or emerald green.
In order to express the color of the sea etc. according to such depth, if the transparent body contains the color of the shallow water (for example, white or yellow) or the color of the coral reef, the sea or lake will be compared with other parts Can be expressed in a light shade, and it can be informed that such a portion is a shallow water.

【0018】また、請求項4に記載の発明のように、請
求項1から3のいずれかに記載のゲーム情報において、
前記仮想体は所定形状であって、前記仮想体配置手段
が、前記所与の視点に追従させて前記仮想体を前記仮想
空間に配置するための情報を含むこととしてもよい。
According to a fourth aspect of the present invention, in the game information according to any one of the first to third aspects,
The virtual body may have a predetermined shape, and the virtual body arranging means may include information for arranging the virtual body in the virtual space so as to follow the given viewpoint.

【0019】この請求項4に記載の発明によれば、仮想
体を所定の形状とし、視点に追従させるものとした。例
えば、水平面に対する視点からの垂直線を算出し、その
垂線と仮想体の所定位置が交差するように仮想体を配置
すれば、視点の位置(座標)が変化しても、その垂線と
視線ベクトルとの成す角に応じた視線ベクトルが指す仮
想体の位置は変化しない。すなわち、仮想体の形状と色
情報とを固定的に設定し、更に視点に追従させれば、そ
の視点に追従させる方向ベクトルと視線ベクトルとの成
す角に応じた仮想体の見え方を固定的に設定することが
できる。
According to the fourth aspect of the present invention, the virtual body has a predetermined shape and follows the viewpoint. For example, if a vertical line from the viewpoint with respect to the horizontal plane is calculated, and the virtual body is arranged so that the perpendicular line intersects with the predetermined position of the virtual body, even if the position (coordinates) of the viewpoint changes, the perpendicular line and the line-of-sight vector Does not change the position of the virtual body indicated by the line-of-sight vector according to the angle formed by. That is, if the shape and color information of the virtual body are fixedly set, and the viewpoint is followed, the appearance of the virtual body according to the angle between the direction vector and the line-of-sight vector to follow the viewpoint is fixed. Can be set to

【0020】例えば、海の画像を生成するに際して、仮
想体を、平面的な正方形に設定し、その中心から縁にか
けて深い海の色から淡い海の色へと徐々に変化させた色
味を設定する。そして、視点の鉛直下方向にこの仮想体
を追従させて配置すれば、視点の位置の移動に拘わら
ず、視点の鉛直下方向にある海の色を常に深い色によっ
て表現し、視線ベクトルと鉛直線との成す角の増加に伴
って海の色を明るく表現することができる。
For example, when an image of the sea is generated, the virtual body is set to a planar square, and the color gradually changed from the deep sea color to the pale sea color from the center to the edge is set. I do. And if this virtual body is arranged to follow the vertical direction of the viewpoint, the color of the sea vertically downward of the viewpoint is always expressed by a deep color regardless of the movement of the position of the viewpoint, and the gaze vector and the vertical The color of the sea can be expressed brighter with an increase in the angle formed by the line.

【0021】また、請求項5に記載の発明のように、請
求項4に記載のゲーム情報において、前記仮想空間に地
表描画範囲(例えば、本実施の形態における最大描画範
囲54)を設定する手段(例えば、図15に示す地形制
御部222)を前記装置に機能させるための情報と、前
記仮想体配置手段が、前記仮想体の縁部(例えば、本実
施の形態における仮想体40の上底円周42)と前記所
与の視点を通る直線が、前記地表描画範囲の縁部(例え
ば、本実施の形態における最大描画円周52)近傍に交
差するように前記仮想体を配置するための情報と、前記
設定手段が、前記地表描画範囲内に前記所与の水平面を
設定するための情報(例えば、図15に示す地形データ
330;半透明ポリゴンの座標情報)と、を含むことと
してもよい。
According to a fifth aspect of the present invention, in the game information according to the fourth aspect, means for setting a ground surface drawing range (for example, a maximum drawing range 54 in the present embodiment) in the virtual space. (For example, the topography control unit 222 shown in FIG. 15) and information for causing the device to function, and the virtual body arranging unit is configured to control the edge of the virtual body (for example, the upper bottom of the virtual body 40 in the present embodiment). The virtual body is arranged so that a straight line passing through the circumference 42) and the given viewpoint intersects near an edge of the ground surface drawing range (for example, the maximum drawing circumference 52 in the present embodiment). Information, and the setting unit may include information for setting the given horizontal plane within the ground surface drawing range (for example, the terrain data 330 shown in FIG. 15; coordinate information of the translucent polygon). Good.

【0022】この請求項5に記載の発明によれば、仮想
体の縁部が地表描画範囲の縁部と視点とを結ぶ線分上に
位置するように仮想体の配置位置を決定する。すなわ
ち、仮想体が画面上に描画される範囲と、地表(地形)
が描画される範囲とが常に等しく、画面上に地表が描画
される範囲を超えて仮想体がはみ出して表現されること
がない。したがって、例えば、仮想体と透過体の描画位
置の重なり判定等の処理を必要とすることなく、仮想体
を描画した後、その上から地表を描画することにより、
透過体によって構成される水面部分にのみ仮想体の色情
報を残し、矛盾なく地表全体を表現することができる。
According to the fifth aspect of the present invention, the position of the virtual body is determined such that the edge of the virtual body is located on a line connecting the edge of the ground surface drawing range and the viewpoint. That is, the area where the virtual body is drawn on the screen and the ground surface (terrain)
Are always equal to each other, and the virtual object does not protrude beyond the range where the ground surface is drawn on the screen. Therefore, for example, by drawing the virtual body and then drawing the ground surface from above without drawing the virtual body and the transparent body without having to perform processing such as overlapping determination of the drawing positions,
The color information of the virtual body is left only on the water surface portion constituted by the transparent body, and the entire surface of the ground can be expressed without contradiction.

【0023】また、請求項6に記載の発明のように、請
求項1から5のいずれかに記載のゲーム情報において、
前記仮想体配置手段が、前記仮想体の基準方向(例え
ば、本実施の形態における仮想体40を定義するローカ
ル座標系におけるx軸方向)を、前記仮想空間における
所与の方向に向けて配置するための情報を含むこととし
てもよい。
[0023] Further, as in the invention according to claim 6, in the game information according to any one of claims 1 to 5,
The virtual body arranging unit arranges a reference direction of the virtual body (for example, an x-axis direction in a local coordinate system defining the virtual body 40 in the present embodiment) in a given direction in the virtual space. May be included.

【0024】この請求項6に記載の発明によれば、仮想
体をその基準となる方向を仮想空間における所与の方向
に向けて配置する。例えば、仮想体を定義するローカル
座標系(x,y,z)におけるy軸が、仮想空間におけ
る水平面と垂直に交わり、且つ、視点を向くように仮想
体を配置した場合において、仮想体のx軸,z軸の仮想
空間において指す向きは任意となる。係る場合におい
て、例えば、仮想体のx軸を基準方向とし、仮想空間に
おける所与の方向に向けて配置することとすれば、仮想
体の配置位置および向きを一意に決定することができる
とともに、仮想空間における東西南北および上下方向と
いった方向と対応するように仮想体の色を定義し、且
つ、配置することができる。
According to the sixth aspect of the present invention, the virtual body is arranged with its reference direction oriented in a given direction in the virtual space. For example, when the y-axis in the local coordinate system (x, y, z) defining the virtual body intersects perpendicularly with the horizontal plane in the virtual space and the virtual body is arranged so as to face the viewpoint, x The direction in the virtual space of the axis and the z axis is arbitrary. In such a case, for example, if the x-axis of the virtual body is set as the reference direction and the virtual body is arranged in a given direction in the virtual space, the arrangement position and orientation of the virtual body can be uniquely determined, The color of the virtual object can be defined and arranged so as to correspond to directions such as north, south, east, west, and north and down in the virtual space.

【0025】なお、仮想空間における所与の方向とは、
光源の方向であってもよいことは勿論である。したがっ
て、請求項7に記載の発明のように、請求項6に記載の
ゲーム情報において、前記仮想体配置手段が、前記仮想
空間における光源の方向を前記所与の方向とするための
情報を含むこととしてもよい。ここで、光源の方向と
は、仮想空間に点光源が設定されている場合には、この
点光源の座標の方向となり、無限光源(すなわち、平行
光線)が設定されている場合には、光線ベクトルの指す
向きと逆方向となる。
The given direction in the virtual space is
Of course, the direction of the light source may be used. Therefore, like the invention according to claim 7, in the game information according to claim 6, the virtual body arranging means includes information for setting the direction of the light source in the virtual space to the given direction. It may be that. Here, the direction of the light source is the direction of the coordinates of the point light source when the point light source is set in the virtual space, and the direction of the light source when the infinite light source (that is, the parallel light beam) is set. The direction is opposite to the direction pointed by the vector.

【0026】なお、海や湖などの色の変化は、視点の水
平方向に対する移動や視線方向の変化に伴って変わるだ
けでなく、視点の高度に応じて変化する場合もある。例
えば、水面に対する視点の高度が十分高くなると、水面
は大気や雲等の影響を受けて霞んで明瞭には見えなくな
ることがある。係る場合においては、視点の高度に応じ
て仮想体の色を変化させることが望ましい。すなわち、
請求項8に記載の発明のように、請求項1から7のいず
れかに記載のゲーム情報において、少なくとも、前記仮
想空間における前記所与の視点の高度(例えば、本実施
の形態における仮想空間での視点のY座標)に応じて、
前記仮想体の色情報を決定する色決定手段(例えば、図
15に示す色決定手段242)、を前記装置に機能させ
るための情報を含むこととしてもよい。
It should be noted that the change in color of the sea, lake, or the like may not only change with the movement of the viewpoint in the horizontal direction or the direction of the line of sight, but may also change in accordance with the altitude of the viewpoint. For example, when the height of the viewpoint with respect to the water surface is sufficiently high, the water surface may be obscured by the influence of the atmosphere, clouds, and the like, and may not be clearly seen. In such a case, it is desirable to change the color of the virtual body according to the height of the viewpoint. That is,
Like the invention according to claim 8, in the game information according to any one of claims 1 to 7, at least the height of the given viewpoint in the virtual space (for example, in the virtual space in the present embodiment, According to the viewpoint (Y coordinate)
It may include information for causing the device to function a color determining unit (for example, a color determining unit 242 shown in FIG. 15) that determines color information of the virtual body.

【0027】また、請求項9に記載の発明のように、請
求項8に記載のゲーム情報において、前記色決定手段
は、前記仮想体に特定点及び当該特定点の色情報を設定
(例えば、図9に示す特定点テーブル328)するとと
もに、少なくとも前記所与の視点の高度に応じて、前記
特定点の色情報を変更する特定点設定手段(例えば、図
15に示す色決定手段242)を備え、この特定点設定
手段により設定された特定点の色情報に基づいて、前記
仮想体における所与の位置の色情報を決定するための情
報を含むこととしてもよい。
According to a ninth aspect of the present invention, in the game information according to the eighth aspect, the color determination means sets a specific point and color information of the specific point in the virtual body (for example, In addition to the specific point table 328 shown in FIG. 9, the specific point setting means (for example, the color determining means 242 shown in FIG. 15) for changing the color information of the specific point according to at least the altitude of the given viewpoint. And information for determining color information at a given position in the virtual body based on the color information of the specific point set by the specific point setting means.

【0028】この請求項9に記載の発明によれば、仮想
体の色情報を変更するに際し、仮想体上に設定した特定
な点の色情報のみを変更すれば、仮想体における他の点
の色情報についても変更することができる。例えば、仮
想体を複数のポリゴン(すなわち、複数の頂点)によっ
て定義する場合、通常、各ポリゴンの色を変更するため
には、各頂点の1つ1つに対して変更後の色を予め記憶
しておく必要がある。しかし、本発明によれば、特定点
の色情報のみを記憶しておけば足り、少ない情報量によ
って仮想体の多様な色味の変化を実現することができ
る。
According to the ninth aspect of the present invention, when changing the color information of the virtual body, only the color information of a specific point set on the virtual body is changed. The color information can also be changed. For example, when a virtual body is defined by a plurality of polygons (ie, a plurality of vertices), usually, in order to change the color of each polygon, the changed color is stored in advance for each of the vertices. It is necessary to keep. However, according to the present invention, it is sufficient to store only the color information of the specific point, and it is possible to realize various changes in the tint of the virtual body with a small amount of information.

【0029】また、請求項10に記載の発明のように、
請求項9に記載のゲーム情報において、前記特定点設定
手段が、複数の特定点を前記仮想体に設定し、当該複数
の特定点の内、少なくとも一の特定点の色情報と他の特
定点の色情報とを前記所与の視点の位置に基づいて配合
し、配合した色情報を当該他の特定点の色情報として設
定するための情報を含むこととしてもよい。
Also, as in the invention according to claim 10,
10. The game information according to claim 9, wherein the specific point setting means sets a plurality of specific points in the virtual body, and, among the plurality of specific points, color information of at least one specific point and another specific point. May be combined based on the position of the given viewpoint, and information for setting the combined color information as the color information of the other specific point may be included.

【0030】この請求項10に記載の発明によれば、視
点の位置の変化に伴って、所与の特定点の色情報に対し
て他の一以上の特定点の色情報を配合することができ
る。換言すれば、視点の仮想空間における所与の位置か
ら他の位置への変更に伴って、所与の特定点の色を他の
特定点の色に近づけることができる。例えば、視点が仮
想空間における雲の下から雲のない場所へと移動する場
合において、その視点の移動に伴って、暗い色情報を有
する特定点に対して、明るい色を持つ特定点の色情報を
配合して行けば、徐々に海の色を全体的に明るく変化さ
せて表現することができる。
According to the tenth aspect, it is possible to blend the color information of one or more specific points with the color information of a given specific point according to a change in the position of the viewpoint. it can. In other words, the color of a given specific point can be made closer to the color of another specific point as the viewpoint changes from a given position in the virtual space to another position. For example, when the viewpoint moves from under a cloud to a place without a cloud in the virtual space, the color information of a specific point having a bright color is compared with a specific point having dark color information with the movement of the viewpoint. Can be expressed by gradually changing the color of the sea to brighter overall.

【0031】また、視点の高度に応じて1の特定点の色
情報に対する他の特定点の色情報の配合率を変化させる
構成にしてもよい。すなわち、請求項11に記載の発明
のように、請求項10に記載のゲーム情報において、前
記特定点設定手段が、前記所与の視点の高度が上がるに
従って、前記他の特定点の色情報を、前記少なくとも一
の特定点の色情報に近づけるように前記配合を行うため
の情報を含むこととしてもよい。
Further, the composition ratio of the color information of one specific point to the color information of another specific point may be changed according to the height of the viewpoint. That is, as in the game information according to the tenth aspect, in the game information according to the tenth aspect, the specific point setting unit may change the color information of the other specific point as the altitude of the given viewpoint increases. And information for performing the blending so as to approach the color information of the at least one specific point.

【0032】この請求項11に記載の発明によれば、例
えば、海を表現する場合において、仮想体に、水平線近
傍の色情報を有する特定点と、深い海の色情報を有する
特定点とを設定する。係る場合において、視点の高度が
高くなるに従って、深い海の色情報を有する特定点に対
し、水平線近傍の海の色を配合していけば、視点が高く
なるにつれて海の色が明るく輝くように変更することが
できる。すなわち、視点の高度の変化をより尤らしく表
現することができる。
According to the eleventh aspect of the present invention, for example, when representing the sea, a specific point having color information near a horizontal line and a specific point having color information of a deep sea are included in a virtual body. Set. In such a case, as the height of the viewpoint increases, if a specific point having deep sea color information is blended with the color of the sea near the horizon, the sea color will shine brighter as the viewpoint increases. Can be changed. That is, a change in the height of the viewpoint can be more likely to be expressed.

【0033】なお、仮想体上の特定点の色をフォグの色
として設定してもよいことは勿論である。すなわち、請
求項12に記載の発明のように、請求項10または11
に記載のゲーム情報において、前記特定点設定手段が、
前記一の特定点の色情報としてフォグの色情報を設定す
るための情報を含むこととしてもよい。例えば、海を表
現する場合において、視点の位置に対して遠方に存在す
る島等は、その島を取囲む海の色を基調としてぼかして
表現すると違和感なく遠方に存在するかのように表現す
ることができる。係る表現を実現するために仮想体の特
定点の色情報をフォグの色として設定すれば、簡単に視
点に対して遠方の物体をもっともらしく表現することが
できる。
It is needless to say that the color of a specific point on the virtual body may be set as the fog color. That is, as in the twelfth aspect of the present invention,
In the game information described in the above, the specific point setting means,
Information for setting color information of fog as the color information of the one specific point may be included. For example, in the case of expressing the sea, an island that exists far away from the position of the viewpoint expresses as if it exists in the distance without discomfort if it is blurred and expressed based on the color of the sea surrounding the island be able to. If the color information of the specific point of the virtual object is set as the fog color in order to realize such an expression, an object far from the viewpoint can be easily expressed in a plausible manner.

【0034】請求項13に記載の発明は、プロセッサに
よる演算・制御により、装置に対して、所与の視点から
見た水面を含む仮想空間の画像を生成して所与のゲーム
を実行させるためのゲーム情報であって、前記水面の色
を、前記仮想空間における前記所与の視点の水平位置か
らの距離に基づいて変更する手段(例えば、図15に示
す色決定部242)、を前記装置に機能させるための情
報を含むことを特徴とする。
According to a thirteenth aspect of the present invention, an arithmetic and control by a processor causes an apparatus to generate an image of a virtual space including a water surface viewed from a given viewpoint and execute a given game. Means for changing the color of the water surface based on the distance from the horizontal position of the given viewpoint in the virtual space (for example, a color determining unit 242 shown in FIG. 15), The information is characterized by including information for causing the information to function.

【0035】この請求項13に記載の発明によれば、視
点の水平位置からの距離に応じて仮想空間内に設定する
水面の色を変更することができる。すなわち、仮想空間
内を視点が水平方向に移動した場合であっても、視点の
水平位置からの距離に基づいて水面の色を決めることが
できるため、視点に対して近い水面の色と、遠くの水面
の色とを異なる色味で表現することができる。したがっ
て、水面の奥行感をより尤らしく表現することができ
る。
According to the thirteenth aspect, the color of the water surface set in the virtual space can be changed according to the distance from the horizontal position of the viewpoint. In other words, even when the viewpoint moves in the horizontal direction in the virtual space, the color of the water surface can be determined based on the distance from the horizontal position of the viewpoint. Of the water surface can be expressed in different colors. Therefore, the sense of depth on the water surface can be more likely to be expressed.

【0036】請求項14に記載の発明は、プロセッサに
よる演算・制御により、表示画像に係る色情報を記憶す
る画像メモリ(例えば、図15に示すフレームバッファ
420)を有する装置に対して、所与の視点に基づく仮
想空間の画像を生成するとともに、生成した画像に係る
色情報を前記画像メモリに描画することにより、所与の
ゲームを実行させるためのゲーム情報であって、所与の
色情報(例えば、本実施の形態における仮想体40の色
情報)を前記画像メモリに描画した上で、前記生成した
仮想空間の画像に係る色情報を前記画像メモリに描画す
るが、その際、当該仮想空間の画像に湖沼、河川、海等
の水場が含まれる場合、当該水場に係る色情報(例え
ば、本実施の形態における半透明ポリゴンや漣モデル)
を、既に描画されている色情報と合成して描画する手段
(例えば、図15に示す描画部246)、を前記装置に
機能させるための情報を含むことを特徴とする。
According to a fourteenth aspect of the present invention, a device having an image memory (for example, a frame buffer 420 shown in FIG. 15) for storing color information related to a display image is calculated and controlled by a processor. Game information for executing a given game by generating an image of a virtual space based on the viewpoint and drawing color information related to the generated image in the image memory, the given color information (For example, the color information of the virtual body 40 in the present embodiment) is drawn in the image memory, and then the color information relating to the generated image of the virtual space is drawn in the image memory. When the space image includes a water place such as a lake, a river, or the sea, color information related to the water place (for example, a translucent polygon or a ripple model in the present embodiment).
And information for causing the device to function as a unit (for example, a drawing unit 246 shown in FIG. 15) for drawing by combining with the already drawn color information.

【0037】この請求項14に記載の発明によれば、所
与の色情報を画像メモリに描画した後、地形等の仮想空
間の画像に係る色情報を画像メモリに描画する。このと
き、仮想空間の画像内に波や水面を表現するための色情
報が含まれる場合には、既に画像メモリに描画された色
情報と合成して画像メモリに描画する。したがって、水
の色を、水面や波の色とは無関係な方法によって決定
し、また、描画することができる。
According to the fourteenth aspect, after the given color information is drawn in the image memory, the color information relating to the image of the virtual space such as the terrain is drawn in the image memory. At this time, if the image of the virtual space includes color information for expressing a wave or a water surface, the image is combined with the color information already drawn in the image memory and drawn in the image memory. Therefore, the color of the water can be determined and drawn by a method independent of the color of the water surface or the color of the waves.

【0038】なお、請求項15に記載の発明のように、
請求項1から14のいずれかに記載のゲーム情報を情報
記憶媒体に記憶してもよいことは勿論である。
Incidentally, as in the invention according to claim 15,
It goes without saying that the game information according to any one of claims 1 to 14 may be stored in the information storage medium.

【0039】[0039]

【発明の実施の形態】以下に、本発明の好適な実施の形
態について図面を参照して説明する。なお、本実施の形
態では、本発明を海の表現に適用する場合について説明
するが、本発明の適用については海に限定する必要はな
い。また、ゲームの一例として、飛行戦闘ゲームを例に
説明するが、他のいかなるゲームに本発明を適用しても
かまわない。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Preferred embodiments of the present invention will be described below with reference to the drawings. In this embodiment, a case where the present invention is applied to the expression of the sea will be described, but the application of the present invention does not need to be limited to the sea. Also, a flight battle game will be described as an example of a game, but the present invention may be applied to any other game.

【0040】図1は、家庭用のゲーム装置の一例を示す
図である。同図によれば、ゲーム装置1210は、ディ
スプレイ1200、ゲームコントローラ1202、12
04等が着脱自在な構成になっている。また、ゲームプ
ログラムや本発明を実現するために必要な情報等のゲー
ム情報は、ゲーム装置1210に着脱自在な情報記憶媒
体であるCD−ROM1206、ICカード1208、
メモリカード1212および、ゲーム装置1210本体
が備える情報記憶媒体等に格納されている。
FIG. 1 is a diagram showing an example of a home-use game device. According to the figure, a game device 1210 includes a display 1200, game controllers 1202 and 12
04 and the like are detachable. Game information such as a game program and information necessary for realizing the present invention can be stored in a CD-ROM 1206, an IC card 1208, which is an information storage medium detachable from the game apparatus 1210.
It is stored in a memory card 1212 and an information storage medium of the game device 1210 main body.

【0041】プレーヤは、ディスプレイ1200に映し
出されたゲーム画像を見ながら、ゲーム画像上に表示さ
れる戦闘機をゲームコントローラ1202あるいは12
04を用いて操作することによって、飛行戦闘ゲームを
楽しむ。以下、プレーヤにより操作される戦闘機を自戦
闘機という。ここに、自戦闘機を操作するとは、ゲーム
コントローラ1202、1204の操作ボタンを押下す
ることにより、自戦闘機の移動方向や移動速度を指定す
る行為を意味する。また、ゲーム画像内には、仮想空間
における自戦闘機の位置が把握できるように、自戦闘機
を取巻く環境、すなわち、空や地形といった環境を表現
する。なお、ゲーム画像を生成するための視点の位置
は、自戦闘機の操縦席に設定してもよいし、自戦闘機に
追従させて自戦闘機を客観的に表現するように設定して
もよい。
While watching the game image displayed on the display 1200, the player controls the fighter displayed on the game image by the game controller 1202 or 1212.
Enjoy the flight fighting game by operating with 04. Hereinafter, a fighter operated by a player is referred to as a self-fighter. Here, operating the own fighter means an action of designating the moving direction and the moving speed of the own fighter by pressing the operation buttons of the game controllers 1202 and 1204. In the game image, an environment surrounding the own fighter, that is, an environment such as the sky and terrain, is represented so that the position of the own fighter in the virtual space can be grasped. The position of the viewpoint for generating the game image may be set at the cockpit of the own fighter, or may be set so as to follow the own fighter and objectively express the own fighter. Good.

【0042】なお、飛行戦闘ゲームを実行する場合に
は、自戦闘機(すなわち、視点)が移動可能な全ての範
囲について地形データが必要となる。具体的には、自戦
闘機が山の上空を飛ぶ場合や、海上を飛ぶ場合、平地上
空を飛ぶ場合などがあり、これらの一連の地形データを
予め用意する必要がある。しかし、1フレームのゲーム
画像を生成する際に、これら全ての地形データを読み出
してモデルを構築し、且つ、視線方向に存在する全ての
地形モデルを描画すると、画像の生成速度に遅延を来
し、ゲームを展開できなくなるという問題が発生する。
When executing the flight fighting game, terrain data is required for the entire range in which the own fighter (ie, viewpoint) can move. Specifically, there are cases where the own fighter flies over a mountain, flies over the sea, flies over a flat surface, and the like, and it is necessary to prepare a series of these terrain data in advance. However, when a one-frame game image is generated, if all these terrain data are read to construct a model and all the terrain models existing in the line of sight are drawn, the image generation speed is delayed. However, there is a problem that the game cannot be developed.

【0043】そこで、本実施の形態では、画像を生成す
る際の描画範囲を、視点からの距離に基づいて制限す
る。すなわち、視点の視線方向に存在する物体であって
も、視点からの距離が所定距離を越える場合には、係る
物体を描画の対象としない。ただし、このように描画の
範囲を制限すると、描画範囲よりも遠くの世界がふっつ
りと消えたような印象を与えかねない。このため、視界
内の物体に対してフォグと呼ばれる処理を施して、視点
から遠のくにつれて物体がぼけて見えるように表現し、
描画範囲を超える部分については完全にぼけて見えない
ように表現する。
Therefore, in the present embodiment, the drawing range when generating an image is limited based on the distance from the viewpoint. That is, even if the object exists in the line of sight of the viewpoint, if the distance from the viewpoint exceeds a predetermined distance, the object is not drawn. However, limiting the drawing range in this way may give the impression that the world farther than the drawing range has disappeared completely. For this reason, an object in the field of view is subjected to a process called fog, so that the object appears blurry as the distance from the viewpoint increases.
The portion beyond the drawing range is expressed so that it is not completely blurred.

【0044】ここで、フォグ処理とは、物体が有する色
に、視点からの距離に応じて所定の色を合成する処理で
あり、物体をぼかして見せる手法である。具体的には、
物体が完全に霞んで見えなくなる距離DFFと、物体が霞
み始める距離DFNとを設定し、物体の視点に対する距離
dとの差に基づいて色情報の合成割合を決定する。例え
ば、物体に合成する色をフォグ色CF(R,G,B)と
し、物体の色をCM(R,G,B)とした場合、フォグ
処理後の物体の色CAを、 CA={CF・(d−DFN)+CM・(DFF−d)}/(DFF−DFN) (ただし、DFN≦d≦DFF) …(1) によって決定する。なお、以下では、フォグ処理を開始
する距離DFNをフォグ開始距離といい、完全にフォグの
色になる距離DFFをフォグ極限距離という。
Here, the fog process is a process of combining a predetermined color with a color of an object according to a distance from a viewpoint, and is a method of blurring the object. In particular,
A distance D FF at which the object is completely blurred and invisible and a distance D FN at which the object starts to be blurred are set, and a synthesis ratio of the color information is determined based on a difference between the distance d of the object and the viewpoint. For example, fog color color to be combined with the object C F (R, G, B ) and then, the color of an object C M (R, G, B ) when the the color C A of the object after the fog, C A = { CF · (d−D FN ) + CM · (D FF −d)} / (D FF −D FN ) (where D FN ≦ d ≦ D FF ) (1) Hereinafter, the distance D FN to start the fog called fog start distance, completely the distance D FF become fog color of fog extreme distance.

【0045】図2は、視点10に対するフォグ開始距離
FN、フォグ極限距離DFF、描画範囲12を示した仮想
空間の平面図である。なお、描画範囲12を破線によっ
て示した。同図からわかるように、視点10からの距離
に応じて同心球状にフォグ処理を施す範囲14を決定す
る。すなわち、物体は、フォグ開始距離DFNよりも視点
10から離れると徐々にフォグの色に溶け込み、更に、
視点10との距離がフォグ極限距離DFFを越えると、フ
ォグの色に塗りつぶされて完全に描画されなくなる。こ
のように、描画範囲の最大距離をフォグ極限距離DFF
して設定することによって、視点10に基づいて生成さ
れた画像上の世界が、描画範囲を超えて途切れるような
印象を与えることなく仮想空間を表現できる。
FIG. 2 is a plan view of the virtual space showing the fog start distance D FN , the fog limit distance D FF , and the drawing range 12 with respect to the viewpoint 10. Note that the drawing range 12 is indicated by a broken line. As can be seen from the figure, a range 14 in which the fog processing is performed in a concentric spherical shape is determined according to the distance from the viewpoint 10. That is, the object is penetration gradually fog color away from the viewpoint 10 than the fog start distance D FN, further,
When the distance between the viewpoint 10 exceeds fog extreme distance D FF, become completely drawn filled fog color. Thus, by setting the maximum distance of a drawing range as a fog extreme distance D FF, virtual space without giving world on the generated image based on the viewpoint 10, the impression that interruption beyond the drawing range Can be expressed.

【0046】さて、本発明は、仮想空間に設定された全
地形のうち、海の水面となる部分を尤らしく表現するた
めのものである。すなわち、視点10の移動や視線方向
の変化に伴って、水面の色をリアルに変化させ、仮想空
間の奥行感を強調するためのものである。
The present invention is intended to represent a portion of the entire terrain set in the virtual space, which is to be the surface of the sea, in a plausible manner. That is, the color of the water surface is realistically changed in accordance with the movement of the viewpoint 10 and the change of the line of sight, thereby enhancing the sense of depth in the virtual space.

【0047】図3は、視点10の位置の変化と、海の色
の変化について説明するための図である。(a)および
(c)は、仮想空間の断面を模式的に描いたものであっ
て、それぞれ視点10が異なる位置に配置され、また、
異なる視線方向を示している。(b)は、(a)に示す
視点10に基づく画像例であり、(d)は、(c)に示
す視点10に基づく画像例を示す。
FIG. 3 is a diagram for explaining a change in the position of the viewpoint 10 and a change in the color of the sea. (A) and (c) schematically illustrate a cross section of the virtual space, where the viewpoints 10 are arranged at different positions, respectively.
Different gaze directions are shown. (B) is an image example based on the viewpoint 10 shown in (a), and (d) is an image example based on the viewpoint 10 shown in (c).

【0048】図3(a)によれば、視点10は、視線ベ
クトル20をほぼ水平にして、やや遠方に存在する島3
0を見下ろしている。したがって、(b)に示す画像例
のように、島30は、水平線32に近い位置に表現され
ることとなる。一方、(c)によれば、視点10は、
(a)に示す位置よりも島30に近づき、且つ、島30
を見下ろす方向に視線ベクトル20が設定されている。
したがって、(d)に示す画像例のように、島30は、
海に囲まれて表現されることとなる。このとき、(b)
に示す島30周辺の海には、水平線近傍の空の色を反射
した明るい海の色を配色し、(d)に示す島30周辺の
海には、濃く深い海の色を配色することが望ましい。本
発明によれば、このような視点10の位置の変化に伴う
海の色の変化を尤らしく表現することができる。
According to FIG. 3 (a), the viewpoint 10 makes the line-of-sight vector 20 substantially horizontal, and
Looking down at 0. Therefore, the island 30 is represented at a position close to the horizontal line 32 as in the image example shown in FIG. On the other hand, according to (c), the viewpoint 10
The position closer to the island 30 than the position shown in FIG.
A line-of-sight vector 20 is set in a direction looking down on.
Therefore, as in the image example shown in FIG.
It will be expressed surrounded by the sea. At this time, (b)
In the sea around the island 30 shown in (d), a bright sea color reflecting the sky color near the horizon may be used, and in the sea around the island 30 shown in (d), a deep and deep sea color may be used. desirable. According to the present invention, such a change in the color of the sea due to a change in the position of the viewpoint 10 can be represented in a plausible manner.

【0049】以下、海面の表現方法について詳細に説明
する。本実施の形態では、海面を半透明ポリゴンによっ
て定義する。すなわち、仮想空間に設定される地形モデ
ル(地形データ)には、陸となる部分と、海面となる部
分とが存在するが、このうち、海面となる部分に関して
は半透明ポリゴンによって表現し、海の色については、
仮想体によって表現する。すなわち、半透明ポリゴンを
透過して見える海の色を仮想体によって表現する。具体
的には、まず、仮想体を描画する。そして、その仮想体
が描かれた上に、陸や海面などの地形モデルを上書きす
る。このとき、海面となる部分は、半透明ポリゴンによ
って構築されているため、先に描いた海の色が反映され
ることとなる。また、陸部分については、通常のポリゴ
ンによって定義すれば、先に描かれた海の色を排除し、
陸部分の色のみを残すことができる。
Hereinafter, the sea surface expression method will be described in detail. In the present embodiment, the sea surface is defined by a translucent polygon. That is, the terrain model (terrain data) set in the virtual space includes a land portion and a sea surface portion. Of these, the sea surface portion is represented by a translucent polygon, About the color of
Expressed by a virtual body. That is, the color of the sea seen through the translucent polygon is represented by a virtual body. Specifically, first, a virtual body is drawn. Then, the terrain model such as land and sea surface is overwritten on the virtual body. At this time, since the portion serving as the sea surface is constructed by translucent polygons, the sea color drawn earlier is reflected. Also, for the land part, if it is defined by a normal polygon, the color of the sea drawn earlier will be excluded,
Only the color of the land can be left.

【0050】なお、半透明ポリゴンとは、色の合成率α
(もしくは、透明度)が指定されたポリゴンのうち、他
の色が合成される割合の高いもの、すなわち、透過率の
高いものを意味する。例えば、色の合成を次式 C=(1−α)・CP+α・CO (ただし、0≦α≦1) …(2) によって定義する。ここで、CPは半透明ポリゴンに与
えられた色を、COは他のオブジェクトの色を意味す
る。すなわち、1つの画素に対して半透明ポリゴンを描
画する場合には、当該半透明ポリゴンの色CPと、当該
画素に既に与えられた色COとを、合成率αに基づいて
合成した色Cを、当該画素に与える。したがって、半透
明ポリゴンを描画すると、決まって、その半透明ポリゴ
ンについて描画する前に描いたオブジェクトの色が反映
されることとなる。一方、通常のポリゴンには、色の合
成率を定義しない(若しくは、α=0とする)。したが
って、通常のポリゴンを描画するときには、既に描かれ
た物体の色は排除され、そのポリゴンの色のみが描画さ
れることとなる。なお、半透明ポリゴンには、白色や薄
い青色を予め設定する。
The translucent polygon is a color synthesis rate α.
Among the polygons for which (or the degree of transparency) has been specified, it means a polygon having a high ratio of combining other colors, that is, a polygon having a high transmittance. For example, the color synthesis of the formula C = (1-α) · C P + α · C O ( provided that, 0 ≦ α ≦ 1) is defined by (2). Here, CP indicates the color given to the translucent polygon, and CO indicates the color of another object. That is, one in the case of drawing a semi-transparent polygons to pixels, the color C P of translucent polygons, color and color C O already given to the pixel, was synthesized on the basis of the synthesis rate α C is given to the pixel. Therefore, when a translucent polygon is drawn, the color of the object drawn before drawing the translucent polygon is reflected. On the other hand, for a normal polygon, the color synthesis rate is not defined (or α = 0). Therefore, when drawing a normal polygon, the color of the already drawn object is excluded, and only the color of the polygon is drawn. Note that white or light blue is set in advance for the translucent polygon.

【0051】以下、仮想体について説明する。まず、仮
想体の形状および配置位置について説明する。なお、以
下では、仮想空間を定義するための座標系をワールド座
標系(X,Y,Z)とし、仮想体を定義するための座標
系をローカル座標系(x,y,z)と表記する。
Hereinafter, the virtual body will be described. First, the shape and arrangement position of the virtual body will be described. Hereinafter, a coordinate system for defining a virtual space is referred to as a world coordinate system (X, Y, Z), and a coordinate system for defining a virtual body is referred to as a local coordinate system (x, y, z). .

【0052】図4は、仮想体40の外観例を示す図であ
り、(a)は仮想体40を斜俯瞰図であり、(b)は仮
想体40の側面図であり、(c)は仮想体40の平面図
である。各図に示すように、仮想体40は、矩形若しく
は三角形のポリゴンによって略半球状に構成されたもの
である。以下では、仮想体40の上底の半径をR、上底
から最下点44までの距離(すなわち、仮想体40の長
さ)をLとし、仮想体40の上底の中心点OSを仮想体
40の代表点とする。また、(c)に示すように、ロー
カル座標系(x,y,z)の原点を中心点OSに設定す
る。ただし、y軸が仮想体40の上底に対して垂直に交
わるように設定する。なお、仮想体40を構成するポリ
ゴンの数や、上底の半径Rや仮想体40の長さLなどの
具体的な数値はいずれの値であってもかまわないが、以
下の条件を満たすように仮想空間に配置する。
FIGS. 4A and 4B are views showing an example of the appearance of the virtual body 40. FIG. 4A is an oblique overhead view of the virtual body 40, FIG. 4B is a side view of the virtual body 40, and FIG. FIG. 3 is a plan view of a virtual body 40. As shown in each figure, the virtual body 40 is formed into a substantially hemispherical shape by a rectangular or triangular polygon. In the following, the radius of the upper base of the virtual body 40 R, the distance from the upper base to the lowest point 44 (i.e., the length of the virtual body 40) and is L, the center point O S of the upper base of the virtual body 40 The representative point of the virtual body 40 is used. Further, as shown in (c), set the local coordinate system (x, y, z) the origin of the center point O S. However, the y-axis is set so as to intersect perpendicularly with the upper bottom of the virtual body 40. In addition, any numerical value such as the number of polygons constituting the virtual body 40, the radius R of the upper base, and the length L of the virtual body 40 may be any value, but the following conditions should be satisfied. In the virtual space.

【0053】図5(a)および(b)は、仮想空間に仮
想体40を配置した一例を示す斜俯瞰図である。(a)
は、視点10、仮想体40、地表面50とを斜めに見下
ろした一例を示す図であり、(b)は、視点10、仮想
体40、地表面50の一部断面を模式的に表現したもの
である。ここで、地表面50とは、仮想空間の座標系に
おけるY=0となる面(X−Z平面)であり、この地表
面50を基準として地形モデルが配置される。また、海
面(すなわち、半透明ポリゴン)についても、この地表
面50に沿って配置する。なお、(a)および(b)に
おいて、点Oは、視点10をY軸に沿って地表面50に
平行投影した点である。また、地表面50に描いた円周
52は、視点10が地表面50に存在するときのフォグ
極限距離DFF、すなわち、地表面50における最大の描
画範囲を示す円周52である。なお、以下では、点Oを
中心とする半径DFFの円周内の範囲を最大描画範囲54
といい、その円周を最大描画円周52という。
FIGS. 5A and 5B are oblique overhead views showing an example in which the virtual body 40 is arranged in the virtual space. (A)
FIG. 3 is a diagram illustrating an example in which the viewpoint 10, the virtual body 40, and the ground surface 50 are obliquely looked down, and FIG. Things. Here, the ground surface 50 is a plane (X-Z plane) where Y = 0 in the coordinate system of the virtual space. In addition, the sea surface (ie, a translucent polygon) is also arranged along the ground surface 50. In FIGS. 9A and 9B, a point O is a point obtained by projecting the viewpoint 10 parallel to the ground surface 50 along the Y axis. The circumference 52 drawn on the ground surface 50 is the fog limit distance D FF when the viewpoint 10 is present on the ground surface 50, that is, the circumference 52 indicating the maximum drawing range on the ground surface 50. In the following, the range within the circumference of the radius D FF centered on the point O is referred to as the maximum drawing range 54.
And the circumference is referred to as a maximum drawing circumference 52.

【0054】同図に示すように、仮想体40を、その代
表点OSが視点10の直下に位置するように配置し、且
つ、仮想体40の上底円周42が視点10と最大描画円
周52とを結ぶ直線と交わるように配置する。このと
き、仮想体40の代表点OSの高さhは、比例の関係に
従って、 h=YV・(1−R/DFF) …(3) によって算出することができる。すなわち、視点10の
座標を(XV,YV,ZV)とした場合、仮想体40の代
表点OSの座標は、(XV,h,ZV)によって決定する
ことができる。
[0054] As shown in the figure, the virtual body 40, arranged such that the representative point O S is located immediately below the viewpoint 10, and upper base circumference 42 of the virtual body 40 viewpoint 10 and a maximum draw It is arranged so as to intersect a straight line connecting the circumference 52. In this case, the height h of the representative point O S of the virtual body 40, in accordance with a proportional relationship, can be calculated by h = Y V · (1- R / D FF) ... (3). That is, coordinates of the viewpoint 10 (X V, Y V, Z V) when the coordinate of the representative point O S of the virtual body 40 can be determined by (X V, h, Z V ).

【0055】図6(a)および(b)は、視点10の高
度に伴う仮想体40の位置の変化を説明するための図で
ある。(a)と(b)とでは、視点10の高度が異な
り、視点10の高度の変化に伴って、視点10と仮想体
40の代表点OSとの距離dが変化している。このよう
に、視点10の高度に応じて、視点10と仮想体40と
の距離dを変化させることによって、仮想体40は、そ
の大きさを変更することなく、地表面50上の常に等し
い位置の色を表現することができる。(a)において、
仮想体40の所与の点Kは、地表面50の点Mの色を表
現している。この仮想体40上の点Kは、(b)に示す
ように、視点10の高度が変化しても、視点10が水平
方向に移動しない限り、常に、地表面50の点Mの色を
表現することとなる。
FIGS. 6A and 6B are views for explaining a change in the position of the virtual body 40 with the height of the viewpoint 10. FIG. Than (a) and (b), different high viewpoint 10, with a high degree of change in aspect 10, the distance d between the representative point O S of the virtual body 40 is changed with the viewpoint 10. As described above, by changing the distance d between the viewpoint 10 and the virtual body 40 according to the altitude of the viewpoint 10, the virtual body 40 is always positioned at the same position on the ground surface 50 without changing its size. Color can be expressed. In (a),
A given point K of the virtual body 40 represents the color of the point M on the ground surface 50. The point K on the virtual body 40 always represents the color of the point M on the ground surface 50 even if the height of the viewpoint 10 changes, as long as the viewpoint 10 does not move in the horizontal direction, as shown in FIG. Will be done.

【0056】また、図5や図6に示したように、仮想体
40は、常に、地表面50上の最大描画範囲54と重な
る位置に描画されることとなる。したがって、海の色だ
けが地形からはみ出て表現されるといった問題を心配す
る必要がない。また、仮想体40は、描画されても、地
表面50において重なる位置の地形モデルが陸部分であ
れば、その陸の色が上書きされて見えなくなる。換言す
れば、仮想体40の描画有無について、海面の存在を判
定したり、地形モデルとの重なり部分を判定するなどの
処理を必要とすることなく、常に描画すればよく、煩わ
しい処理を必要とせずに、簡単に海の色を表現すること
ができる。
As shown in FIGS. 5 and 6, the virtual body 40 is always drawn at a position overlapping the maximum drawing range 54 on the ground surface 50. Therefore, there is no need to worry about the problem that only the color of the ocean is protruded from the terrain. Also, even if the virtual body 40 is drawn, if the terrain model at the overlapping position on the ground surface 50 is a land portion, the color of the land is overwritten and becomes invisible. In other words, the presence or absence of the virtual body 40 need only be always drawn without any processing such as determining the existence of the sea surface or determining an overlapping portion with the terrain model, which requires cumbersome processing. , You can easily express the color of the sea.

【0057】続いて、仮想体40に設定する色について
説明する。図5に示したように、仮想体40の上底円周
42は、地表面50における最大描画円周52に対応
し、仮想体40の最下点44は、視点10の真下に該当
する。したがって、仮想体40の上底円周42の近傍に
明るい色を配色し、仮想体40の最下点44に近づくに
つれて濃く深い色を配色すれば、視線ベクトルの向きに
応じて徐々に海の色が変化するように表現できる。ま
た、視点10の位置の移動にかかわらず、水平線近傍の
海の色は明るく、視点10近傍の海の色は暗く表現する
ことができる。このように、仮想体40の上下方向(す
なわち、y軸方向)に色を変化させることによって、視
点10に対する海の奥行感が強調される。
Next, the colors set in the virtual body 40 will be described. As shown in FIG. 5, the upper bottom circumference 42 of the virtual body 40 corresponds to the maximum drawing circumference 52 on the ground surface 50, and the lowest point 44 of the virtual body 40 corresponds to a position directly below the viewpoint 10. Therefore, if a bright color is arranged in the vicinity of the upper base circumference 42 of the virtual body 40 and a deeper and deeper color is arranged as approaching the lowermost point 44 of the virtual body 40, the sea is gradually changed according to the direction of the line-of-sight vector. It can be expressed so that the color changes. Further, regardless of the movement of the position of the viewpoint 10, the color of the sea near the horizon can be expressed bright, and the color of the sea near the viewpoint 10 can be expressed dark. Thus, by changing the color in the vertical direction of the virtual body 40 (that is, in the y-axis direction), the sense of depth of the sea with respect to the viewpoint 10 is emphasized.

【0058】なお、仮想体40の水平方向に色を変化さ
せてもよい。すなわち、y軸方向と垂直な方向(例え
ば、x軸方向若しくはz軸方向)に色を変化させてもよ
い。このように、仮想体40の水平方向について色を変
化させることによって、仮想空間における海の東西南北
等の方向性を表現することができる。例えば、夕焼けの
シーンなどにおいては、光源の方向とその逆方向とで海
の色を変化させることが望ましいが、本発明によれば、
仮想体40の水平方向について色を変化させるだけで簡
単に夕焼けを表現することができる。
The color of the virtual body 40 may be changed in the horizontal direction. That is, the color may be changed in a direction perpendicular to the y-axis direction (for example, the x-axis direction or the z-axis direction). As described above, by changing the color in the horizontal direction of the virtual body 40, it is possible to express the directionality of the east, west, south and north of the sea in the virtual space. For example, in a sunset scene or the like, it is desirable to change the color of the sea between the direction of the light source and the opposite direction, but according to the present invention,
The sunset can be easily expressed simply by changing the color in the horizontal direction of the virtual body 40.

【0059】具体的には、仮想体40のx軸の正方向に
明るい色を配し、負方向に暗い色を配する。そして、仮
想体40のx軸正方向が仮想空間における光源の方向に
向くように仮想体40を配置する。例えば、仮想空間に
おいて、光源が点光源によって設定されている場合に
は、仮想体40のx軸正方向を点光源の座標の水平位置
(X,0,Z)に向けて仮想体40を配置する。また、
仮想空間において、光源が無限光源として設定されてい
る場合には、仮想体40のx軸正方向が、光線ベクトル
と対向するように仮想体40を配置する。なお、本実施
の形態では、光源を太陽とし、平行光線(すなわち、光
線ベクトル)によって光源を定義する。
More specifically, a bright color is arranged in the positive direction of the x-axis of the virtual body 40 and a dark color is arranged in the negative direction. Then, the virtual body 40 is arranged so that the positive x-axis direction of the virtual body 40 faces the direction of the light source in the virtual space. For example, if the light source is set by a point light source in the virtual space, the virtual body 40 is arranged with the positive x-axis direction of the virtual body 40 directed to the horizontal position (X, 0, Z) of the coordinates of the point light source. I do. Also,
When the light source is set as an infinite light source in the virtual space, the virtual body 40 is arranged such that the positive x-axis direction of the virtual body 40 faces the light vector. In the present embodiment, the light source is the sun, and the light source is defined by parallel rays (that is, ray vectors).

【0060】図7は、仮想空間を斜め上方から模式的に
描いた図であり、光線ベクトル60の向きに対抗するよ
うに仮想体40のx軸正方向を配置した一例を示すもの
である。同図によれば、仮想体40のx軸は、光線ベク
トル(XOPT,YOPT,ZOPT)の水平成分(XOPT,Z
OPT)に対抗するように配置される。したがって、仮想
空間を視点10が移動しても光源との位置関係におい
て、矛盾を発生することなく、海の色を尤らしく表現す
ることができる。
FIG. 7 is a diagram schematically depicting the virtual space from obliquely above, and shows an example in which the x-axis positive direction of the virtual body 40 is arranged so as to oppose the direction of the ray vector 60. According to the figure, the x-axis of the virtual body 40 is represented by the horizontal components (X OPT , Z OPT ) of the ray vector (X OPT , Y OPT , Z OPT ).
OPT ). Therefore, even if the viewpoint 10 moves in the virtual space, the color of the sea can be represented plausibly without inconsistency in the positional relationship with the light source.

【0061】なお、仮想体40の色について、仮想体4
0を構成するポリゴンの頂点の1つ1つに対して色を定
義し、更に、各ポリゴン毎に各頂点の色をグラデーショ
ンさせることによって仮想体40を表現してもよい。し
かし、係る方法を採用した場合、海の色の変化をより滑
らかに尤らしく表現するためには、仮想体40を構成す
る頂点の数が多量に必要となるばかりでなく、それに伴
って記憶すべき色情報の量が増加し、多容量のメモリが
必要となる。かといって、ポリゴン数を減少させれば、
必要なメモリ容量が少なくてすむ一方で、仮想体40の
色がポリゴン単位で変化する様子が顕著となり、自然な
海の色を表現できない。
Note that the color of the virtual body 40
The virtual body 40 may be represented by defining a color for each of the vertices of the polygon constituting 0, and further gradation-grading the color of each vertex for each polygon. However, when such a method is adopted, not only a large number of vertices constituting the virtual body 40 are required but also a large number of vertices constituting the virtual body 40 are stored in order to more smoothly and plausibly represent the change in the color of the sea. The amount of color information to be increased increases, and a large capacity memory is required. However, if you reduce the number of polygons,
While the required memory capacity is small, the manner in which the color of the virtual body 40 changes in units of polygons becomes conspicuous, and a natural sea color cannot be expressed.

【0062】以上の問題を解決するために、仮想体40
に特定な点(以下、特定点という)を設定し、この特定
点にのみ色を定義する。そして、仮想体40における任
意の頂点の色については、その頂点と周囲の特定点との
位置関係に基づいて各特定点に与えられた色を合成する
ことによって決定する。
To solve the above problem, the virtual object 40
, A specific point (hereinafter referred to as a specific point) is set, and a color is defined only at this specific point. Then, the color of an arbitrary vertex in the virtual body 40 is determined by synthesizing the color given to each specific point based on the positional relationship between the vertex and a specific point around the vertex.

【0063】図8は、特定点の設定例を示す図であり、
仮想体40の中心点OSを通るx−y平面による断面を
示す図である。同図によれば、x−y平面による仮想体
40の断面上の上底円周42に2点P1A(x軸正方
向)、P1B(x軸負方向)と、最下点44にP3点が設
定されているとともに、最下点44と上底円周42に設
定した各特定点とを結ぶ曲線の中心点(以下、中間点と
いう)にそれぞれP2A,P 2Bが特定点として設定され
る。そして、上底円周42上の特定点P1A,P1Bには明
るい色を設定し、最下点44の特定点P3には暗い深い
海の色を設定する。また、中間点の特定点P2A,P2B
は、深くも淡くもない海の色を設定する。また、夕焼け
のシーンなどでは、x軸の正方向に存在する特定点
1A,P2Aには明るい色を配し、負方向に存在する特定
点P1B,P2Bには暗めの色を設定する。
FIG. 8 is a diagram showing an example of setting a specific point.
Center point O of virtual body 40SThe cross section by the xy plane passing through
FIG. According to the figure, a virtual body on the xy plane
2 points P on the upper bottom circumference 42 on the cross section1A(X axis square
Direction), P1B(Negative direction of the x-axis) and PThreePoints set
At the lowest point 44 and the upper bottom circumference 42.
The center point of the curve connecting each specified point
P)2A, P 2BIs set as a specific point
You. Then, a specific point P on the upper bottom circumference 421A, P1BAkira
Set a red color and set the specific point PThreeDark to the deep
Set the color of the sea. In addition, the specific point P of the intermediate point2A, P2BTo
Sets the color of the sea that is neither deep nor pale. Also at sunset
Scene, etc., a specific point in the positive x-axis direction
P1A, P2AHas a bright color and has a negative direction
Point P1B, P2BSet a darker color.

【0064】図9は、各特定点の色を記憶した特定点テ
ーブル328の一例を示す図である。同図によれば、特
定点テーブル328には、各特定点の座標と色情報とが
それぞれ対応付けて記憶される。なお、ここでの座標
は、ローカル座標系における座標である。また、Lは仮
想体40の全長を、L2は仮想体40の上底から特定点
2A,P2Bまでの距離を、Rは上底円周の半径を、R2
はy軸から特定点P2A,P2Bまでの距離をそれぞれ示し
ている(図8参照)。
FIG. 9 is a diagram showing an example of the specific point table 328 storing the color of each specific point. According to the figure, the specific point table 328 stores coordinates of each specific point and color information in association with each other. Note that the coordinates here are coordinates in the local coordinate system. L is the total length of the virtual body 40, L 2 is the distance from the upper base of the virtual body 40 to the specific points P 2A and P 2B , R is the radius of the circumference of the upper base, R 2
Indicates the distance from the y axis to the specific points P 2A and P 2B (see FIG. 8).

【0065】仮想体40を構成する各頂点(すなわち、
各ポリゴンの頂点)の色は、その頂点を取囲む4つの特
定点、若しくは、3つの特定点に与えられた色を合成す
ることによって決定する。なお、各特定点の色を合成す
る割合は、各頂点と各特定点との距離、若しくは、成す
角度に応じて決定する。例えば、図10(a)に示す仮
想体40を構成する一のポリゴンにおける頂点vの色を
決定する際には、まず、ローカル座標系における頂点v
の座標(xV,yV,zV)を判定し、特定点テーブル3
28の中からy軸の値の近い3つ若しくは4つの特定点
を選択する。すなわち、図10(a)によれば、頂点v
の近隣の特定点として、特定点P1A,P 1BおよびP2A
2Bが選択される。これら選択された特定点の色情報を
合成する方法は、頂点vとの位置関係を加味したもので
あればいかなるものであってもかまわないが、以下にそ
の一例を説明する。
Each vertex constituting the virtual body 40 (ie,
The colors of the vertices of each polygon)
Combines the color given to a fixed point or three specific points
Is determined by Note that the color of each specific point is synthesized.
Is the distance between each vertex and each specific point, or
Determined according to the angle. For example, as shown in FIG.
The color of the vertex v in one polygon constituting the virtual body 40
When determining, first, the vertex v in the local coordinate system
Coordinates (xV, YV, ZV), And the specific point table 3
3 or 4 specific points near y-axis value from 28
Select That is, according to FIG.
Is a specific point P1A, P 1BAnd P2A,
P2BIs selected. The color information of these selected specific points
The synthesis method takes into account the positional relationship with the vertex v.
Anything is acceptable, but below
An example will be described.

【0066】まず、上底円周42と、頂点vを通り上底
と垂直に交わる断面との交点p1を算出し、同様に、特
定点P2A,P2Bを通り上底と平行な円周と、点vを通り
上底と垂直に交わる断面との交点p2を算出する。そし
て、各交点p1,p2の色CP1,CP2を決定する。例え
ば、交点p1の色を決定する際には、図10(b)に示
すように、原点OSから交点p1へのベクトル70と、x
軸との成す角φを求め、この角φに基づいて特定点
1A,P1Bの色を合成し、CP1を決定する。すなわち、 CP1={C1A・(cosφ+1)+C1B(cos(π−φ)+1)}/2 …(4) により交点p1の色CP1を決定する。交点p2についても
同様に、特定点P2A,P 2Bを通り上底と平行な断面にお
ける中心点から交点p2へのベクトルとx軸方向との成
す角φを求め、特定点P2A,P2Bの色を合成し、CP2
決定する。
First, the upper base circle 42 and the upper base
Of intersection p with the cross section perpendicular to1And calculate the
Fixed point P2A, P2BThrough the circle parallel to the top and through point v
Intersection point p with the cross section perpendicular to the upper bottomTwoIs calculated. Soshi
And each intersection p1, PTwoColor CP1, CP2To determine. example
If the intersection p1When determining the color of the image shown in FIG.
As the origin OSFrom intersection p1Vector 70 and x
Find the angle φ between the axis and the specific point based on this angle φ
P1A, P1BCombine the colors ofP1To determine. That is, CP1= {C1A・ (Cosφ + 1) + C1B(Cos (π−φ) +1)} / 2 (4)1Color CP1To determine. Intersection pTwoAbout
Similarly, the specific point P2A, P 2BThrough a section parallel to the top
Intersection p from the center pointTwoTo the x-axis direction
Angle φ, and the specific point P2A, P2BCombine the colors ofP2To
decide.

【0067】そして、交点p1およびp2の色を決定する
と、頂点vと各交点との距離に応じて交点p1,p2の色
を合成して、頂点vの色を決定する。例えば、図10
(c)に示すように、交点p1と頂点vの距離をd1
し、交点p2と頂点vの距離をd2とした場合には、 CV=(CP1・d2+CP2・d1)/(d1+d2) …(5) によって決定する。このように、仮想体40を構成する
各ポリゴンの各頂点の色を決定する。なお、各ポリゴン
内の色については、各ポリゴンを構成する4つ若しくは
3つの頂点に対して決定した色に基づいて色を補間して
決定する。
When the colors of the intersections p 1 and p 2 are determined, the colors of the intersections p 1 and p 2 are synthesized according to the distance between the vertex v and each intersection to determine the color of the vertex v. For example, FIG.
As shown in (c), when the distance between the intersection point p 1 and the vertex v is d 1 and the distance between the intersection point p 2 and the vertex v is d 2 , C V = (C P1 · d 2 + C P2 · d 1 ) / (d 1 + d 2 ) (5) In this way, the colors of the vertices of each polygon constituting the virtual body 40 are determined. The colors in each polygon are determined by interpolating the colors based on the colors determined for the four or three vertices constituting each polygon.

【0068】なお、上記説明において、視点10からの
距離に応じて描画範囲内に存在する物体に対して、フォ
グ処理を施すこととした。したがって、例えば、図11
に示すように、視点10の高度YVがフォグ開始距離D
FFよりも長く、且つ、フォグ極限距離DFFよりも短い状
況において、地表面50を真下に見下ろした場合には、
地形モデルの色はフォグの色と合成されることとなる。
このとき、視点10が見下ろす地形モデルに、海と陸と
が混在している場合には、陸部分にはフォグの影響が現
れるものの、海の色にはフォグの処理が施されず、陸の
みがフォグの色に溶け込み、海は明瞭に見えるといっ
た、遠近感のない画像を生成する恐れがある。
In the above description, an object existing within the drawing range according to the distance from the viewpoint 10 is subjected to fog processing. Thus, for example, FIG.
As shown in the figure, the altitude Y V of the viewpoint 10 is the fog start distance D
In a situation that is longer than the FF and shorter than the fog limit distance D FF , when looking down directly below the ground surface 50,
The color of the terrain model will be combined with the color of the fog.
At this time, if the sea and the land are mixed in the terrain model that the viewpoint 10 looks down on, the effect of fog appears on the land, but the fog is not applied to the color of the sea, and only the land Can blend in with the fog color and produce images with no perspective, such as a clear view of the sea.

【0069】係る問題を解決するために、仮想体40の
色を、視点10の高度(すなわち、YV)に応じて徐々
に変更する。具体的には、中間点の特定点P2A,P2B
最下点44の特定点P3に設定した色C2A,C2B,C
3を、視点10の高度YVに基づいて上底の円周上に設定
した特定点P1A,P1Bの色C1A,C1Bと合成する。この
とき、各特定点の色を合成する割合は、式(1)に示し
たフォグ処理と同様に、距離dを視点の高度YVに置き
換えて行う。例えば、中間点にある特定点P2Aの色に
は、特定点P1Aの色をフォグの色として合成し、特定点
2Bの色には、特定点P2Bの色をフォグの色として合成
する。
In order to solve such a problem, the color of the virtual body 40 is gradually changed according to the height of the viewpoint 10 (that is, Y V ). Specifically, the colors C 2A , C 2B , C set at the specific points P 2A , P 2B of the intermediate point and the specific point P 3 of the lowermost point 44
3 is synthesized with the colors C 1A and C 1B of the specific points P 1A and P 1B set on the circumference of the upper base based on the height Y V of the viewpoint 10. In this case, the ratio for combining the color of each particular point, as well as the fog processing shown in equation (1) is carried out by replacing the distance d altitude Y V viewpoint. For example, the color of the specific point P 2A at the intermediate point is synthesized with the color of the specific point P 1A as the fog color, and the color of the specific point P 2B is synthesized with the color of the specific point P 2B as the fog color. I do.

【0070】なお、最下点44の特定点P3の色C3
は、上底円周42上の特定点P2A,P 2Bの色C1A,C1B
の平均色CAVEをフォグの色として合成する。すなわ
ち、平均色CAVEを CAVE=(C1A+C1B)/2 …(6) によって決定し、この色をフォグの色として、視点10
の高さYVと、フォグ開始距離DFNおよびフォグ極限距
離DFFとの差に応じてC3とCAVEを合成することによっ
て特定点P3の新たな色CN3を決定する。 CN3={CAVE・(YV−DFN) +C3・(DFF−YV)}/(DFF−DFN) …(7)
The specific point P of the lowest point 44ThreeColor CThreeTo
Is a specific point P on the upper base circumference 422A, P 2BColor C1A, C1B
Average color CAVEAre combined as fog colors. Sand
And average color CAVETo CAVE= (C1A+ C1B) / 2... (6)
Height YVAnd fog start distance DFNAnd fog extreme distance
Release DFFAccording to the difference betweenThreeAnd CAVEBy combining
Specific point PThreeNew color CN3To determine. CN3= {CAVE・ (YV-DFN) + CThree・ (DFF-YV)} / (DFF-DFN…… (7)

【0071】図12は、最下点44にある特定点P3
色が、上底円周42の平均色CAVEに合成される過程を
説明するためのグラフである。同図において、横軸が視
点10の高さYVを、縦軸が合成後の特定点P3の色CN3
をそれぞれ示している。同図によれば、特定点P3の色
N3は、視点10の高さYVがフォグ開始距離DFNより
も小さいときには色C3であるが、高さYVがフォグ開始
距離DFNを超えると徐々に平均色CAVEが合成され、高
さYVがフォグ極限距離DFFを超えると完全に平均色C
AVEになる。このように、フォグ開始距離DFNおよびフ
ォグ極限距離DFFに基づいて、仮想体40の色を変更す
ることによって、仮想空間内に存在する物体に対して施
すフォグの処理と同様に、海の色についても空の色を反
映した淡い色合いに変化するように設定することができ
る。なお、中間点にある特定点P2A,P 2Bの色について
も、上底円周42上の特定点の平均色CAVEをフォグの
色として合成してもよい。
FIG. 12 shows a specific point P at the lowest point 44.Threeof
The color is the average color C of the upper bottom circumference 42AVEThe process of synthesis into
It is a graph for explanation. In the figure, the horizontal axis is viewed.
Height Y of point 10V, The vertical axis is the specific point P after synthesisThreeColor CN3
Are respectively shown. According to FIG.ThreeColor of
CN3Is the height Y of the viewpoint 10VIs the fog start distance DFNThan
Color C whenThreeBut the height YVStarts fog
Distance DFNAverage color C gradually exceedsAVEAre synthesized and high
Say YVIs the fog limit distance DFFAbove is completely average color C
AVEbecome. Thus, the fog start distance DFNAnd
Og limit distance DFFChanges the color of the virtual body 40 based on
By doing so, objects existing in the virtual space can be
As with fog processing, the color of the sea is
Can be set to change to a lighter shade
You. The specific point P at the intermediate point2A, P 2BAbout the color
Is also the average color C at a specific point on the upper base circumference 42.AVEThe fog of
You may combine as a color.

【0072】以上に説明した方法によれば、視点10の
位置や視線方向に基づいて海の色を徐々に変化させるこ
ととしたため、仮想空間における海の奥行感を表現する
ことができる。また、視点10の高度に応じて海の色を
変更することができるため、仮想空間の高さ方向の遠近
感が強調される。
According to the method described above, the color of the sea is gradually changed based on the position of the viewpoint 10 and the direction of the line of sight, so that the sense of depth of the sea in the virtual space can be expressed. Further, since the color of the sea can be changed according to the altitude of the viewpoint 10, the sense of perspective in the height direction of the virtual space is emphasized.

【0073】しかしながら、上記説明した方法によれ
ば、海面より上の仮想空間の奥行感や立体感を強調し、
また、海面をリアルに表現することができるものの、海
底の高低を表現することはできない。例えば、陸から海
へと地形が急激に変化する崖近傍の海の色と、陸から海
へとなだらかに変化する砂浜近傍の海の色とは、本来そ
れぞれ異なるはずである。例えば、崖の下が海面に対し
て深い場合には、海岸近傍の海の色も深い青色を示し、
地形がなだらかに変化する場合には、海の色も沖に向か
って徐々に深い青色へと変化するはずである。しかし、
上記説明によれば、地形モデルは陸部分と海面部分とか
ら構成され、海面部分には、仮想体40によって表現さ
れる海の色のみが反映される。したがって、崖のような
海岸線でも、砂浜のような穏やかな海岸線や珊瑚礁など
の浅瀬でも、それぞれ等しい海の色によって表現されて
しまう。
However, according to the above-described method, the sense of depth and the sense of three-dimensionality of the virtual space above the sea surface are emphasized,
In addition, although the sea surface can be realistically expressed, the height of the seabed cannot be expressed. For example, the color of the sea near a cliff where the landform changes rapidly from land to the sea, and the color of the sea near a sandy beach where the land changes smoothly from the land to the sea should be different from each other. For example, when the bottom of a cliff is deep relative to the sea surface, the color of the sea near the coast also shows deep blue,
If the terrain changes gently, the color of the ocean should gradually change to deep blue off the coast. But,
According to the above description, the terrain model includes the land portion and the sea surface portion, and only the sea color represented by the virtual body 40 is reflected on the sea surface portion. Therefore, a coastline like a cliff, a gentle coastline like a sandy beach, or a shallow water such as a coral reef will be expressed by the same color of the sea.

【0074】係る問題を解決するために、以下のような
処置を取るとよい。すなわち、地形モデルのうち海面の
部分を構成する半透明ポリゴン上に浅瀬の色を配色し、
これを仮想体40の色と合成させる。なお、浅瀬の色に
ついては、各ポリゴンの頂点に定義してもよいし、浅瀬
を表すテクスチャを当該ポリゴンにマッピングすること
によって定義してもよい。テクスチャによって表現する
場合には、位置によって浅瀬の色合いや濃淡に変化をつ
ける。また、色の合成率αについては、全てのポリゴン
に均一の値を設定するのではなく、各ポリゴンにそれぞ
れ異なる色の合成率αを設定し、海の深さが海面の場所
に応じて変化して見えるように設定する。
In order to solve such a problem, the following measures may be taken. That is, in the terrain model, a shallow color is placed on the translucent polygons that constitute the sea surface,
This is combined with the color of the virtual body 40. The color of the shallow water may be defined at the vertices of each polygon, or may be defined by mapping a texture representing the shallow water to the polygon. In the case of expressing by texture, the color and shading of the shallows are changed depending on the position. Regarding the color composition ratio α, instead of setting a uniform value for all polygons, a different color composition ratio α is set for each polygon, and the depth of the sea changes according to the location of the sea surface. And set it to be visible.

【0075】図13は、半透明ポリゴンに青色以外の色
(例えば、白色や黄色)を配色することによって、浅瀬
を表現した画像例である。同図によれば、画像中には島
80,82および陸84、海面86が表現されており、
島80,82近傍の海面と、島80,82から離れた位
置の海面とで異なる濃淡により表現されている。このた
め、島80,82近傍の海がそれ以外の海と比較して浅
い印象を与えることができる。このように、半透明ポリ
ゴンに浅瀬の色を定義することによって、簡単に海底の
高低を表現することができる。
FIG. 13 is an example of an image expressing a shallow water by applying a color other than blue (for example, white or yellow) to a translucent polygon. According to the figure, in the image, islands 80 and 82, land 84 and sea surface 86 are represented.
The sea surface near the islands 80 and 82 and the sea surface at a position away from the islands 80 and 82 are represented by different shades. Therefore, the sea near the islands 80 and 82 can give a shallower impression than the other seas. In this way, by defining the color of the shallow water in the translucent polygon, the height of the seabed can be easily expressed.

【0076】また、海面には、波による水泡や光を反射
したきらめき等が見えることがしばしある。こうした海
面の漣を表現するために、以下の工夫をしてもよい。す
なわち、完全に透明(α=1)に設定された平面上に、
黄色若しくは白色の半透明部(α≠0)を付した漣モデ
ルを定義する。そして、この漣モデルを海面と重ねて表
現することによって、海面の波や水泡を表現する。
Further, on the sea surface, water bubbles due to waves, glitters reflecting light, and the like are often seen. In order to represent such a sea surface ripple, the following contrivances may be made. That is, on a plane that is completely transparent (α = 1),
A ripple model with a translucent yellow or white portion (α ≠ 0) is defined. Then, by expressing this ripple model on the sea surface, waves and water bubbles on the sea surface are expressed.

【0077】なお、漣モデルの大きさおよび形状は、地
形モデルにおける海面部分の大きさに合わせたものであ
ってもよいが、図14に示すように、漣モデル90が、
視点10に対する地表面50の最大描画範囲54と同等
若しくはやや小さめの形状であってもよい。このよう
に、漣モデル90の大きさを描画する海面の大きさと無
関係に設定する場合には、漣モデル90を描画するタイ
ミングに注意を払う必要がある。具体的には、仮想体4
0を描画した後で、且つ、地形モデルを描画する前に漣
モデル90を描画する。このように、地形モデルを描画
する前に漣モデル90を描画することによって、漣モデ
ル90の形状や大きさを考慮したり、海面部分との重な
り判定等の処理を必要とすることなく、簡単に海面の漣
を表現することができる。すなわち、漣モデル90を地
形モデルよりも前に描画すれば、陸部分については漣モ
デル90の上に上書きされるため、半透明ポリゴンによ
って構成される海面部分に関してのみ、漣モデル90の
色情報が反映される。
The size and shape of the ripple model may be adapted to the size of the sea surface portion in the terrain model. However, as shown in FIG.
The shape may be equal to or slightly smaller than the maximum drawing range 54 of the ground surface 50 with respect to the viewpoint 10. As described above, when setting the size of the ripple model 90 regardless of the size of the sea surface to be rendered, it is necessary to pay attention to the timing of rendering the ripple model 90. Specifically, virtual body 4
After drawing 0, and before drawing the terrain model, the ripple model 90 is drawn. Thus, by drawing the ripple model 90 before drawing the terrain model, the shape and size of the ripple model 90 can be taken into consideration, and processing such as determination of overlap with the sea surface can be easily performed. You can express the ripple of the sea surface. That is, if the ripple model 90 is drawn before the terrain model, the land portion is overwritten on the ripple model 90, so that the color information of the ripple model 90 is obtained only for the sea surface portion formed by the translucent polygon. Will be reflected.

【0078】続いて、コンピュータ等のハードウェアを
用いて本発明を実現可能とするために必要となる機能に
ついて説明する。図15は、機能ブロックの一例を示す
図である。同図に示す機能ブロックは、ゲーム情報に基
づいて作動する機能と、図1に示すゲーム装置1210
自体が予め有する機能とからなるものである。図15に
よれば、機能ブロックは、操作部100と、処理部20
0と、表示部500と、情報記憶媒体300と、一時記
憶部400と、から構成される。
Next, functions required for realizing the present invention using hardware such as a computer will be described. FIG. 15 is a diagram illustrating an example of a functional block. The functional blocks shown in the figure correspond to the functions that operate based on the game information and the game device 1210 shown in FIG.
It consists of functions that it has in advance. According to FIG. 15, the functional blocks are the operation unit 100 and the processing unit 20.
0, a display unit 500, an information storage medium 300, and a temporary storage unit 400.

【0079】操作部100は、図1に示すコントローラ
1202,1204に該当する機能部であって、プレー
ヤがゲームにおける自戦闘機の操作や、ゲームの開始/
中止の指示、選択画面における選択項目の入力等を行う
ためのものである。なお、操作部100は、図1に示し
たコントローラ1202,1204の他、キーボードや
マウス、コントロールパネル、ジョイスティック等の操
作装置により実現可能である。
The operation unit 100 is a functional unit corresponding to the controllers 1202 and 1204 shown in FIG.
This is for giving an instruction to cancel, inputting selection items on a selection screen, and the like. Note that the operation unit 100 can be realized by operation devices such as a keyboard, a mouse, a control panel, and a joystick in addition to the controllers 1202 and 1204 shown in FIG.

【0080】処理部200は、システム全体の制御、シ
ステム内の各ブロックへの命令の指示、ゲーム処理、画
像処理、音処理等の各種処理を行うものであり、その機
能は、各種プロセッサ(CPU、DSP等)、あるいは
ASIC(ゲートアレイ等)等のハードウェアや、所与
のプログラムにより実現できる。また、処理部200に
は、主に、ゲーム演算部220、画像生成部240が含
まれる。
The processing unit 200 performs various processes such as control of the entire system, instruction of instructions to each block in the system, game processing, image processing, sound processing, and the like. , DSP, etc.) or ASIC (gate array, etc.) or a given program. The processing unit 200 mainly includes a game calculation unit 220 and an image generation unit 240.

【0081】ゲーム演算部220は、ゲームの進行処
理、選択画面の設定処理、仮想空間上での各物体(オブ
ジェクト)の位置や向きを決定する処理、視点10の位
置(座標)や視線方向等を決定する処理等、種々のゲー
ム処理を操作部100から入力される操作信号や、情報
記憶媒体300に記憶されたゲーム情報320等に基づ
いて実行する。また、ゲーム演算部220は、本発明に
係る処理を実行するための、地形制御部222と、仮想
体配置部224とを含む。
The game calculation section 220 performs a game progress process, a selection screen setting process, a process of determining the position and orientation of each object in the virtual space, a position (coordinates) of the viewpoint 10, a gaze direction, and the like. Various game processes, such as a process for determining the game information, are executed based on an operation signal input from the operation unit 100, the game information 320 stored in the information storage medium 300, and the like. Further, the game calculation section 220 includes a terrain control section 222 and a virtual body arrangement section 224 for executing the processing according to the present invention.

【0082】地形制御部222は、情報記憶媒体300
に記憶された地形データ330のうち、視点10(およ
び視線方向)に係る範囲の地形データ330を決定する
機能部である。すなわち、地形制御部222は、ゲーム
演算部220により仮想空間における視点10の座標
(XV,YV,ZV)と視線ベクトルとが決定されると、
全地形データ330の中から視点10の水平位置
(XV,0,ZV)を中心とする最大描画範囲54(図5
(a)参照)の地形データを読み出して、地形モデルと
して画像生成部240に出力する。また、地形制御部2
22は、漣モデル90の配置位置を決定し、画像生成部
240に出力する処理を実行する。すなわち、仮想空間
における視点10の座標が決定されると、漣モデル90
の中心点OSUR(図14参照)の位置を視点10の水平
位置(XV,0,ZV)に設定する。
The terrain control unit 222 controls the information storage medium 300
Is a functional unit that determines the terrain data 330 of the range related to the viewpoint 10 (and the line of sight) among the terrain data 330 stored in the. That is, the topography control unit 222, the game calculation section 220 of the viewpoint 10 in the virtual space coordinates (X V, Y V, Z V) When the line of sight vector is determined,
The maximum drawing range 54 (FIG. 5) centered on the horizontal position (X V , 0, Z V ) of the viewpoint 10 from among all the terrain data 330
(A) is read and output to the image generation unit 240 as a terrain model. Terrain control unit 2
22 executes a process of determining the arrangement position of the ripple model 90 and outputting it to the image generation unit 240. That is, when the coordinates of the viewpoint 10 in the virtual space are determined, the ripple model 90
Is set to the horizontal position (X V , 0, Z V ) of the viewpoint 10.

【0083】なお、情報記憶媒体300に記憶される地
形データ330には、仮想空間における陸や海面等の地
形モデルを構成するための各ポリゴンの頂点座標情報等
が記憶される。より詳細には、地形モデルを構成する各
頂点のローカルな座標が記憶され、このローカル座標系
と仮想空間における座標(ワールド座標系)とが対応付
けて記憶される。また、各頂点には、地形モデルを構成
する各ポリゴンの色情報や、各ポリゴンにマッピングす
るテクスチャ情報、色の合成率αの情報等が対応付けて
記憶される。
The terrain data 330 stored in the information storage medium 300 stores vertex coordinate information of each polygon for forming a terrain model such as a land or sea surface in a virtual space. More specifically, local coordinates of each vertex constituting the terrain model are stored, and the local coordinate system and the coordinates in the virtual space (world coordinate system) are stored in association with each other. In addition, color information of each polygon constituting the terrain model, texture information to be mapped to each polygon, information of a color combination rate α, and the like are stored in association with each vertex.

【0084】仮想体配置部224は、ゲーム演算部22
0から視点10の座標データ(XV,YV,ZV)が入力
されると、仮想体40の配置位置を決定する処理を実行
する。すなわち、視点10の高度YVを式(3)に代入
して高さhを算出して、仮想体40の代表点OSのワー
ルド座標系における座標(XV,h,ZV)を決定する。
また、仮想空間における光線ベクトル(XOPT,YOPT
OPT)の水平成分と向き合うように仮想体40のx軸
を向けることによって、仮想体40の配置位置および向
きを決定する。そして、その決定した仮想体40の代表
点の座標および向きを画像生成部240に出力する。
The virtual body arrangement section 224 is provided for the game operation section 22.
When the coordinate data (X V , Y V , Z V ) of the viewpoint 10 is input from 0, a process for determining the arrangement position of the virtual body 40 is executed. That is, a high degree Y V viewpoint 10 calculates the height h is substituted into equation (3), determining the coordinates (X V, h, Z V) in the world coordinate system of the representative point O S hypotheses 40 I do.
Also, a ray vector (X OPT , Y OPT ,
By arranging the x-axis of the virtual body 40 so as to face the horizontal component of Z OPT ), the arrangement position and the direction of the virtual body 40 are determined. Then, the coordinates and direction of the determined representative point of the virtual body 40 are output to the image generation unit 240.

【0085】画像生成部240は、ゲーム演算部220
から入力される指示信号、各種座標データに基づき、ゲ
ーム画像を生成する処理を実行するものであり、CP
U、DSP、画像生成専用のIC、メモリなどのハード
ウェアにより構成される。具体的には、画像生成部24
0は、前方、後方クリッピングを実行してビューボリュ
ーム(すなわち、描画範囲)を決定する処理、各ポリゴ
ンに対する視点10に基づく座標変換処理等のジオメト
リ処理と、色補間処理、陰面消去処理等のレンダリング
処理を実行することによりゲーム画像を生成する。そし
て、生成したゲーム画像を表示部500に表示させる。
なお、生成される画像は、一時記憶部400に一時的に
記憶され、表示タイミングに合わせて表示部500に出
力して表示させる。なお、画像生成部240は、色決定
部242と、フォグ処理部244と、描画部246と、
を含む。
The image generation unit 240 includes a game calculation unit 220
A process of generating a game image based on an instruction signal input from the CPU and various coordinate data.
It is configured by hardware such as a U, a DSP, an IC dedicated to image generation, and a memory. Specifically, the image generation unit 24
0 denotes a process of determining a view volume (that is, a drawing range) by executing forward and backward clipping, a geometry process such as a coordinate conversion process based on the viewpoint 10 for each polygon, and a rendering such as a color interpolation process and a hidden surface removal process. By executing the processing, a game image is generated. Then, the display unit 500 displays the generated game image.
Note that the generated image is temporarily stored in the temporary storage unit 400, and is output to the display unit 500 and displayed according to the display timing. The image generation unit 240 includes a color determination unit 242, a fog processing unit 244, a drawing unit 246,
including.

【0086】色決定部242は、主に、視点10の高度
Vに応じて仮想体40の各特定点の色を変更する処
理、視点10に基づく描画範囲に含まれる仮想体40の
色を決定する処理、などを実行する。すなわち、色決定
部242は、ゲーム演算部220から視点10の座標デ
ータ(XV,YV,ZV)が入力されると、情報記憶媒体
300に記憶された特定点テーブル328を読み出し、
式(1)、式(6)、式(7)に基づいて、最下点44
や中間点の特定点P2A,P2B,P3の色を決定する。
The color determining unit 242 mainly performs processing for changing the color of each specific point of the virtual body 40 according to the height Y V of the viewpoint 10, and changes the color of the virtual body 40 included in the drawing range based on the viewpoint 10. Execute a process to determine. That is, when the coordinate data (X V , Y V , Z V ) of the viewpoint 10 is input from the game calculation unit 220, the color determination unit 242 reads the specific point table 328 stored in the information storage medium 300,
Based on the equations (1), (6) and (7), the lowest point 44
And the colors of the specific points P 2A , P 2B , and P 3 at the intermediate points.

【0087】また、色決定部242は、情報記憶媒体3
00に記憶された仮想体モデルデータ326と、仮想空
間における仮想体40の代表点の座標とに基づいて、仮
想体40を構成する各ポリゴンの頂点の座標(ワールド
座標系における座標)を判定し、描画範囲に係る各ポリ
ゴンおよび各頂点を決定する。そして、決定した各頂点
の色を、特定点に対して決定した色情報に基づいて決定
する。更に、各頂点の色に基づいて、各ポリゴン内の色
を算出して、描画部246に出力する。
Further, the color determining section 242 controls the information storage medium 3
Based on the virtual body model data 326 stored in the virtual body 40 and the coordinates of the representative point of the virtual body 40 in the virtual space, the coordinates of the vertices (coordinates in the world coordinate system) of each polygon constituting the virtual body 40 are determined. , Each polygon and each vertex related to the drawing range are determined. Then, the determined color of each vertex is determined based on the color information determined for the specific point. Further, the color in each polygon is calculated based on the color of each vertex and output to the drawing unit 246.

【0088】フォグ処理部244は、視点10からの距
離に応じて描画範囲内に存在する物体にフォグ処理を施
す機能部である。すなわち、ジオメトリ処理によって、
視点10に基づく座標変換を実行し、視点10に対する
距離が、フォグ開始距離DFNよりも大きく、且つ、フォ
グ極限距離DFFよりも小さい場合には、当該物体に対し
て式(1)によるフォグ処理を実行する。なお、フォグ
処理部244は、フォグの色CFを、視点10から物体
に対するベクトルの向きに応じて決定する。例えば、視
点から物体に対するベクトルの延長線上に海が存在する
場合には、その視線ベクトルと仮想体40との交点の色
をフォグの色として決定する。あるいは、上底円周42
上に設定した特定点に与えた色情報を海上のフォグの色
として設定してもよい。また、物体に対するベクトルの
延長線が陸と交差する場合には、陸の色と同等のフォグ
の色を設定する。更に、物体に対するベクトルが空を指
す場合には、フォグの色として空の色を設定する。
The fog processing section 244 is a functional section that performs fog processing on an object existing within the drawing range according to the distance from the viewpoint 10. In other words, by geometry processing,
When the coordinate transformation based on the viewpoint 10 is performed, and the distance to the viewpoint 10 is larger than the fog start distance D FN and smaller than the fog limit distance D FF , the fog according to the formula (1) is calculated for the object. Execute the process. Incidentally, fog processing unit 244, the fog color C F, determined according to the direction of the vector with respect to the object from the view point 10. For example, when the sea exists on the extension line of the vector from the viewpoint to the object, the color of the intersection between the line-of-sight vector and the virtual body 40 is determined as the fog color. Alternatively, the upper bottom circumference 42
The color information given to the specific point set above may be set as the color of the fog on the sea. If the extension line of the vector with respect to the object intersects the land, a fog color equivalent to the land color is set. Further, when the vector for the object points to the sky, the color of the sky is set as the fog color.

【0089】描画部246は、描画範囲内に存在する物
体について、描画する処理を実行する。すなわち、画像
生成部240によって、ジオメトリ処理を施され、描画
用のスクリーン上の座標(すなわち2次元座標系)が決
定され、且つ、視点10や光源との位置関係に応じた色
情報が決定された物体について、その色情報を一時記憶
部400内のフレームバッファ420に順次記憶する処
理を実行する。ただし、描画部246は、各物体を描画
するに際し、視点10からの奥行に従って各物体をソー
トし、視点10に対して奥に存在する物体から順に描画
する。このとき、色の合成率αを持たない物体(ポリゴ
ン)については、先に描かれた色を排除して、当該物体
の色をフレームバッファ420に記憶させる。一方、合
成率αが設定された物体については、フレームバッファ
420に先に描かれた色情報と、当該物体の色情報とを
合成してフレームバッファ420に記憶する。
The drawing section 246 performs a process of drawing an object existing within the drawing range. That is, the image generation unit 240 performs a geometry process, determines coordinates on the drawing screen (that is, a two-dimensional coordinate system), and determines color information according to the positional relationship with the viewpoint 10 and the light source. A process of sequentially storing the color information of the object in the frame buffer 420 in the temporary storage unit 400 is executed. However, when drawing each object, the drawing unit 246 sorts each object according to the depth from the viewpoint 10 and draws the objects in order from the object located farther from the viewpoint 10. At this time, for an object (polygon) that does not have the color composition ratio α, the color of the object is stored in the frame buffer 420, excluding the previously drawn color. On the other hand, for an object for which the combination rate α is set, the color information previously drawn in the frame buffer 420 and the color information of the object are combined and stored in the frame buffer 420.

【0090】また、描画部246は、1フレームの画像
を生成する際には、必ず、フレームバッファ420内の
データをリセットした後、新たな色情報を順次記憶す
る。その際、描画部246は、仮想体40を最初のフレ
ームバッファ420に描画する。次いで、漣モデル90
を描画し、その後に、地形モデルの描画を開始する。す
なわち、仮想体40がフレームバッファ420に描画さ
れた上に、漣モデル90が描画され、更にその上に、地
形モデルが描画される。このため、地形モデルのうち、
陸部分については、仮想体40および漣モデル90の色
情報に上書きされ、一方、海面部分については、仮想体
40および漣モデル90の色情報とα合成されることと
なる。
Further, when generating an image of one frame, the drawing unit 246 always stores new color information after resetting the data in the frame buffer 420. At this time, the drawing unit 246 draws the virtual body 40 in the first frame buffer 420. Next, Ren model 90
And then start drawing the terrain model. That is, the virtual model 40 is drawn in the frame buffer 420, the ripple model 90 is drawn, and the terrain model is drawn thereon. Therefore, of the terrain models,
The land portion is overwritten with the color information of the virtual body 40 and the ripple model 90, while the sea surface portion is α-combined with the color information of the virtual body 40 and the ripple model 90.

【0091】情報記憶媒体300は、ゲーム装置の駆動
に係るプログラムやゲームを実行するためのプログラ
ム、データを記憶するためのものであり、CD−RO
M、ゲームカセット、ICカード、MO、FD、DV
D、メモリ、ハードディスク等のハードウェアにより実
現できる。なお、情報記憶媒体300は、主に、所与の
ゲームを実行するためのゲーム情報320を記憶する。
なお、ゲーム情報320には、ゲーム演算プログラム3
22や、画像生成プログラム324が含まれる。更に、
ゲーム情報320には、仮想体40のモデル情報(各ポ
リゴンのローカル座標データ等)を記憶した仮想体モデ
ルデータ326、特定点テーブル328、地形データ3
30等を記憶する。
The information storage medium 300 is for storing a program for driving the game apparatus, a program for executing the game, and data.
M, game cassette, IC card, MO, FD, DV
D, a memory, a hard disk or other hardware. Note that the information storage medium 300 mainly stores game information 320 for executing a given game.
The game information 320 includes the game calculation program 3
22 and an image generation program 324. Furthermore,
The game information 320 includes virtual body model data 326 storing model information of the virtual body 40 (such as local coordinate data of each polygon), a specific point table 328, and terrain data 3
30 and the like are stored.

【0092】なお、ゲーム演算プログラム322には、
ゲームシナリオや各物体のポリゴンモデル情報、コント
ローラからの操作信号に係る各物体(自戦闘機や敵の戦
闘機等)の動作を決定するための情報、飛行戦闘ゲーム
の進行に応じて視点10の位置を決定するための情報、
ゲームの進行に係るプレーヤの得点を算出するための情
報等、ゲーム進行に係る情報が含まれる。更に、ゲーム
演算プログラム322には、視点10の高度に応じて仮
想体40の高さを決定するための情報、仮想体40の向
きを決定するための情報などが含まれる。また、画像生
成プログラム324には、ジオメトリ処理やレンダリン
グ処理を実行するために必要な情報や、上記海面を表現
するためのプログラムが含まれる。すなわち、画像生成
プログラム324には、視点10の高さに基づいて特定
点の色を決定するための情報、仮想体40や漣モデル、
地形モデル等を描画する順序を決定するための情報など
が含まれる。
The game operation program 322 includes
The game scenario, polygon model information of each object, information for determining the operation of each object (own fighter, enemy fighter, etc.) related to the operation signal from the controller, and the viewpoint 10 according to the progress of the flight fighting game Information to determine the location,
Information related to the progress of the game, such as information for calculating the score of the player related to the progress of the game, is included. Furthermore, the game calculation program 322 includes information for determining the height of the virtual body 40 according to the altitude of the viewpoint 10, information for determining the orientation of the virtual body 40, and the like. Further, the image generation program 324 includes information necessary for executing a geometry process and a rendering process, and a program for expressing the sea surface. That is, the image generation program 324 includes information for determining the color of the specific point based on the height of the viewpoint 10, the virtual body 40, the ripple model,
Information for determining the order in which the terrain model and the like are drawn is included.

【0093】一時記憶部400は、処理部200が情報
記憶媒体300に記憶された各種プログラムに従って実
行した演算結果や、操作部100から入力される情報、
画像生成部240により生成された画像結果等を一時的
に記憶するためのメモリ領域であり、RAMや、VRA
M等のハードウェアにより実現される。また、一時記憶
部400は、フレームバッファ420を含む。なお、フ
レームバッファ420は、表示部500に画像を表示す
る際の画素毎の色情報を記憶するための記憶メモリであ
る。なお、表示部500は、処理部200から入力され
る指示に従って、一時記憶部400内のフレームバッフ
ァ420に記憶された画像データを表示画面に表示する
機能部である。
Temporary storage section 400 stores calculation results executed by processing section 200 according to various programs stored in information storage medium 300, information input from operation section 100,
A memory area for temporarily storing an image result or the like generated by the image generation unit 240, such as a RAM or a VRA
It is realized by hardware such as M. Further, temporary storage section 400 includes a frame buffer 420. The frame buffer 420 is a storage memory for storing color information for each pixel when displaying an image on the display unit 500. Display unit 500 is a functional unit that displays image data stored in frame buffer 420 in temporary storage unit 400 on a display screen in accordance with an instruction input from processing unit 200.

【0094】次に、図16に示すフローチャートを用い
て、本発明に係る処理について説明する。すなわち、視
点10に基づく描画範囲内に地形モデルが含まれる場合
の処理について説明する。なお、以下の処理は、1フレ
ーム毎に実行するものである。図16によれば、ゲーム
演算部220が操作部100からの入力指示、若しく
は、ゲーム情報320に従って、視点10の座標を決定
する(ステップS1)。次いで、仮想体配置部224
が、ゲーム演算部220により決定された視点10の座
標および、仮想空間における光源の位置に基づいて仮想
体40の向きを決定する(ステップS2)。更に、仮想
体配置部224は、視点10の高さYVおよびフォグ極
限距離DFFに基づいて仮想体40の高さhを決定する
(ステップS3)。
Next, the processing according to the present invention will be described with reference to the flowchart shown in FIG. That is, processing when a terrain model is included in the drawing range based on the viewpoint 10 will be described. The following process is executed for each frame. According to FIG. 16, the game calculation unit 220 determines the coordinates of the viewpoint 10 according to an input instruction from the operation unit 100 or the game information 320 (step S1). Next, the virtual body placement unit 224
Determines the orientation of the virtual body 40 based on the coordinates of the viewpoint 10 determined by the game calculation unit 220 and the position of the light source in the virtual space (step S2). Further, the virtual body placement unit 224 determines the height h of the virtual body 40 based on the height Y V of the viewpoint 10 and the fog limit distance D FF (Step S3).

【0095】色決定部242は、ステップS1にて仮想
空間における視点10の座標が決定すると、視点10の
高さYVに応じて各特定点の色を決定し(ステップS
4)、更に、特定点の色に基づいて仮想体40の色を決
定する(ステップS5)。そして、その決定した仮想体
40の色情報を描画部246に出力する。描画部246
は、まず、色決定部242から入力された仮想体40の
色をフレームバッファ420に描画する(ステップS
6)。次いで、描画部246は、地形制御部222から
入力される座標データに基づいて漣モデルを描画する
(ステップS7)。そして、漣モデルの描画が終了する
と、地形モデルを描画し(ステップS8)、本処理を終
了する。
When the coordinates of the viewpoint 10 in the virtual space are determined in step S1, the color determination unit 242 determines the color of each specific point according to the height Y V of the viewpoint 10 (step S1).
4) Further, the color of the virtual body 40 is determined based on the color of the specific point (step S5). Then, the determined color information of the virtual body 40 is output to the drawing unit 246. Drawing unit 246
First draws the color of the virtual object 40 input from the color determination unit 242 in the frame buffer 420 (step S
6). Next, the drawing unit 246 draws a ripple model based on the coordinate data input from the terrain control unit 222 (Step S7). Then, when the drawing of the ripple model is completed, the terrain model is drawn (step S8), and this processing ends.

【0096】次に、本実施の形態を実現できるハードウ
ェアの構成の一例について、図17を用いて説明する。
同図に示す装置では、CPU1000、ROM100
2、RAM1004、情報記憶媒体1006、音生成I
C1008、画像生成IC1010、VRAM101
2、I/Oポート1014、1016が、システムバス
1018により相互にデータ入出力可能に接続されてい
る。そして、画像生成IC1010には、表示装置10
22が接続され、音生成IC1008には、スピーカ1
020が接続され、I/Oポート1014には、コント
ロール装置1024が接続され、I/Oポート1016
には、通信装置1026が接続されている。
Next, an example of a hardware configuration capable of realizing the present embodiment will be described with reference to FIG.
In the device shown in FIG.
2, RAM 1004, information storage medium 1006, sound generation I
C1008, image generation IC 1010, VRAM 101
2. I / O ports 1014 and 1016 are connected to each other by a system bus 1018 so that data can be input and output therebetween. The image generation IC 1010 includes the display device 10
22 is connected to the sound generation IC 1008 and the speaker 1
020 is connected, the control device 1024 is connected to the I / O port 1014, and the I / O port 1016
Is connected to a communication device 1026.

【0097】情報記憶媒体1006は、図15に示す機
能ブロックにおける情報記憶媒体300に相当するもの
であり、プログラム、表示物を表現するための画像デー
タ、音データ、プレイデータ等が主に格納されるもので
ある。例えば、図1に示す家庭用ゲーム装置1210で
は、ゲーム情報等を格納する情報記憶媒体として、CD
−ROM、ゲームカセット、DVD等が用いられ、プレ
イデータを格納する情報記憶媒体としてメモリカードな
どが用いられる。また、本発明を業務用のゲーム装置に
適用する場合には、ROM等のメモリやハードディスク
が用いられ、この場合には、情報記憶媒体1006は、
ROM1002になる。また、パーソナルコンピュータ
においては、CD−ROM、DVD、ROM等のメモ
リ、ハードディスク等が用いられる。
The information storage medium 1006 corresponds to the information storage medium 300 in the functional block shown in FIG. 15, and mainly stores programs, image data for expressing a display object, sound data, play data, and the like. Things. For example, in the home game device 1210 shown in FIG. 1, a CD is used as an information storage medium for storing game information and the like.
-A ROM, a game cassette, a DVD, or the like is used, and a memory card or the like is used as an information storage medium for storing play data. When the present invention is applied to an arcade game device, a memory such as a ROM or a hard disk is used. In this case, the information storage medium 1006 is
It becomes the ROM 1002. In a personal computer, a memory such as a CD-ROM, a DVD, and a ROM, and a hard disk are used.

【0098】コントロール装置1024は、図1に示す
ゲームコントローラ1202,1204や、操作パネル
等に相当するものであり、ユーザがゲーム進行に応じて
行う判断の結果を装置本体に入力するための装置であ
る。
The control device 1024 corresponds to the game controllers 1202 and 1204, the operation panel, and the like shown in FIG. 1, and is a device for the user to input the result of the determination made in accordance with the progress of the game to the main body of the device. is there.

【0099】情報記憶媒体1006に格納されるプログ
ラム、ROM1002に格納されるシステムプログラム
(装置本体の初期化情報等)、コントロール装置102
4によって入力される信号等に従って、CPU1000
は、装置全体の制御や各種データ処理を行う。RAM1
004は、このCPU1000の作業領域等として用い
られる記憶手段であり、情報記憶媒体1006やROM
1002の所与の内容、あるいはCPU1000の演算
結果が格納される。また、VRAM1012は、図15
に示すフレームバッファ420に相当するものであり、
画素毎の色情報を記憶するための記憶手段であり、表示
装置1022の解像度に応じた記憶容量を必要とするも
のである。
The program stored in the information storage medium 1006, the system program (initialization information of the apparatus main body) stored in the ROM 1002, the control apparatus 102
CPU 1000 according to a signal or the like input by
Performs control of the entire apparatus and various data processing. RAM1
A storage unit 004 is used as a work area or the like of the CPU 1000, and includes an information storage medium 1006 and a ROM.
The given contents of the field 1002 or the operation result of the CPU 1000 are stored. Also, the VRAM 1012 is
And the frame buffer 420 shown in FIG.
This is storage means for storing color information for each pixel, and requires a storage capacity corresponding to the resolution of the display device 1022.

【0100】更に、この種の装置には、音生成IC10
08と画像生成IC1010とが設けられていて、ゲー
ム音やゲーム画像の好適な出力が行えるようになってい
る。音生成IC1008は、情報記憶媒体1006やR
OM1002に記憶される情報に基づいて効果音やバッ
クグラウンド音楽等のゲーム音を生成する集積回路であ
り、生成されたゲーム音は、スピーカ1020によって
出力される。また、画像生成IC1010は、VRAM
1012に記憶された画像情報に基づいて表示装置10
22に出力するための画素情報を生成する集積回路であ
る。すなわち、画像生成IC1010は、VRAM10
12に書き込まれた情報を、表示信号に変換して表示装
置1022に出力する。また表示装置1022は、CR
TやLCD、TV、プラズマディスプレイ、プロジェク
ター等により実現される。
Further, this type of device includes a sound generation IC 10
08 and an image generation IC 1010 are provided so that game sounds and game images can be suitably output. The sound generation IC 1008 includes the information storage medium 1006 and the R
This is an integrated circuit that generates game sounds such as sound effects and background music based on information stored in the OM 1002, and the generated game sounds are output by the speaker 1020. The image generation IC 1010 is a VRAM
Display device 10 based on the image information stored in 1012
22 is an integrated circuit that generates pixel information to be output to the P.22. That is, the image generation IC 1010 includes the VRAM 10
12 is converted into a display signal and output to the display device 1022. The display device 1022 has a CR
It is realized by T, LCD, TV, plasma display, projector and the like.

【0101】また、通信装置1026は、ゲーム装置内
部で利用される各種の情報を外部とやり取りするもので
あり、他のゲーム装置と接続されてゲーム情報に応じた
所与の情報を送受したり、通信回線を介して、ゲーム情
報等の情報を送受すること等に利用される。
The communication device 1026 exchanges various types of information used inside the game device with the outside. The communication device 1026 is connected to another game device to transmit / receive given information corresponding to the game information. It is used for transmitting and receiving information such as game information via a communication line.

【0102】また、図1〜図15で説明した種々の処理
は、図16のフローチャートに示した処理等を行うため
のプログラムを格納した情報記憶媒体1006と、該プ
ログラムに従って動作するCPU1000、画像生成I
C1010、音生成IC1008等によって実現され
る。なお、画像生成IC1010、音生成IC1008
等で行われる処理は、CPU1000あるいは汎用のD
SP等によりソフトウェア的に行ってもよい。
The various processes described with reference to FIGS. 1 to 15 include an information storage medium 1006 storing a program for performing the processes shown in the flowchart of FIG. 16, a CPU 1000 operating according to the program, and I
C1010, a sound generation IC 1008, and the like. Note that the image generation IC 1010 and the sound generation IC 1008
The processing performed by the CPU 1000 or the general-purpose D
This may be performed by software using an SP or the like.

【0103】なお、本発明は、図1に示した家庭用のゲ
ーム装置1210だけでなく、他のいかなる形態のゲー
ム装置に適用してもかまわない。例えば、図18に、ホ
スト装置1300と、このホスト装置1300と通信回
線1302を介して接続される端末1304−1〜13
04−nとを含むゲーム装置に本実施の形態を適用した
場合の例を示す。
The present invention may be applied not only to the home game apparatus 1210 shown in FIG. 1 but also to any other form of game apparatus. For example, FIG. 18 illustrates a host device 1300 and terminals 1304-1 to 1304-1 connected to the host device 1300 via a communication line 1302.
An example in which the present embodiment is applied to a game device including the game device 04-n will be described.

【0104】図18に示す形態の場合、図15に示した
情報記憶媒体300に記憶されるゲーム情報320等
は、例えば、ホスト装置1300が制御可能な磁気ディ
スク装置、磁気テープ装置、メモリ等の情報記憶媒体1
306に格納されている。また、端末1304−1〜1
304−nが、CPU、画像生成IC、音生成IC、を
有し、スタンドアローンでゲーム画像、ゲーム音を生成
できるものである場合には、ホスト装置1300から
は、ゲーム画像、ゲーム音を生成するためのゲーム情報
320等が端末1304−1〜1304−nに配送され
る。一方、スタンドアローンで生成できない場合には、
ホスト装置1300がゲーム画像、ゲーム音を生成し、
これを端末1304−1〜1304−nに伝送し端末に
おいて出力することになる。
In the case of the embodiment shown in FIG. 18, the game information 320 and the like stored in the information storage medium 300 shown in FIG. 15 are stored in, for example, a magnetic disk device, a magnetic tape device, Information storage medium 1
306. Also, the terminals 1304-1 to 1304-1
When the CPU 304-n has a CPU, an image generation IC, and a sound generation IC and can generate a game image and a game sound in a stand-alone manner, the host device 1300 generates a game image and a game sound. Is transmitted to the terminals 1304-1 to 1304-n. On the other hand, if it cannot be generated standalone,
The host device 1300 generates a game image and a game sound,
This is transmitted to the terminals 1304-1 to 1304-n and output at the terminals.

【0105】あるいは、図19に示すように、本実施の
形態を業務用ゲーム装置600に適用してもよい。この
業務用ゲーム装置600は、プレーヤがスピーカ606
から出力される音を聞きながら、操作ボタン604を操
作することによって、ディスプレイ602上に表示され
る自戦闘機を操作して所与のゲームを楽しむ装置であ
る。業務用ゲーム装置600に内蔵されるシステム基板
608には、CPU、画像生成IC、音生成IC等が実
装されている。そして、ゲーム情報320等は、システ
ム基板608上の情報記憶媒体であるメモリ610に格
納されている。
Alternatively, as shown in FIG. 19, the present embodiment may be applied to an arcade game device 600. In this arcade game device 600, the player has a speaker 606.
By operating the operation button 604 while listening to the sound output from the player, the user operates the own fighter displayed on the display 602 to enjoy a given game. A CPU, an image generation IC, a sound generation IC, and the like are mounted on a system board 608 incorporated in the arcade game device 600. The game information 320 and the like are stored in a memory 610 which is an information storage medium on the system board 608.

【0106】なお、本発明は、上記実施の形態で説明し
たものに限らず、種々の変形実施が可能である。例え
ば、本実施の形態では、視点10の座標をY軸に沿って
平行投影した地表上の位置からフォグ極限距離DFF隔て
た位置を最大描画範囲54とし、この位置を水平線の位
置となるものとして説明した。しかし、水平線の位置を
この位置に限定する必要はなく、別の手段によってより
尤らしい水平線の位置を決定することとしてもよい。
The present invention is not limited to those described in the above embodiments, and various modifications can be made. For example, those in the present embodiment, a position separated fog extreme distance D FF coordinates of the viewpoint 10 from position on the parallel projection the surface along a Y axis and the maximum drawing range 54, comprising the position and position of the horizon It was explained as. However, the position of the horizon need not be limited to this position, and a more likely position of the horizon may be determined by another means.

【0107】図20は、本実施の形態における仮想体4
0に、水平線の位置から最大描画位置までの海の色を決
定するための側部を組み合わせた一例を示す図である。
同図によれば、視点10の座標の水平位置O(XV
0,ZV)から距離DHの位置を水平線の位置702と
し、水平線位置702から最大描画円周52までの海の
色を側部700によって表現する。このように、水平線
の位置を最大描画範囲54とは無関係に設定し、最大描
画円周52から設定した水平線の位置702までの色を
側部700によって補うことにより、常に尤らしい位置
に水平線を表現することができる。
FIG. 20 shows virtual object 4 in the present embodiment.
FIG. 11 is a diagram illustrating an example in which a side portion for determining the color of the sea from the position of the horizontal line to the maximum drawing position is combined with 0.
According to the figure, the horizontal position O (X V ,
The position of the distance DH from 0, Z V ) is defined as the position 702 of the horizontal line, and the color of the sea from the horizontal line position 702 to the maximum drawing circle 52 is expressed by the side 700. In this way, by setting the position of the horizontal line independently of the maximum drawing range 54 and supplementing the color from the maximum drawing circle 52 to the set horizontal line position 702 by the side part 700, the horizontal line is always set at a likely position. Can be expressed.

【0108】また、本実施の形態では、仮想体40を略
半球の形状のものとして説明したが、これに限定する必
要は無く、例えば、以下のような変更も可能である。図
21は、仮想体を球710によって構成した一例を示す
図であり、球状仮想体710の断面を示す図である。同
図によれば、視点10の座標の水平位置Oからフォグ極
限距離DFFまでの範囲を、球状仮想体710のo´点か
らdFF点までの範囲の色によって決定し、視点10から
の距離がフォグ極限距離DFFから水平線位置702(距
離DH)までの範囲については、球状仮想体のdFF点か
らdH点までの範囲の色によって決定する。ただし、こ
のように、球状の仮想体を採用する場合には、視点10
とフォグ極限距離とを結ぶ直線と仮想体との交点に特定
点P1A,P1Bが位置するように常に変更する必要があ
る。また、同様に、特定点P 2A,P2Bについては、最下
点44であるP3と特定点P1A,P1Bとの中点に変更す
る。
In the present embodiment, the virtual body 40 is
Although described as having a hemispherical shape, it is necessary to limit it to this.
It is not necessary, and for example, the following changes are possible. Figure
21 shows an example in which a virtual body is configured by a sphere 710
It is a figure and is a figure showing the section of spherical virtual object 710. same
According to the figure, the horizontal position O of the coordinates of the viewpoint 10 and the fog pole
Limit distance DFFThe range up to the o ′ point of the spherical virtual body 710
DFFDetermined by the color of the range up to the point, from the viewpoint 10
Is the fog limit distance DFFFrom horizontal line position 702 (distance
Release DH), The spherical virtual body dFFPoint or
DHDetermined by the color of the range up to the point. However, this
When a spherical virtual body is adopted as shown in FIG.
At the intersection of the line connecting the fog limit distance with the virtual body
Point P1A, P1BMust always be changed to
You. Similarly, the specific point P 2A, P2BAbout the bottom
P at point 44ThreeAnd the specific point P1A, P1BChange to the midpoint of
You.

【0109】あるいは、仮想体は、平面的な形状であっ
てもかまわない。図22は、仮想体を平面によって構成
した一例を示す図であり、(a)は、最大描画範囲54
を覆う正方形範囲720と同等の大きさおよび形状に仮
想体730を定義した一例を、(b)は、最大描画範囲
54を覆う正方形範囲720と比例する大きさに仮想体
740を定義した一例を示す図である。このように仮想
体を平面的に設定する場合には、仮想体上に予め色の分
布が定義されたテクスチャをマッピングするとよい。そ
して、視点10の高度YVに応じてフォグとなる基調色
を順次合成すれば、徐々に海や湖の色が霞んで見えなく
なるように表現できる。ただし、平面的な仮想体を採用
する場合には、(b)に示すように、仮想体740上に
正方形範囲720上の最大描画円周52と対応する円周
742を定義し、視点10と最大描画円周52とを結ぶ
直線750が、定義した円周742と交わるように仮想
体740を配置する。また、基準となる方向を定義し、
その定義した方向が常に光源方向を向くように仮想体7
40を回転させて配置するとよい。
Alternatively, the virtual body may have a planar shape. FIG. 22 is a diagram illustrating an example in which the virtual body is configured by a plane, and FIG.
(B) shows an example in which the virtual body 740 is defined to have a size and shape equivalent to the square area 720 that covers the maximum drawing area 54 and a virtual body 740 defined to have a size proportional to the square area 720 that covers the maximum drawing area 54. FIG. When the virtual body is set in a plane as described above, a texture in which the color distribution is defined in advance may be mapped on the virtual body. Then, by sequentially synthesizing the base colors to be fog in accordance with the height Y V of the viewpoint 10, it is possible to express the color of the sea or lake gradually so as to become invisible. However, when a planar virtual body is adopted, a circumference 742 corresponding to the maximum drawing circumference 52 on the square range 720 is defined on the virtual body 740 as shown in FIG. The virtual body 740 is arranged so that a straight line 750 connecting to the maximum drawing circumference 52 intersects the defined circumference 742. Also, define a reference direction,
Virtual body 7 so that the defined direction always faces the light source direction.
It is good to rotate and arrange 40.

【0110】なお、本実施の形態で説明した描画の順序
は仮想体の形状に拘わらず等しい。すなわち、描画順序
は、仮想体を描画した後、漣モデルを描画し、次いで、
地形モデルを描画する。
The order of drawing described in the present embodiment is the same regardless of the shape of the virtual body. That is, the drawing order is such that, after drawing the virtual body, drawing the ripple model,
Draw a terrain model.

【0111】また、本実施の形態では、図14に示した
ように、漣モデル90を最大描画範囲54と同等の大き
さおよび形状のものとし、視点10の移動に追従して移
動させるものとして説明した。しかし、このように、漣
モデル90を視点10の動きに追従させた場合、どの方
向の海面を見ても常に波の様子が等しく、画像を見るプ
レーヤに対して違和感を与える恐れがある。そこで、漣
モデルを最大描画範囲に限定せず、地形全体に定義す
る。そして、地表面50を描画する際には、地形モデル
に含まれる海面の有無に拘わらず、視点10の水平位置
に係る範囲の漣モデルを読み出して描画することとして
もよい。
In the present embodiment, as shown in FIG. 14, the ripple model 90 has the same size and shape as the maximum drawing range 54, and moves following the movement of the viewpoint 10. explained. However, when the ripple model 90 is made to follow the movement of the viewpoint 10 in this manner, the waves are always the same regardless of the sea surface in any direction, and there is a possibility that the player viewing the image may feel uncomfortable. Therefore, the ripple model is not limited to the maximum drawing range, but is defined for the entire terrain. When the ground surface 50 is drawn, it is also possible to read and draw a ripple model in a range related to the horizontal position of the viewpoint 10 regardless of the presence or absence of the sea surface included in the terrain model.

【0112】また、視点10の高度に応じて仮想体上に
定義した特定点の色に、上底に設定された特定点の色を
合成することとして説明した。しかし、必ずしも上底の
色に近づける必要はなく、別途独立した色味を視点10
の高さに応じて各特定点の色に合成してもよい。更に、
本実施の形態では、1種類の特定点テーブル328を参
照して各特定点の色を決定することとして説明したが、
視点10の高度YVや水平位置O、視線方向等の変化に
伴って、参照する特定点テーブルを変更してもよい。す
なわち、予め複数の特定点テーブルを用意し、仮想空間
における視点10の位置、視線方向に応じて順次採用す
る特定点テーブルを決定する。また、複数の特定点テー
ブルを採用する場合には、各特定点の色が急激に変化し
ないように、2以上の特定点テーブルに記憶された色情
報をそれぞれ視点10との位置関係に基づいて合成して
採用することとしてもよい。
Also, it has been described that the color of the specific point set on the upper base is combined with the color of the specific point defined on the virtual body according to the altitude of the viewpoint 10. However, it is not always necessary to approach the color of the upper bottom, and a separate color
May be combined with the color of each specific point according to the height of the image. Furthermore,
In the present embodiment, the color of each specific point is determined with reference to one type of specific point table 328.
Advanced Y V and the horizontal position O of the viewpoint 10, with changes in such viewing direction, may modify certain point table to be referred. That is, a plurality of specific point tables are prepared in advance, and the specific point tables to be sequentially adopted are determined according to the position of the viewpoint 10 in the virtual space and the line-of-sight direction. When a plurality of specific point tables are used, the color information stored in two or more specific point tables is determined based on the positional relationship with the viewpoint 10 so that the color of each specific point does not suddenly change. It is good also as combining and adopting.

【0113】更に、本実施の形態では、島の浅瀬や珊瑚
礁、海底の深さなどを表現する場合には、海面を表現す
るための半透明ポリゴンに浅瀬用の色を配色し、これに
よって海の高低を表現することとして説明した。しか
し、これに限定する必要はなく、浅瀬や珊瑚礁を表現す
るための浅瀬オブジェクトを海面となる半透明ポリゴン
の下に配置する構成にしてもよい。そして、この浅瀬用
オブジェクトを、仮想体を描画した後で、且つ、地形モ
デルを描画する前に描画する。このとき、浅瀬オブジェ
クトには、α値(すなわち、色の合成率)を設定し、浅
瀬オブジェクトを描画する際には常に既に描画された仮
想体の色と合成するように設定する。ここで、浅瀬オブ
ジェクトは、山や陸の地形モデルと同様な3次元座標系
によって定義されるリアルなモデルであってもよいが、
単なる平面のオブジェクトであってもよい。ただし、平
面的なオブジェクトによって浅瀬を表現する場合には、
浅瀬オブジェクトの表面に浅瀬の色合いや濃淡を付すこ
とによって、立体的に見えるように工夫する。また、合
成率αの値を浅瀬オブジェクトに均一に設定するのでは
なく、浅瀬オブジェクト内の位置に応じて値を変化させ
てもよい。
Further, in the present embodiment, when expressing shallows, coral reefs, and the depth of the seabed of an island, a translucent polygon for expressing the sea surface is provided with a color for the shallows, whereby Has been described as expressing the high and low. However, the present invention is not limited to this, and a shallow water object for expressing a shallow water or coral reef may be arranged below a translucent polygon serving as the sea surface. Then, the shallow object is drawn after drawing the virtual body and before drawing the terrain model. At this time, an α value (that is, a color composition ratio) is set for the shallows object, and is set so that when the shallows object is drawn, it is always combined with the color of the virtual body already drawn. Here, the shallows object may be a realistic model defined by a three-dimensional coordinate system similar to a mountain or land terrain model,
It may be a simple planar object. However, when expressing shallow water with planar objects,
The surface of the shallows object is shaded and shaded to give a three-dimensional appearance. Further, the value of the composition ratio α may not be set uniformly for the shallow object, but may be changed according to the position in the shallow object.

【0114】図23は、陸部分762と海面部分764
とを含む地形モデル760の断面を模式的に表現した図
であり、浅瀬オブジェクト770を配置した一例を示す
ものである。同図に示すように、浅瀬オブジェクト77
0を陸部分762と海面部分764との境界近傍の下に
配置する。このとき、浅瀬オブジェクト770の陸方向
から海の沖方向にかけて、α値が大きくなるように設定
すれば、浅瀬オブジェクト770が陸から海の沖にかけ
て徐々に海の色に溶け込んで見えなくなるように表現す
ることができる。したがって、海の底が徐々に深くな
り、深海に至る様子を表現することができる。
FIG. 23 shows a land portion 762 and a sea surface portion 764.
FIG. 9 is a diagram schematically illustrating a cross section of a terrain model 760 including a terrain model 760, and illustrates an example in which a shallow water object 770 is arranged. As shown in FIG.
0 is located below the vicinity of the boundary between the land portion 762 and the sea surface portion 764. At this time, if the α value is set so as to increase from the land direction of the shallows object 770 to the offshore direction of the sea, the expression is such that the shallows object 770 gradually blends into the color of the sea from the land to the offshore to become invisible. can do. Therefore, it is possible to express a state in which the bottom of the sea gradually deepens and reaches the deep sea.

【0115】あるいは、α値の異なる浅瀬オブジェクト
を何層にも重ねて配置してもよい。図24は、陸部分7
62と海面部分764とを含む地形モデル760の断面
を模式的に表現した図であり、浅瀬オブジェクト770
−1〜3を3層に重ねて表示した一例を示すものであ
る。同図によれば、3枚の浅瀬オブジェクト7701〜
3が、陸から海の沖にかけて徐々にずらして配置されて
いる。このとき、最下層の浅瀬オブジェクト770−3
の合成率αを高く、且つ、最も沖よりに配置し、最上層
の浅瀬オブジェクト770−1の合成率αを比較的低め
に、且つ、最も陸よりに配置すれば、海の底が段階的に
深くなるように表現することができる。また、このよう
に、層状に浅瀬オブジェクトを配置すれば、その浅瀬を
見る高さや方向に応じて海底の地形が異なるように見え
るため、より海底を立体的に且つリアルに表現すること
ができる。
Alternatively, shallow objects having different α values may be arranged in multiple layers. FIG.
FIG. 47 is a diagram schematically illustrating a cross section of a terrain model 760 including a sea surface portion 764 and a shallow water object 770.
This shows an example in which -1 to -3 are displayed in three layers. According to the drawing, three shallow objects 7701-
3 are staggered from land to offshore. At this time, the lowermost shallows object 770-3
If the composition rate α of the uppermost shallows object 770-1 is relatively low and the composition rate α of the uppermost shallows object 770-1 is relatively low, and it is located most offshore, the bottom of the sea will be stepped. Can be expressed to be deeper. In addition, when the shallow objects are arranged in layers as described above, the topography of the seabed looks different depending on the height and direction in which the shallows are viewed, so that the seabed can be represented more three-dimensionally and more realistically.

【0116】なお、本実施の形態では、仮想体を用いて
海などの広い水面の色を表現する場合について説明した
が、陸地を流れる河川や溜め池、棚田、水田、湖沼など
の水面の色を本発明によって表現しても良いことは勿論
である。すなわち、地形モデルのうちの陸部分について
も(すなわち、地表面50の面上でない位置について
も)、半透過ポリゴンを設定すれば、簡単に水面を表現
することができる。なお、棚田や湖など、水面となる部
分の高さが水面毎に異なる場合には、各水面の高さと視
点の高さに応じて仮想体の配置位置を逐次変更してもよ
いし、全ての高さの水面について1つの仮想体によって
表現してもよい。また、川等を表現する場合には、当該
川の水面が必ずしも水平である必要はなく、水面が斜面
となるような場合であっても本発明の適用に支障を来す
ものではない。
In this embodiment, a case has been described where the color of a wide surface of water such as the sea is represented by using a virtual body. May be expressed by the present invention. In other words, the water surface can be easily expressed by setting the semi-transparent polygon for the land portion of the terrain model (that is, for a position that is not on the ground surface 50). If the height of the water surface, such as a terraced rice field or a lake, is different for each water surface, the arrangement position of the virtual body may be sequentially changed according to the height of each water surface and the height of the viewpoint, May be represented by one virtual body. In addition, when expressing a river or the like, the water surface of the river does not necessarily have to be horizontal, and even if the water surface is a slope, application of the present invention is not hindered.

【0117】また、本発明の適用については、上記飛行
戦闘ゲームに限定する必要はなく、水場が登場するゲー
ムであれば、格闘アクションゲームであってもよいし、
RPGや、レースゲーム等のゲームに適用してもかまわ
ない。あるいは、フライトシミュレータ等のシミュレー
ション装置に本発明を適用してもよい。
Further, the application of the present invention is not limited to the above-mentioned flying battle game, and may be a fighting action game as long as it is a game in which a water place appears.
It may be applied to games such as RPG and racing games. Alternatively, the present invention may be applied to a simulation device such as a flight simulator.

【0118】[0118]

【発明の効果】本発明によれば、仮想空間における地表
を表現する際に、水面となる部分については半透明ポリ
ゴン(透過体)によって表現する。一方で、仮想体に海
や湖などの水の色を定義する。そして、当該仮想体を描
画してから水面等を含む地形モデルを描画する。すなわ
ち、先に描画した仮想体の色は、半透明ポリゴンによっ
て構成された水面部分にのみ合成されて残ることとな
る。このとき、仮想体を略半球状に設定し、半球体の縁
部に明るい色を、半球体の頭頂部分に暗い色を配色し、
当該頭頂部分が視点の鉛直下方向に位置するように配置
することとしたため、視点近傍の水面の色は常に暗く、
視点から遠ざかるにつれて水面の色が明るくなるように
表現することができる。
According to the present invention, when expressing the surface of the earth in a virtual space, a portion to be a water surface is represented by a semi-transparent polygon (transmissive body). On the other hand, the colors of water such as the sea and lake are defined in the virtual body. Then, after drawing the virtual body, the terrain model including the water surface and the like is drawn. In other words, the color of the previously drawn virtual body is synthesized and remains only in the water surface portion formed by the translucent polygon. At this time, the virtual body is set to be substantially hemispherical, a bright color is arranged on the edge of the hemisphere, and a dark color is arranged on the top of the hemisphere,
Because the top of the head was placed vertically below the viewpoint, the color of the water surface near the viewpoint was always dark,
The color of the water surface becomes brighter as the distance from the viewpoint increases.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明を家庭用のゲーム装置に適用した一例を
示す図である。
FIG. 1 is a diagram showing an example in which the present invention is applied to a home game device.

【図2】描画範囲の一例を示す図である。FIG. 2 is a diagram illustrating an example of a drawing range.

【図3】視点の位置と視線方向の変化に伴う水面の見え
方の変化を説明するための図である。
FIG. 3 is a diagram for explaining a change in the appearance of a water surface due to a change in a viewpoint position and a line-of-sight direction.

【図4】(a)は、仮想体の斜め上方から見た図であ
る。(b)は、仮想体の側面図である。(c)は、仮想
体の平面図である。
FIG. 4A is a diagram of a virtual body viewed from obliquely above. (B) is a side view of the virtual body. (C) is a plan view of the virtual body.

【図5】(a)は、仮想空間の斜方向から見た図であ
り、仮想体の配置例を示す図である。(b)は、(a)
に示す仮想体の断面図である。
FIG. 5A is a diagram viewed from an oblique direction of a virtual space, and is a diagram illustrating an example of an arrangement of a virtual body; (B) is (a)
It is sectional drawing of the virtual body shown in FIG.

【図6】(a)は、視点の位置が比較的低いときの仮想
体の配置例を示す図である。(b)は、視点の位置が比
較的高いときの仮想体の配置例を示す図である。
FIG. 6A is a diagram illustrating an example of the arrangement of virtual bodies when the position of a viewpoint is relatively low. (B) is a figure which shows the example of arrangement | positioning of a virtual body when the position of a viewpoint is comparatively high.

【図7】仮想体を光線方向に向けて配置した一例を示す
図である。
FIG. 7 is a diagram illustrating an example in which a virtual body is arranged in a light beam direction.

【図8】特定点の設定例を示す図である。FIG. 8 is a diagram illustrating an example of setting a specific point.

【図9】特定点テーブルの一例を示す図である。FIG. 9 is a diagram illustrating an example of a specific point table.

【図10】任意の頂点vの色を決定する処理を説明する
ための図である。
FIG. 10 is a diagram for explaining a process of determining a color of an arbitrary vertex v.

【図11】視点の真下に存在する物体にフォグ処理を施
すこととなる一例を示す図である。
FIG. 11 is a diagram illustrating an example in which an object existing immediately below a viewpoint is subjected to fog processing.

【図12】視点の高度に応じた最下点にある特定点の色
の変化を示すグラフである。
FIG. 12 is a graph showing a change in color of a specific point at the lowest point according to the height of the viewpoint.

【図13】浅瀬を表現した一画像例である。FIG. 13 is an example of an image expressing a shallow water.

【図14】漣モデルを配置する一例を示す図である。FIG. 14 is a diagram illustrating an example of arranging a ripple model.

【図15】機能ブロックの一例を示す図である。FIG. 15 is a diagram illustrating an example of a functional block.

【図16】本実施の形態における処理を説明するための
フローチャートである。
FIG. 16 is a flowchart for describing processing in the present embodiment.

【図17】本実施の形態を実現可能とするハードウェア
構成の一例を示す図である。
FIG. 17 is a diagram illustrating an example of a hardware configuration capable of realizing the present embodiment.

【図18】ホスト装置と通信回線を介して接続されるゲ
ーム端末に本実施の形態を適用した場合の一例を示す図
である。
FIG. 18 is a diagram illustrating an example in which the present embodiment is applied to a game terminal connected to a host device via a communication line.

【図19】本発明を業務用のゲーム装置に適用した場合
の一例を示す図である。
FIG. 19 is a diagram showing an example of a case where the present invention is applied to an arcade game device.

【図20】本実施の形態における仮想体に水平線までの
色を決定するための側部を組み合わせた一例を示す図で
ある。
FIG. 20 is a diagram showing an example in which a virtual body according to the present embodiment is combined with a side portion for determining a color up to a horizontal line.

【図21】仮想体を球状のオブジェクトによって表現し
た一例を示す図である。
FIG. 21 is a diagram illustrating an example in which a virtual body is represented by a spherical object.

【図22】(a)は、仮想体を最大描画範囲を含む正方
形範囲と合同な平面によって構成した一例を示す図であ
る。(b)は、仮想体を正方形範囲と比例する平面によ
って構成した一例を示す図である。
FIG. 22A is a diagram illustrating an example in which a virtual body is configured by a plane congruent with a square range including a maximum drawing range. (B) is a figure which shows an example which comprised the virtual body with the plane proportional to a square range.

【図23】仮想空間に浅瀬用のオブジェクトを配置した
一例を示す図である。
FIG. 23 is a diagram showing an example in which objects for shallow water are arranged in a virtual space.

【図24】仮想空間に浅瀬用のオブジェクトを層状に配
置した一例を示す図である。
FIG. 24 is a diagram showing an example in which shallow objects are arranged in layers in a virtual space.

【符号の説明】[Explanation of symbols]

100 操作部 200 処理部 220 ゲーム演算部 222 地形制御部 224 仮想体配置部 240 画像生成部 242 色決定部 244 フォグ処理部 246 描画部 300 情報記憶媒体 320 ゲーム情報 322 ゲーム演算プログラム 324 画像生成プログラム 326 仮想体モデルデータ 328 特定点テーブル 330 地形データ 400 一時記憶部 420 フレームバッファ 300 表示部 REFERENCE SIGNS LIST 100 operation unit 200 processing unit 220 game calculation unit 222 terrain control unit 224 virtual body placement unit 240 image generation unit 242 color determination unit 244 fog processing unit 246 drawing unit 300 information storage medium 320 game information 322 game calculation program 324 image generation program 326 Virtual body model data 328 Specific point table 330 Topographic data 400 Temporary storage unit 420 Frame buffer 300 Display unit

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 2C001 AA06 BA02 BA05 BB01 BC02 BC03 BC04 BC06 CA02 CB01 CB03 CC01 CC08 5B050 BA07 BA08 BA09 BA11 EA19 EA29 FA02  ──────────────────────────────────────────────────続 き Continued on the front page F term (reference) 2C001 AA06 BA02 BA05 BB01 BC02 BC03 BC04 BC06 CA02 CB01 CB03 CC01 CC08 5B050 BA07 BA08 BA09 BA11 EA19 EA29 FA02

Claims (16)

【特許請求の範囲】[Claims] 【請求項1】プロセッサによる演算・制御により、装置
に対して、所与の視点に基づく仮想空間の画像を生成し
て所与のゲームを実行させるためのゲーム情報であっ
て、 所与の水平面を前記仮想空間に設定する設定手段と、 略板状の透過体を前記所与の水平面に配置する透過体配
置手段と、 所与の色情報を有する仮想体を前記仮想空間に配置する
仮想体配置手段と、 前記透過体を描画する際に、前記所与の視点と前記仮想
体の所与の点とを結ぶ直線が前記透過体と交差する場合
には、当該透過体の色情報と当該仮想体の色情報とを合
成して当該透過体を描画する描画手段と、 を前記装置に機能させるための情報を含むゲーム情報。
Claims 1. Game information for causing a device to generate an image of a virtual space based on a given viewpoint and to execute a given game by calculation and control by a processor, comprising: a given horizontal plane Setting means for setting a virtual body in the virtual space; transmitting body arranging means for arranging a substantially plate-shaped transparent body on the given horizontal plane; and a virtual body for arranging a virtual body having given color information in the virtual space. Arranging means, when drawing the transparent body, if a straight line connecting the given viewpoint and a given point of the virtual body intersects with the transparent body, color information of the transparent body and the Drawing means for combining the color information of the virtual body and drawing the transparent body; and game information including information for causing the apparatus to function as:
【請求項2】請求項1において、 前記設定手段が、前記仮想空間に含まれる水面を前記所
与の水平面とするための情報を含むゲーム情報。
2. The game information according to claim 1, wherein the setting means includes information for setting a water surface included in the virtual space to the given horizontal surface.
【請求項3】請求項2において、 前記透過体配置手段が、前記水面下に物体が存在する場
合には、当該物体の色情報を前記透過体の色情報に含ま
せるための情報を含むゲーム情報。
3. The game according to claim 2, wherein, when an object exists under the water surface, the transparent body arranging means includes information for including color information of the object in the color information of the transparent body. information.
【請求項4】請求項1から3のいずれかにおいて、 前記仮想体は所定形状であって、 前記仮想体配置手段が、前記所与の視点に追従させて前
記仮想体を前記仮想空間に配置するための情報を含むゲ
ーム情報。
4. The virtual body according to claim 1, wherein the virtual body has a predetermined shape, and the virtual body arranging means arranges the virtual body in the virtual space so as to follow the given viewpoint. Game information including information to play.
【請求項5】請求項4において、 前記仮想空間に地表描画範囲を設定する手段を前記装置
に機能させるための情報と、 前記仮想体配置手段が、前記仮想体の縁部と前記所与の
視点を通る直線が、前記地表描画範囲の縁部近傍に交差
するように前記仮想体を配置するための情報と、 前記設定手段が、前記地表描画範囲内に前記所与の水平
面を設定するための情報と、 を含むゲーム情報。
5. The virtual body according to claim 4, wherein information for causing the device to function as a means for setting a ground surface drawing range in the virtual space, and wherein the virtual body arranging means includes an edge of the virtual body and the given object. Information for arranging the virtual body such that a straight line passing through the viewpoint intersects near the edge of the ground surface drawing range, and the setting unit sets the given horizontal plane within the ground surface drawing range. And game information, including.
【請求項6】請求項1から5のいずれかにおいて、 前記仮想体配置手段が、前記仮想体の基準方向を、前記
仮想空間における所与の方向に向けて配置するための情
報を含むゲーム情報。
6. The game information according to claim 1, wherein the virtual body arranging means includes information for arranging a reference direction of the virtual body in a given direction in the virtual space. .
【請求項7】請求項6において、 前記仮想体配置手段が、前記仮想空間における光源の方
向を前記所与の方向とするための情報を含むゲーム情
報。
7. The game information according to claim 6, wherein the virtual body arranging means includes information for setting a direction of a light source in the virtual space to the given direction.
【請求項8】請求項1から7のいずれかにおいて、 少なくとも、前記仮想空間における前記所与の視点の高
度に応じて、前記仮想体の色情報を決定する色決定手
段、を前記装置に機能させるための情報を含むゲーム情
報。
8. The apparatus according to claim 1, wherein at least a color determination unit that determines color information of the virtual body according to an altitude of the given viewpoint in the virtual space is provided in the apparatus. Game information including information for causing the game to be performed.
【請求項9】請求項8において、 前記色決定手段は、 前記仮想体に特定点及び当該特定点の色情報を設定する
とともに、少なくとも前記所与の視点の高度に応じて、
前記特定点の色情報を変更する特定点設定手段を備え、
この特定点設定手段により設定された特定点の色情報に
基づいて、前記仮想体における所与の位置の色情報を決
定するための情報を含むゲーム情報。
9. The image processing apparatus according to claim 8, wherein the color determination means sets a specific point and color information of the specific point in the virtual body, and at least according to the altitude of the given viewpoint.
A specific point setting unit that changes color information of the specific point,
Game information including information for determining color information at a given position in the virtual body based on the color information of the specific point set by the specific point setting means.
【請求項10】請求項9において、 前記特定点設定手段が、複数の特定点を前記仮想体に設
定し、当該複数の特定点の内、少なくとも一の特定点の
色情報と他の特定点の色情報とを前記所与の視点の位置
に基づいて配合し、配合した色情報を当該他の特定点の
色情報として設定するための情報を含むゲーム情報。
10. The specific point setting unit according to claim 9, wherein the specific point setting means sets a plurality of specific points in the virtual body, and sets color information of at least one specific point among the plurality of specific points and another specific point. Game information including information for blending the color information of the specific viewpoint with the color information of the specific viewpoint and setting the blended color information as the color information of the other specific point.
【請求項11】請求項10において、 前記特定点設定手段が、前記所与の視点の高度が上がる
に従って、前記他の特定点の色情報を、前記一の特定点
の色情報に近づけるように前記配合を行うための情報を
含むゲーム情報。
11. The specific point setting means according to claim 10, wherein, as the altitude of the given viewpoint increases, the color information of the other specific point approaches the color information of the one specific point. Game information including information for performing the blending.
【請求項12】請求項10または11において、 前記特定点設定手段が、前記一の特定点の色情報として
フォグの色情報を設定するための情報を含むゲーム情
報。
12. The game information according to claim 10, wherein the specific point setting means includes information for setting color information of fog as the color information of the one specific point.
【請求項13】プロセッサによる演算・制御により、装
置に対して、所与の視点から見た水面を含む仮想空間の
画像を生成して所与のゲームを実行させるためのゲーム
情報であって、 前記水面の色を、前記仮想空間における前記所与の視点
の水平位置からの距離に基づいて変更する手段、を前記
装置に機能させるための情報を含むゲーム情報。
13. Game information for causing a device to generate an image of a virtual space including a water surface viewed from a given viewpoint and to execute a given game by calculation and control by a processor, Game information including information for causing the device to function to change a color of the water surface based on a distance from a horizontal position of the given viewpoint in the virtual space.
【請求項14】プロセッサによる演算・制御により、表
示画像に係る色情報を記憶する画像メモリを有する装置
に対して、所与の視点に基づく仮想空間の画像を生成す
るとともに、生成した画像に係る色情報を前記画像メモ
リに描画することにより、所与のゲームを実行させるた
めのゲーム情報であって、 所与の色情報を前記画像メモリに描画した上で、前記生
成した仮想空間の画像に係る色情報を前記画像メモリに
描画するが、その際、当該仮想空間の画像に湖沼、河
川、海等の水場が含まれる場合、当該水場に係る色情報
を、既に描画されている色情報と合成して描画する手
段、を前記装置に機能させるための情報を含むゲーム情
報。
14. An image of a virtual space based on a given viewpoint is generated for an apparatus having an image memory for storing color information related to a display image by calculation and control by a processor. By drawing the color information in the image memory, it is game information for executing a given game, and after drawing the given color information in the image memory, The color information is drawn in the image memory. At this time, when the image of the virtual space includes a water place such as a lake, a river, or a sea, the color information related to the water place is drawn in the already drawn color. Game information including information for causing the device to function as a unit for drawing by combining with information.
【請求項15】請求項1から14のいずれかに記載のゲ
ーム情報を記憶する情報記憶媒体。
15. An information storage medium for storing the game information according to claim 1.
【請求項16】所与の視点に基づく仮想空間の画像を生
成して所与のゲームを実行するゲーム装置であって、 所与の水平面を前記仮想空間に設定する設定手段と、 略板状の透過体を前記所与の水平面に配置する透過体配
置手段と、 所与の色情報を有する仮想体を前記仮想空間に配置する
仮想体配置手段と、 少なくとも、前記仮想空間における前記所与の視点の高
度に応じて、前記仮想体の色情報を決定する色決定手段
と、 前記透過体を描画する際に、前記所与の視点と前記仮想
体の所与の点とを結ぶ直線が前記透過体と交差する場合
には、当該透過体の色情報と当該仮想体の色情報とを合
成して当該透過体を描画する描画手段と、 を備えるゲーム装置。
16. A game apparatus for generating an image of a virtual space based on a given viewpoint and executing a given game, comprising: setting means for setting a given horizontal plane in said virtual space; A transparent body arranging means for arranging a transparent body on the given horizontal plane; a virtual body arranging means for arranging a virtual body having given color information in the virtual space; and A color determining unit that determines color information of the virtual body according to the height of the viewpoint; and a line connecting the given viewpoint and a given point of the virtual body when drawing the transparent body. A game device comprising: a drawing unit configured to draw the transparent body by combining the color information of the transparent body and the color information of the virtual body when intersecting with the transparent body.
JP2001094374A 2001-03-28 2001-03-28 PROGRAM, INFORMATION STORAGE MEDIUM, AND GAME DEVICE Expired - Fee Related JP3511597B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001094374A JP3511597B2 (en) 2001-03-28 2001-03-28 PROGRAM, INFORMATION STORAGE MEDIUM, AND GAME DEVICE

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001094374A JP3511597B2 (en) 2001-03-28 2001-03-28 PROGRAM, INFORMATION STORAGE MEDIUM, AND GAME DEVICE

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2003031323A Division JP4950410B2 (en) 2003-02-07 2003-02-07 PROGRAM, INFORMATION STORAGE MEDIUM, AND GAME DEVICE

Publications (2)

Publication Number Publication Date
JP2002298157A true JP2002298157A (en) 2002-10-11
JP3511597B2 JP3511597B2 (en) 2004-03-29

Family

ID=18948583

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001094374A Expired - Fee Related JP3511597B2 (en) 2001-03-28 2001-03-28 PROGRAM, INFORMATION STORAGE MEDIUM, AND GAME DEVICE

Country Status (1)

Country Link
JP (1) JP3511597B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004052481A1 (en) * 2002-12-06 2004-06-24 Konami Corporation Game machine, game control method, and program

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4950410B2 (en) * 2003-02-07 2012-06-13 株式会社バンダイナムコゲームス PROGRAM, INFORMATION STORAGE MEDIUM, AND GAME DEVICE

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004052481A1 (en) * 2002-12-06 2004-06-24 Konami Corporation Game machine, game control method, and program
KR100721751B1 (en) * 2002-12-06 2007-05-25 고나미 가부시끼가이샤 Game machine, game control method, and program
US7955173B2 (en) 2002-12-06 2011-06-07 Konami Digital Entertainment Co., Ltd. Game device, game control method and program

Also Published As

Publication number Publication date
JP3511597B2 (en) 2004-03-29

Similar Documents

Publication Publication Date Title
JP3442181B2 (en) 3D game device and image composition method
US20090244064A1 (en) Program, information storage medium, and image generation system
KR20000064948A (en) Image processing apparatus and image processing method
US7046242B2 (en) Game system, program and image generating method
US20100315421A1 (en) Generating fog effects in a simulated environment
JP4267646B2 (en) Image generating apparatus, image generating method, and program
US6828969B2 (en) Game system, program and image generating method
JP3420957B2 (en) GAME DEVICE AND INFORMATION STORAGE MEDIUM
JPH11175748A (en) Image generating device and information storage medium
JPH08229237A (en) Three-dimensional game machine and image composition method
JP2009129167A (en) Program, information storage medium, and image generation system
JP4229319B2 (en) Image generation system, program, and information storage medium
JP4950410B2 (en) PROGRAM, INFORMATION STORAGE MEDIUM, AND GAME DEVICE
JP3511597B2 (en) PROGRAM, INFORMATION STORAGE MEDIUM, AND GAME DEVICE
JP3586460B2 (en) 3D game device and image composition method
JP3275001B2 (en) Game device and information storage medium
JP4707078B2 (en) Image generation system, program, and information storage medium
JP4577968B2 (en) GAME SYSTEM AND INFORMATION STORAGE MEDIUM
JP4528008B2 (en) Program, information storage medium, and image generation system
JP4688405B2 (en) PROGRAM, INFORMATION STORAGE MEDIUM, AND GAME DEVICE
JP4001556B2 (en) GAME DEVICE AND INFORMATION STORAGE MEDIUM
JP2010055638A (en) Image generating system and information storage medium
JP2007164651A (en) Program, information storage medium and image generation system
JP3990543B2 (en) Program, information storage medium, and game device
JP4261211B2 (en) GAME DEVICE AND INFORMATION STORAGE MEDIUM

Legal Events

Date Code Title Description
A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20031226

R150 Certificate of patent or registration of utility model

Ref document number: 3511597

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080116

Year of fee payment: 4

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080116

Year of fee payment: 4

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090116

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090116

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100116

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100116

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100116

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110116

Year of fee payment: 7

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110116

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120116

Year of fee payment: 8

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120116

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130116

Year of fee payment: 9

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130116

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140116

Year of fee payment: 10

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R370 Written measure of declining of transfer procedure

Free format text: JAPANESE INTERMEDIATE CODE: R370

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees