JP2002150310A - Game device and information storage medium - Google Patents

Game device and information storage medium

Info

Publication number
JP2002150310A
JP2002150310A JP2000340739A JP2000340739A JP2002150310A JP 2002150310 A JP2002150310 A JP 2002150310A JP 2000340739 A JP2000340739 A JP 2000340739A JP 2000340739 A JP2000340739 A JP 2000340739A JP 2002150310 A JP2002150310 A JP 2002150310A
Authority
JP
Japan
Prior art keywords
image
display area
refractor
information
storage medium
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2000340739A
Other languages
Japanese (ja)
Other versions
JP4589517B2 (en
Inventor
Yasuhiro Inagawa
泰洋 稲川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Namco Ltd
Original Assignee
Namco Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Ltd filed Critical Namco Ltd
Priority to JP2000340739A priority Critical patent/JP4589517B2/en
Publication of JP2002150310A publication Critical patent/JP2002150310A/en
Application granted granted Critical
Publication of JP4589517B2 publication Critical patent/JP4589517B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Generation (AREA)

Abstract

PROBLEM TO BE SOLVED: To realize an optical camouflagic effect more simply. SOLUTION: An image in a field of view excluding a transparent object is first generated on the basis of a point of view and stored in a frame buffer. A background texture is then generated on the basis of the image drawn on the frame buffer. The coordinates of each apex of a transparent polygon forming the transparent object are projected and converted on a screen to determine which region the transparent polygon corresponds to in coordinate systems defined in the frame buffer and in the generated background texture. The image of that part in the background texture which corresponds to the transparent polygon is mapped and plotted onto the transparent polygon and combined with the corresponding part in the frame buffer.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】仮想空間の所与の視点に基づ
く画像を生成し、生成画像を表示させることで所与のゲ
ームを実行するゲーム装置等に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a game apparatus for generating an image based on a given viewpoint in a virtual space and displaying the generated image to execute a given game.

【0002】[0002]

【従来の技術】コンピュータグラフィックスを用いて仮
想空間の画像を生成する際、その仮想空間内に透明人間
やお化け、宇宙人等の未知な物体の存在を想定する場
合、その表現に対する様々な工夫が凝らされている。例
えば、透明人間のような、本来全く見えないはずの物体
を、実際に透明に表現したのではその存在を知らしめる
ことができない。そこで、透明人間の位置する空間を歪
ませたり、ぼかしたり、色相を変化させることによっ
て、異物感を表現する場合がある。
2. Description of the Related Art When an image of a virtual space is generated by using computer graphics, when it is assumed that an unknown object such as a transparent person, a ghost, an alien, and the like exists in the virtual space, various contrivances for the expression are made. Is elaborate. For example, an object that should not be seen at all, such as an invisible person, cannot be known if it is actually expressed in a transparent manner. Therefore, there is a case where a feeling of a foreign object is expressed by distorting, blurring, or changing the hue of the space where the transparent human is located.

【0003】空間を歪ませる方法として最もよく知られ
た方法として、光線追跡法がある。光線追跡法とは、仮
想空間における視点位置からスクリーン上の各画素に対
する光線(直線)を求め、その光線が交差するポリゴン
の色を画素に与える方法である。なお、各ポリゴンに
は、属性として反射率や透過率、屈折率等を決定するパ
ラメータを与える。そして、光線が交差したポリゴンが
反射率や屈折率の高いパラメータを有する場合には、そ
のパラメータに応じて光線を反射させたり屈折させる。
例えば、光線がポリゴンの表面によって屈折する場合に
は、スネルの法則に従って屈折方向を求め、その屈折方
向に向かって光線を走らせる。
One of the most well-known methods for distorting space is a ray tracing method. The ray tracing method is a method of obtaining a light ray (straight line) for each pixel on the screen from a viewpoint position in a virtual space, and giving the color of a polygon intersecting the light ray to the pixel. Each polygon is given a parameter for determining a reflectance, a transmittance, a refractive index, or the like as an attribute. If the polygon where the light beams intersect has a parameter with a high reflectance or refractive index, the light beam is reflected or refracted according to the parameter.
For example, when a light ray is refracted by the surface of a polygon, a refraction direction is obtained in accordance with Snell's law, and the light ray runs toward the refraction direction.

【0004】すなわち、屈折体を構成するポリゴンに屈
折率を与えることにより、その屈折体が存在する位置の
空間を歪ませることによって異物感を想起せしめる。ま
た、宇宙人やお化けといった未確認物体を表現する場合
には、適当な屈折率を与えることによって奇妙に空間を
歪ませ、あたかも未確認物体が光学的な迷彩によってそ
の空間に潜んでいるかのような表現をする場合もある。
That is, by giving a refractive index to a polygon constituting a refractor, the space at the position where the refractor is present is distorted to remind the user of a foreign object. Also, when expressing an unidentified object such as an alien or a ghost, the space is strangely distorted by giving an appropriate refractive index, and the expression as if the unidentified object is lurking in the space by optical camouflage Sometimes you do.

【0005】あるいは、屈折体を半透明ポリゴンによっ
て構成し、その半透明ポリゴンを空間における靄や霞な
どとすることによって屈折体の存在を表現する場合もあ
る。また、半透明ポリゴンから透過して見える空間の色
相を変化させることによって、異物感を表現するといっ
た方法もある。
[0005] Alternatively, there is a case where the presence of the refractor is expressed by forming the refractor by a translucent polygon and setting the translucent polygon to haze or haze in the space. There is also a method of expressing a feeling of a foreign object by changing the hue of a space that can be seen through a translucent polygon.

【0006】[0006]

【発明が解決しようとする課題】しかしながら、屈折体
の表現に際して上述の光線追跡法を採用した場合、その
屈折体に与えられた屈折率や反射率、透過性等に応じて
視点から放射された光線の屈折方向、反射方向、およ
び、ぼかしの量を算出し、枝分かれした各光線が最先に
交差するポリゴンの色を足し合わせることによって画素
毎の色を決定しなければならない。したがって、屈折体
を表現する画素1つ1つの色を決定する際の計算量が膨
大なものとなり、画像生成処理の遅延を招くこととな
る。このため、光線追跡法は、屈折体の様々な表現を可
能にするものの、外部入力に応じてリアルタイムに画像
を生成するゲーム装置等には、不向きな方法であった。
However, when the above-described ray tracing method is employed for expressing a refractor, the light is emitted from the viewpoint in accordance with the refractive index, reflectivity, transmissivity, and the like given to the refractor. The color of each pixel must be determined by calculating the refraction direction, reflection direction, and blur amount of the light beam, and adding the colors of the polygons at which the branched light beams intersect first. Therefore, the amount of calculation when determining the color of each pixel expressing the refractor becomes enormous, which causes a delay in the image generation processing. For this reason, the ray tracing method enables various expressions of a refraction body, but is not suitable for a game device or the like that generates an image in real time in response to an external input.

【0007】また、屈折体の存在位置に該当する領域の
色相を変化させたり、屈折体を半透明ポリゴンによって
表現する方法によれば、確かに生成画像内にはっきりと
は見えない物体の存在を表現することができる。しか
し、宇宙人やお化けといった未確認物体を表現する場合
において、ぼかしや色相の変化を与えただけの画像で
は、異物感や恐怖感等を引き起こす未確認物体らしさを
表現するには至らなかった。
Further, according to the method of changing the hue of the area corresponding to the position of the refraction body or expressing the refraction body with a translucent polygon, the existence of an object that cannot be clearly seen in the generated image can be surely determined. Can be expressed. However, in the case of expressing an unidentified object such as an alien or a ghost, it is not possible to express the unidentified object that causes a feeling of a foreign object, a sense of fear, or the like, by using an image that only gives a blur or a change in hue.

【0008】本発明の課題は、より簡単に光学的な迷彩
エフェクトを実現することである。
An object of the present invention is to realize an optical camouflage effect more easily.

【0009】[0009]

【課題を解決するための手段】上記課題を解決するため
に、請求項1記載の発明は、仮想空間の画像を所与の視
点に基づき生成し、生成画像を表示させることで所与の
ゲームを実行するゲーム装置であって、前記仮想空間内
に配置した屈折体を表現するために、前記生成画像(例
えば、本実施の形態における合成処理を施す前のフレー
ムバッファ内に記憶された画像)における前記屈折体が
表示される領域に該当する略表示領域画像に対して、前
記屈折体の形態(例えば、屈折体を構成する擬似透明ポ
リゴンや部位の形状および位置)に応じた幾何変換処理
(例えば、図7に示す屈折体表現処理)を施すことを特
徴とする。
According to an aspect of the present invention, an image of a virtual space is generated based on a given viewpoint, and the generated image is displayed to display a given game. A generated image (for example, an image stored in a frame buffer before performing the synthesizing process in the present embodiment) in order to represent a refractor arranged in the virtual space. In the approximate display area image corresponding to the area in which the refractor is displayed, a geometric transformation process (for example, a pseudo transparent polygon configuring the refractor or the shape and position of a part) corresponding to the refractor is displayed. For example, it is characterized by performing a refractor expression process shown in FIG.

【0010】請求項9記載の発明は、仮想空間の画像を
所与の視点に基づき生成し、当該生成画像を表示するこ
とによって所与のゲームを実行するための情報を記憶し
た情報記憶媒体(例えば、図6に示す記憶部40)であ
って、前記仮想空間内に配置した屈折体を表現するため
に、前記生成画像の中から前記屈折体が表示される領域
に該当する略表示領域画像を選択するための情報(例え
ば、図7に示す屈折体表現処理におけるステップS4)
と、前記略表示領域画像に対して、前記屈折体の形態に
応じた幾何変換処理を施すための情報(例えば、図7に
示す屈折体表現処理におけるステップS5)と、を記憶
したことを特徴とする。
According to a ninth aspect of the present invention, there is provided an information storage medium which generates an image of a virtual space based on a given viewpoint and stores information for executing a given game by displaying the generated image. For example, in the storage unit 40) shown in FIG. 6, in order to represent a refractor arranged in the virtual space, a substantially display area image corresponding to an area where the refractor is displayed in the generated image. (For example, step S4 in the refraction body representation process shown in FIG. 7)
And information for performing a geometric transformation process on the approximate display area image according to the form of the refractor (for example, step S5 in the refractor representation process shown in FIG. 7). And

【0011】この請求項1または9記載の発明によれ
ば、屈折体の略表示領域画像に対して、屈折体の形態に
応じた幾何変換処理を施すことができる。したがって、
見えないはずの物体を、空間を歪めた表現によって、間
接的にその存在を表現することが可能となる。また、生
成した画像において、屈折体が存在する位置と対応する
部分の画像のみを歪ませることとしたため、単なる半透
明ポリゴンによる表現では実現できなかった光学的な迷
彩効果を実現することが可能となる。また、光線追跡法
のような迂遠な処理を実行することなく、簡単に透明な
物体による光線の屈折表現をすることができる。このた
め、操作入力に応じて、屈折体や視点がリアルタイムに
移動する場合の画像、すなわち、ゲーム画像に対しての
適用が可能である。
According to the first or ninth aspect of the present invention, it is possible to perform a geometric transformation process on a substantially display area image of a refractor according to the form of the refractor. Therefore,
It is possible to indirectly express the existence of an invisible object by distorting the space. Also, in the generated image, since only the image corresponding to the position where the refraction body is present is distorted, it is possible to realize an optical camouflage effect that could not be realized by a simple translucent polygon expression. Become. Further, it is possible to easily express the refraction of a light ray by a transparent object without executing a roundabout process such as a ray tracing method. Therefore, the present invention can be applied to an image in which the refractor or the viewpoint moves in real time in response to an operation input, that is, a game image.

【0012】また、請求項2記載の発明のように、請求
項1記載のゲーム装置において、前記幾何変換処理に
は、少なくとも、前記所与の視点と前記屈折体との距離
に基づく前記略表示領域画像の変換処理が含まれること
としてもよい。
According to a second aspect of the present invention, in the game apparatus according to the first aspect, in the geometric transformation process, the rough display based on at least a distance between the given viewpoint and the refraction body. The conversion processing of the area image may be included.

【0013】また、請求項10記載の発明のように、請
求項9記載の情報記憶媒体において、前記幾何変換処理
を施すための情報には、少なくとも、前記所与の視点と
前記屈折体との距離に基づく前記略表示領域画像の変換
処理を実行するための情報が含まれることとしてもよ
い。
[0013] In the information storage medium according to the ninth aspect of the present invention, the information for performing the geometric transformation processing includes at least the information of the given viewpoint and the refractor. Information for executing the conversion processing of the approximate display area image based on the distance may be included.

【0014】この請求項2または10記載の発明によれ
ば、略表示領域画像内に施す幾何変換処理を、視点と屈
折体との距離に応じて実行することができる。したがっ
て、例えば、屈折体が仮想空間内を様々に移動するよう
に設定した場合であっても、屈折体の動きや位置の変化
に応じて略表示領域画像内の幾何学的な変形具合、すな
わち、略表示領域画像内の歪み方が変化するため、同一
の屈折体が仮想空間内を移動している様子をより簡単
に、また、矛盾なく表現することが可能となる。
According to the second or tenth aspect of the present invention, it is possible to execute the geometric transformation processing performed on the substantially display area image in accordance with the distance between the viewpoint and the refractor. Therefore, for example, even if the refractor is set to move in the virtual space in various ways, the geometric deformation state in the substantially display area image according to the movement or change in position of the refractor, that is, Since the manner of distortion in the substantially display area image changes, it is possible to more easily and consistently express the same refractor moving in the virtual space.

【0015】また、請求項3記載の発明のように、請求
項2記載のゲーム装置において、前記略表示領域画像の
変換処理は、前記所与の視点の座標系における前記屈折
体の奥行値に基づく前記略表示領域画像の射影変換処理
であることとしてもよい。
According to a third aspect of the present invention, in the game apparatus according to the second aspect, the converting process of the substantially display area image includes a step of converting the depth value of the refraction body in the coordinate system of the given viewpoint. It may be a projection conversion process of the approximate display area image based on the projection conversion process.

【0016】また、請求項11記載の発明のように、請
求項10記載の情報記憶媒体において、前記略表示領域
画像の変換処理を実行するための情報は、前記所与の視
点の座標系における前記屈折体の奥行値に基づく前記略
表示領域画像の射影変換処理を実行するための情報であ
ることとしてもよい。
According to another aspect of the present invention, in the information storage medium according to the tenth aspect, the information for executing the conversion process of the approximate display area image is based on the coordinate system of the given viewpoint. The information may be information for executing a projection conversion process of the approximate display area image based on a depth value of the refraction body.

【0017】この請求項3または11記載の発明によれ
ば、略表示領域画像を、視点の座標系における屈折体の
奥行値に基づく投影変換処理によって歪ませることがで
きる。例えば、屈折体を除いた仮想空間の画像を生成し
た後、その生成画像において、屈折体が存在する位置と
対応する部分の画像をテクスチャとして屈折体の表面に
マッピングし、再度その屈折体を描画することとすれ
ば、屈折体が持つ奥行値や立体感に基づく画像の歪みを
表現することができる。このように、視点の座標系にお
ける屈折体の存在位置や、屈折体の形状に応じた幾何学
的な変形を施すことにより、屈折体の存在を知らしめる
だけでなく、その形状をほのめかすことが可能となる。
According to the third or eleventh aspect of the present invention, the substantially display area image can be distorted by the projection conversion processing based on the depth value of the refraction body in the coordinate system of the viewpoint. For example, after generating an image of the virtual space excluding the refractor, in the generated image, the image of the portion corresponding to the position where the refractor exists is mapped as a texture on the surface of the refractor, and the refractor is drawn again. In this case, it is possible to express an image distortion based on the depth value and stereoscopic effect of the refractor. In this way, by performing geometric deformation according to the position of the refraction body in the coordinate system of the viewpoint and the shape of the refraction body, it is possible not only to inform the existence of the refraction body but also to suggest the shape of the refraction body. It becomes possible.

【0018】また、請求項4記載の発明のように、請求
項3記載のゲーム装置において、前記屈折体の奥行値を
変更する変更手段を備え、前記変更手段によって変更さ
れた奥行値に基づいて前記略表示領域画像の射影変換処
理を行うこととしてもよい。
According to a fourth aspect of the present invention, in the game apparatus according to the third aspect, there is provided a changing means for changing a depth value of the refractor, based on the depth value changed by the changing means. Projection conversion processing of the approximate display area image may be performed.

【0019】また、請求項12記載の発明のように、請
求項11記載の情報記憶媒体において、前記屈折体の奥
行値の変更処理を実行するための情報を記憶することと
してもよい。
According to a twelfth aspect of the present invention, in the information storage medium of the eleventh aspect, information for executing a process of changing a depth value of the refractor may be stored.

【0020】この請求項4または12記載の発明によれ
ば、屈折体の奥行値を更に変更することとした。したが
って、例えば、屈折体が複数のポリゴンによって構成さ
れている場合において、その各ポリゴンの奥行値を1フ
レーム毎に僅かに変更させることによって、屈折体が存
在する位置に描かれる画像がゆらゆらと揺れ動くように
表現するといったことができる。このため、屈折体や視
点の位置が変化しない場合であっても、屈折体の存在を
効果的に表現することができる。また、空間の複雑な歪
み方や時間的な変化によって、未確認物体らしさを強調
して表現することが可能となる。
According to the invention described in claim 4 or 12, the depth value of the refractor is further changed. Therefore, for example, in the case where the refraction body is composed of a plurality of polygons, by slightly changing the depth value of each polygon for each frame, the image drawn at the position where the refraction body exists fluctuates. Can be expressed as follows. For this reason, even when the position of the refractor or the viewpoint does not change, the presence of the refractor can be effectively expressed. In addition, it is possible to emphasize and express the likeness of an unidentified object by a complicated spatial distortion or a temporal change.

【0021】また、請求項5記載の発明のように、請求
項1から4のいずれか記載のゲーム装置において、前記
屈折体は透過率を持ち、前記略表示領域画像に対して、
前記屈折体の透過率に基づくぼかし処理を行うこととし
てもよい。
According to a fifth aspect of the present invention, in the game apparatus according to any one of the first to fourth aspects, the refractor has a transmittance, and
A blurring process based on the transmittance of the refractor may be performed.

【0022】また、請求項13記載の発明のように、請
求項9から12のいずれか記載の情報記憶媒体におい
て、前記屈折体の透過率情報と、前記略表示領域画像に
対して、前記屈折体の透過率に基づくぼかし処理を実行
するための情報を記憶することとしてもよい。
According to a thirteenth aspect of the present invention, in the information storage medium according to any one of the ninth to twelfth aspects, the refraction body transmittance information and the substantially display area image are not refracted. Information for executing the blurring process based on the transmittance of the body may be stored.

【0023】この請求項5または13記載の発明によれ
ば、屈折体が備える透過率に応じて略表示領域画像にぼ
かしを加えることが可能となる。したがって、屈折体の
透明さや、空間が歪むことによる異物感を保持しつつ、
屈折体の輪郭をぼんやりと知らしめることが可能とな
る。
According to the fifth or thirteenth aspect of the present invention, it is possible to add a blur to the substantially display area image in accordance with the transmittance of the refractor. Therefore, while maintaining the transparency of the refractor and the feeling of foreign matter due to distortion of the space,
It becomes possible to inform the outline of the refraction object vaguely.

【0024】また、請求項6記載の発明のように、請求
項1から5のいずれか記載のゲーム装置において、前記
幾何変換処理は、前記屈折体を形作る部分毎に施される
こととしてもよい。
Further, as in the invention according to claim 6, in the game device according to any one of claims 1 to 5, the geometric transformation processing may be performed for each portion forming the refraction body. .

【0025】また、請求項14記載の発明のように、請
求項9から13のいずれか記載の情報記憶媒体におい
て、前記屈折体を形作る部分毎に前記幾何変換処理を施
すための情報を記憶することとしてもよい。
According to a fourteenth aspect of the present invention, in the information storage medium according to any one of the ninth to thirteenth aspects, information for performing the geometric transformation process is stored for each part forming the refractor. It may be that.

【0026】この請求項6または14記載の発明によれ
ば、屈折体を形作る部分毎に略表示領域画像に対する幾
何変換処理を施すことができる。したがって、例えば、
頭部や胴体部といった屈折体の部分毎に異なる幾何変換
処理を施すことができる。具体的には、所与のゲームに
おける敵キャラクタを屈折体として表現する場合におい
て、当該屈折体の攻撃手段である部分に対する幾何変換
の度合を他の部分と比較して大きく設定する等の変化を
与えることが可能となる。
According to the sixth or fourteenth aspect of the present invention, it is possible to perform a geometric transformation process on a substantially display area image for each portion forming a refractor. So, for example,
Different geometric transformation processing can be performed for each part of the refractor such as the head and the torso. Specifically, in the case where an enemy character in a given game is represented as a refraction body, a change such as setting the degree of geometric transformation of a part serving as an attack means of the refraction body to be larger than other parts is performed. It is possible to give.

【0027】また、請求項7記載の発明のように、請求
項1から6のいずれか記載のゲーム装置において、前記
幾何変換処理を施す略表示領域画像(例えば、本実施の
形態における表示領域テクスチャ)として、前記生成画
像における前記屈折体の表示領域から僅かにずれた部
分、或いは、前記屈折体の表示領域との大きさが僅かに
異なる部分を採用し、前記幾何変換処理を施した前記略
表示領域画像を前記生成画像内の前記屈折体の表示領域
に合成することとしてもよい。
According to a seventh aspect of the present invention, in the game apparatus according to any one of the first to sixth aspects, a substantially display area image to be subjected to the geometric transformation processing (for example, a display area texture in the present embodiment) ), A portion slightly deviated from the display region of the refractor in the generated image, or a portion slightly different in size from the display region of the refractor, is employed, and the geometric conversion process is performed. A display area image may be combined with a display area of the refractor in the generated image.

【0028】また、請求項15記載の発明のように、請
求項9から14のいずれか記載の情報記憶媒体におい
て、前記生成画像の中から前記略表示領域画像を選択す
る際に、前記屈折体の表示領域から僅かにずれた部分、
或いは、前記屈折体の表示領域との大きさが僅かに異な
る部分の画像を前記略表示領域画像として選択するため
の情報と、当該略表示領域画像を前記生成画像における
前記屈折体の表示領域に合成するための情報と、を記憶
することとしてもよい。
According to a fifteenth aspect of the present invention, in the information storage medium according to any one of the ninth to fourteenth aspects, when selecting the substantially display area image from the generated images, Part slightly shifted from the display area of
Alternatively, information for selecting an image of a portion having a slightly different size from the display area of the refractor as the approximate display area image, and the approximate display area image in the display area of the refractor in the generated image. Information for combining may be stored.

【0029】この請求項7または15記載の発明によれ
ば、生成画像内の屈折体が存在する位置に対応する領域
から僅かにずれた部分、或いは、僅かに大きさの異なる
部分を略表示領域画像として選択し、幾何変換処理を施
した後に、もとの生成画像内に合成することができる。
したがって、採用する略表示領域画像の大きさや位置に
応じて、屈折体に光が透過し、屈折して見えるような表
現をより簡単に実行することが可能となる。
According to the seventh or fifteenth aspect of the present invention, a portion slightly deviated from a region corresponding to the position where the refractor exists in the generated image, or a portion having a slightly different size is substantially displayed in the display region. After being selected as an image and subjected to a geometric transformation process, it can be synthesized into the original generated image.
Therefore, according to the size and the position of the substantially display area image to be employed, it is possible to more easily execute the expression in which the light is transmitted through the refractor and looks refracted.

【0030】また、屈折体の存在をより顕著に表現する
ために、請求項8記載の発明のように、請求項1から7
のいずれか記載のゲーム装置において、前記略表示領域
画像の色相を変更することとしてもよい。
Further, in order to express the existence of the refractor more conspicuously, as in the invention according to claim 8, claims 1 to 7 are provided.
In the game device according to any one of the above, the hue of the substantially display area image may be changed.

【0031】[0031]

【発明の実施の形態】以下に、本発明の好適な実施形態
について図面を参照して説明する。なお、以下では、ポ
リゴン群によって構成される屈折体の光学迷彩表現につ
いて説明するが、本発明はこれに限定するものではな
い。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Preferred embodiments of the present invention will be described below with reference to the drawings. In the following, an optical camouflage expression of a refractor constituted by a polygon group will be described, but the present invention is not limited to this.

【0032】本実施の形態では、仮想空間内に複数のポ
リゴンにより構成される屈折体のモデルを配置する。そ
して、屈折体のモデル(以下、単に屈折体という)を除
いた視界内の画像を生成すると、その生成した画像の
内、視点から見た屈折体の配置位置に相当する部分の画
像を屈折体の奥行値と対応させて歪ませることによっ
て、屈折体の光学迷彩的な表現を実現する。具体的に
は、視点の視界内に存在する複数のオブジェクトをスク
リーン座標系に透視投影変換することによって、屈折体
を除く画像を生成すると共に、その生成画像と同等な原
画テクスチャを生成する。また、一方では、屈折体を構
成する各ポリゴンの頂点座標を視点に基づいてスクリー
ン座標系に変換し、屈折体の生成画像内及び原画テクス
チャ内における位置(座標)を判定する。そして、原画
テクスチャの中から屈折体が位置する部分を取り出し
て、もとの生成画像内の対応する部分に合成する。ただ
し、この合成をする際に、屈折体の各頂点の奥行値に合
わせて取り出した画像のパースを変更させる(すなわ
ち、画像の遠近感を操作する)ことによって画像を歪ま
せる。
In the present embodiment, a model of a refractor constituted by a plurality of polygons is arranged in a virtual space. Then, when an image within the field of view excluding the refractor model (hereinafter simply referred to as a refractor) is generated, an image of a portion corresponding to the arrangement position of the refractor viewed from the viewpoint in the generated image is refractor. The optical camouflage expression of the refractor is realized by distorting it in correspondence with the depth value of. Specifically, a plurality of objects existing within the field of view of the viewpoint are perspectively transformed into a screen coordinate system to generate an image excluding a refractor and generate an original image texture equivalent to the generated image. On the other hand, the coordinates of the vertices of each polygon constituting the refraction body are converted into a screen coordinate system based on the viewpoint, and the positions (coordinates) of the refraction body in the generated image and the original image texture are determined. Then, a portion where the refractor is located is extracted from the original image texture and is synthesized with a corresponding portion in the original generated image. However, when performing this synthesis, the image is distorted by changing the perspective of the extracted image in accordance with the depth value of each vertex of the refractor (that is, by operating the perspective of the image).

【0033】図1および図2を用いて、本発明の概要に
ついて説明する。図1(a)〜(c)は、屈折体の一例
を示すものである。(a)は仮想空間における視点10
0と屈折体102との位置関係を示す斜視図であり、
(b)はその平面図をそれぞれ示す。(a)及び(b)
によれば、屈折体102は立方体であり、その一辺10
2−1が視点100の視点方向100−1と直行する位
置関係にある。図1(c)は、(a)及び(b)に示す
視点100に基づいて屈折体102の各頂点をスクリー
ン座標系104に透視投影変換した一例を示す図であ
る。
The outline of the present invention will be described with reference to FIGS. FIGS. 1A to 1C show an example of a refractor. (A) is a viewpoint 10 in a virtual space.
FIG. 2 is a perspective view showing a positional relationship between a refractor and a refractor;
(B) shows the respective plan views. (A) and (b)
According to the above, the refracting body 102 is a cube, and its side 10
2-1 has a positional relationship orthogonal to the viewpoint direction 100-1 of the viewpoint 100. FIG. 1C is a diagram showing an example in which each vertex of the refraction body 102 is perspectively projected and transformed into a screen coordinate system 104 based on the viewpoint 100 shown in FIGS.

【0034】図2(a)は、屈折体102による歪みの
表現を施す前の視点100に基づく画像110の一例を
示す図である。一方、図2(b)は、(a)に示す画像
110に対して、図1(c)に示す屈折体102が位置
する部分106の画像を歪ませた画像112の一例を示
す図であり、屈折体102が存在する部分106の画像
を、各頂点106−1〜6のパースを変更することによ
って歪ませたものである。(b)によれば、(a)に示
した画像110内の文字「B」および「C」が不自然に
歪み、屈折体102が、周囲の環境に解け込んで潜んで
いるかのような印象を与える。更に、視点位置を変化さ
せたり、屈折体を動的に表現する、すなわち、仮想空間
内を移動させて表現することによって、描かれた空間の
歪み位置を変化させて、屈折体の光学迷彩をより効果的
に表すことができる。このように、本発明は、より簡単
な方法によって光学迷彩を施した画像を表現するもので
ある。以下、テクスチャ内の画像を歪ませる方法につい
て詳細に説明する。
FIG. 2A is a diagram showing an example of an image 110 based on the viewpoint 100 before the expression of the distortion by the refractor 102 is performed. On the other hand, FIG. 2B is a diagram showing an example of an image 112 obtained by distorting the image of the portion 106 where the refractor 102 shown in FIG. The image of the portion 106 where the refraction body 102 exists is distorted by changing the perspective of each of the vertices 106-1 to 106-6. According to (b), the characters “B” and “C” in the image 110 shown in (a) are distorted unnaturally, and the impression that the refraction body 102 is melting and lurking in the surrounding environment. give. Furthermore, by changing the viewpoint position or dynamically expressing the refraction body, that is, moving and expressing the refraction body in the virtual space, the distortion position of the drawn space is changed, and the optical camouflage of the refraction body is changed. It can be represented more effectively. As described above, the present invention expresses an image subjected to optical camouflage by a simpler method. Hereinafter, a method of distorting an image in a texture will be described in detail.

【0035】まず、原画テクスチャについて説明する。
まず、屈折体を除いた画像を生成する。すなわち、仮想
空間内に存在する各オブジェクトを視点に基づいてスク
リーン座標系に透視投影変換し、フレームバッファ上に
描画する。そして、屈折体を除く画像を生成すると、フ
レームバッファ上の画像に基づいて原画テクスチャを生
成する。図3(a)は、フレームバッファ120におけ
る画像例を示すものである。なお、実際には、フレーム
バッファは表示画面の各画素に対応するメモリの集合体
であるが、ここでは、原画テクスチャとの対応関係を説
明する都合上、便宜的に座標系で表す。すなわち、同図
に示すように、フレームバッファ120の横軸をx、縦
軸をyと定義し、原点を左上端に設定する。また、画面
(フレームバッファ120)の横サイズをscx、縦サ
イズをscyとする。図3(b)は、(a)に基づく原
画テクスチャ122の一例を示すものである。同図にお
いて、原画テクスチャ122の横軸をu、縦軸をvと
し、原点を左上端に設定する。また、原画テクスチャ1
22の縦横のサイズを1によって規格化する。なお、フ
レームバッファに記憶された情報をもとに表示領域テク
スチャを生成する方法については、従来技術として知ら
れたものであるため、ここではその詳細な説明は省略す
る。
First, the original image texture will be described.
First, an image excluding the refractor is generated. That is, each object existing in the virtual space is perspectively transformed into a screen coordinate system based on the viewpoint, and drawn on a frame buffer. Then, when an image excluding a refractor is generated, an original image texture is generated based on the image on the frame buffer. FIG. 3A shows an example of an image in the frame buffer 120. Note that the frame buffer is actually an aggregate of memories corresponding to each pixel on the display screen, but here, for convenience of description of the correspondence with the original image texture, the frame buffer is represented by a coordinate system for convenience. That is, as shown in the figure, the horizontal axis of the frame buffer 120 is defined as x, the vertical axis is defined as y, and the origin is set at the upper left corner. The horizontal size of the screen (frame buffer 120) is scx, and the vertical size is scy. FIG. 3B shows an example of the original image texture 122 based on FIG. In the figure, the horizontal axis of the original image texture 122 is u, the vertical axis is v, and the origin is set at the upper left corner. Also, original texture 1
The vertical and horizontal sizes of 22 are standardized by 1. The method of generating the display area texture based on the information stored in the frame buffer is known as a conventional technique, and thus the detailed description is omitted here.

【0036】続いて、生成した画像を歪ませる方法につ
いて説明する。本実施の形態では、原画テクスチャの中
から、屈折体を構成するポリゴン(以下、擬似透明ポリ
ゴンという)に対応するテクスチャの領域(以下、表示
領域テクスチャという)を決定すると、仮想空間内に存
在する当該擬似透明ポリゴンの表面にその表示領域テク
スチャをマッピングする。そして、表示領域テクスチャ
がマッピングされた擬似透明ポリゴンを、視点に基づい
てスクリーン上に投影変換することによって、擬似透明
ポリゴンの各頂点の奥行値に応じた画像の歪みを生成す
る。
Next, a method for distorting the generated image will be described. In the present embodiment, when a texture region (hereinafter, referred to as a display region texture) corresponding to a polygon (hereinafter, referred to as a pseudo-transparent polygon) constituting a refractor is determined from the original image texture, the texture region exists in a virtual space. The display area texture is mapped on the surface of the pseudo transparent polygon. Then, by projecting and transforming the pseudo-transparent polygon to which the display area texture is mapped onto the screen based on the viewpoint, an image distortion corresponding to the depth value of each vertex of the pseudo-transparent polygon is generated.

【0037】具体的には、図1(a)〜(c)に示すよ
うに、屈折体を構成する各擬似透明ポリゴンの各頂点の
座標を視点座標系からスクリーン座標系に変換する。そ
して、各頂点106−1〜6の座標Pn(xn,yn
を、次式によってuv座標系に変換する。(un,vn
=(xn/scx,yn/scy) …(1)た
だし、nは、各頂点の符号1〜6を意味する。このよう
に、式(1)によって変換したuv座標系における各頂
点の座標Tn(un,vn)によって囲まれた領域(すな
わち、表示領域テクスチャ)を視点座標系における擬似
透明ポリゴンにマッピングし、描画する。
Specifically, as shown in FIGS. 1 (a) to 1 (c), the coordinates of each vertex of each pseudo transparent polygon constituting the refractor are converted from the viewpoint coordinate system to the screen coordinate system. Then, the coordinates P n (x n , y n ) of each vertex 106-1 to 6-6
Is converted to a uv coordinate system by the following equation. (U n, v n)
= (X n / scx, y n / scy) ... (1) where, n denotes a code 1-6 of each vertex. Thus, the mapping coordinates T n (u n, v n ) of each vertex in the uv coordinate system converted by Equation (1) is surrounded by a region (i.e., display region texture) to the pseudo-transparent polygon in the viewpoint coordinate system And draw.

【0038】図4は、擬似透明ポリゴンに表示領域テク
スチャをマッピングして描画し、もとの画像内に合成す
ることによって生じる歪みについて説明するための図で
ある。(a)は、フレームバッファ136が記憶した画
像合成前の画像の概念図と、矩形の擬似透明ポリゴン1
32を視点130に基づいてスクリーン134に投影し
た一例を示す側面図である。(a)によれば、フレーム
バッファ136には、もとの画像として等間隔の縞模様
が記憶されている。また、(a)に示すフレームバッフ
ァ136には、スクリーン134に投影された擬似透明
ポリゴン132の各頂点の座標Pnを点138−1〜4
によって示した。また、フレームバッファ136におい
て、擬似透明ポリゴン132が対応する部分140を明
瞭にするために各点138−1〜4を破線によって結ん
だ。なお、フレームバッファ136上の擬似透明ポリゴ
ンに対応する部分140の形状を矩形ではなく、台形に
描いた理由は、画像の遠近感を表現するためである。
FIG. 4 is a diagram for explaining the distortion caused by mapping and drawing the display area texture on the pseudo-transparent polygon and synthesizing it in the original image. (A) is a conceptual diagram of an image before image synthesis stored in the frame buffer 136 and a rectangular pseudo-transparent polygon 1
FIG. 3 is a side view showing an example of projecting 32 on a screen 134 based on a viewpoint 130. According to (a), the frame buffer 136 stores a stripe pattern at regular intervals as an original image. The coordinates Pn of each vertex of the pseudo-transparent polygon 132 projected on the screen 134 are stored in the frame buffer 136 shown in FIG.
Indicated by In the frame buffer 136, points 138-1 to 138-4 are connected by broken lines in order to clarify a portion 140 corresponding to the pseudo-transparent polygon 132. The reason why the shape of the portion 140 corresponding to the pseudo-transparent polygon on the frame buffer 136 is not a rectangle but a trapezoid is to express the perspective of the image.

【0039】そして、フレームバッファ136の画像と
同等の原画テクスチャを生成すると共に、各点138−
1〜4の座標Pnを式(1)によって座標変換すること
によって、原画テクスチャの座標系における座標Tn
求める。また、座標Tnによって囲まれた部分(すなわ
ち、フレームバッファ136内の部分140に対応する
部分)を表示領域テクスチャとして決定する。
Then, an original image texture equivalent to the image in the frame buffer 136 is generated, and each point 138-
The coordinates T n in the coordinate system of the original image texture are obtained by transforming the coordinates P n of 1 to 4 according to equation (1). Further, a portion surrounded by the coordinates T n (that is, a portion corresponding to the portion 140 in the frame buffer 136) is determined as the display area texture.

【0040】図4(b)は、フレームバッファ136が
記憶した合成後の画像の概念図と、視点座標系における
矩形の擬似透明ポリゴン132に、表示領域テクスチャ
をマッピングし、スクリーン134に投影した一例を示
す側面図である。台形の表示領域テクスチャを矩形の擬
似透明ポリゴンにマッピングする際には、台形である表
示領域テクスチャの上底(線分138−1〜2)を引き
伸ばしてマッピングする。すなわち、矩形ポリゴン13
2における任意のx軸方向の長さが、表示領域テクスチ
ャにおける該当するu軸方向の長さに対してn倍である
場合には、表示領域テクスチャの該当する部分のu軸方
向の画像をn倍に拡大して対応させる。この引き伸ばし
の際の伸び率は、いずれの方向にあっても均等に設定す
る。したがって、もとの表示領域テクスチャにおいて等
間隔に描かれた画像は、擬似透明ポリゴン132上にお
いても等間隔に描かれることとなる。なお、(b)にお
いて、視点130から擬似透明ポリゴン132の面を貫
いてスクリーン136まで引かれた各線分は、擬似透明
ポリゴン132上にマッピングされた表示領域テクスチ
ャにおける縞模様が投影される先を示す。
FIG. 4B is a conceptual diagram of a synthesized image stored in the frame buffer 136 and an example in which a display area texture is mapped on a rectangular pseudo-transparent polygon 132 in a viewpoint coordinate system and projected on a screen 134. FIG. When mapping the trapezoidal display area texture to the rectangular pseudo-transparent polygon, the upper base (line segment 138-1 or 138-2) of the trapezoidal display area texture is expanded and mapped. That is, the rectangular polygon 13
2 is n times as long as the length of the display area texture in the u-axis direction, the image of the corresponding portion of the display area texture in the u-axis direction is n Double the size to make it correspond. The elongation at the time of stretching is set to be equal in any direction. Therefore, images drawn at regular intervals in the original display area texture are also drawn at regular intervals on the pseudo transparent polygon 132. Note that in (b), each line segment drawn from the viewpoint 130 to the screen 136 through the surface of the pseudo-transparent polygon 132 is a point where the stripe pattern in the display area texture mapped on the pseudo-transparent polygon 132 is projected. Show.

【0041】図4(b)によれば、視点130に対して
遠い位置に存在する擬似透明ポリゴン130の頂点13
8−1,2近傍の画像は、縞模様の間隔が領域140以
外に描かれた縞模様の間隔と比較して狭く描かれてい
る。一方、視点130に対して近い位置に存在する頂点
138−3,4近傍の画像は、縞模様の間隔が広がって
表現される。このように、もとの画像と同等な表示領域
テクスチャを擬似透明ポリゴンの表面にマッピングし
て、視点に基づいて透視投影変換する。このとき、擬似
透明ポリゴンの各頂点の視点に対する距離が異なる場合
には、その距離に応じて画像が拡大縮小されることとな
る。なお、仮想空間中におけるポリゴンに表示領域テク
スチャをマッピングする方法については、種々の方法が
既に提案されている。本発明において、それら何れの方
法を用いるかについては、本発明の本質を左右するもの
ではないため、ここではその説明を省略する。
According to FIG. 4B, the vertex 13 of the pseudo-transparent polygon 130 located at a position
In the images near 8-1 and 8-2, the intervals between the stripes are drawn narrower than the intervals between the stripes drawn outside the region 140. On the other hand, the images near the vertices 138-3 and 4 existing at positions closer to the viewpoint 130 are expressed with a wider interval between stripes. In this way, the display area texture equivalent to the original image is mapped on the surface of the pseudo-transparent polygon, and the perspective projection conversion is performed based on the viewpoint. At this time, if the distance of each vertex of the pseudo-transparent polygon from the viewpoint is different, the image is scaled according to the distance. Various methods have already been proposed for mapping the display area texture to the polygons in the virtual space. In the present invention, which of these methods is used does not affect the essence of the present invention, and the description thereof is omitted here.

【0042】また、擬似透明ポリゴンの各頂点の奥行値
を様々に変化させて、画像の歪みがより著しく効果的に
表れるように操作してもよい。図5は、視点座標系にお
ける視点150、ポリゴン152およびスクリーン15
4を示す側面図であり、もとの擬似透明ポリゴン152
に対して、任意の頂点の奥行値を操作(すなわち、パー
スの操作)して、新たな擬似透明ポリゴン156に変形
した一例を示す図である。奥行値を変更する場合には、
視点150によってもとの擬似透明ポリゴン152がス
クリーン154上に投影されたときの座標を変更しない
ように、視点座標系における頂点の座標を操作する必要
がある。すなわち、頂点を操作する際には、もとの擬似
透明ポリゴンにおける操作対象の頂点と視点とを結ぶ直
線上から移動先の頂点の座標を決定しなければならな
い。例えば、図5における擬似透明ポリゴン152の頂
点152−1,2の奥行値を変更する場合には、直線1
58−1,2上から選択する。このように、擬似透明ポ
リゴンの頂点の奥行値を意図的に操作して、画像の歪み
方を複雑に変形させることによって、より異物感や恐怖
感を引き起こさせる屈折体を表現することができる。
Further, the depth value of each vertex of the pseudo-transparent polygon may be variously changed, and the operation may be performed so that the distortion of the image appears more effectively. FIG. 5 shows the viewpoint 150, polygon 152 and screen 15 in the viewpoint coordinate system.
FIG. 4 is a side view showing an original pseudo transparent polygon 152;
FIG. 14 is a diagram showing an example in which a depth value of an arbitrary vertex is manipulated (that is, a parse operation) to be transformed into a new pseudo-transparent polygon 156. To change the depth value,
It is necessary to manipulate the coordinates of the vertices in the viewpoint coordinate system so that the coordinates when the original pseudo-transparent polygon 152 is projected onto the screen 154 by the viewpoint 150 are not changed. That is, when operating a vertex, it is necessary to determine the coordinates of the destination vertex from a straight line connecting the vertex to be operated and the viewpoint in the original pseudo transparent polygon. For example, when changing the depth values of the vertices 152-1 and 152-1 of the pseudo-transparent polygon 152 in FIG.
58-1 and 58-2. In this way, by intentionally manipulating the depth values of the vertices of the pseudo-transparent polygon to complicately deform the image, it is possible to express a refractor that causes a more foreign-body sensation or fear.

【0043】以上のように、屈折体に該当する領域を原
画テクスチャ内から選択して、視点座標系内に存在する
擬似透明ポリゴンにマッピングし、再度投影変換するこ
とによって、擬似透明ポリゴンの奥行値に応じて画像を
歪ませることが可能となる。
As described above, the area corresponding to the refractor is selected from the original image texture, mapped to the pseudo-transparent polygon existing in the viewpoint coordinate system, and projected and converted again to obtain the depth value of the pseudo-transparent polygon. It is possible to distort the image in accordance with.

【0044】なお、屈折体を表現する場合において、観
察者に対してその輪郭をぼんやりと知らしめたい場合が
ある。例えば、屈折体が人間の形をしている場合や、宇
宙人である場合において、その空間の歪みが透明人間や
宇宙人の仕業であることがわかることが好ましい場合が
ある。このような場合において、上述の方法では、屈折
体の存在を知らしめることができても、その輪郭を把握
させることが困難な場合がある。
In the case of expressing a refraction body, there are cases where it is desired to inform the observer of the outline of the refraction object. For example, when the refraction body is in the shape of a human or an alien, it may be preferable to know that the distortion of the space is the work of a transparent human or an alien. In such a case, in the above method, even if the presence of the refractor can be informed, it may be difficult to grasp the outline of the refractor.

【0045】このため、屈折体にマッピングする表示領
域テクスチャの色相を変化させたり、表示領域テクスチ
ャにぼかし処理を施すこととしてもよい。色相を変化さ
せたりぼかす部分は、表示領域テクスチャ全体出であっ
てもよいし、表示領域テクスチャの内縁部分であっても
よい。例えば、点や線、面等の光源に基づくライティン
グを行うことにより屈折体に光沢や陰影を与え、屈折体
の立体感や存在感を強調することとしてもよい。また、
ぼかす方法としては、表示領域テクスチャを構成する画
素1つ1つに対して、その近傍の画素の平均値を与える
方法であってもよいし(いわゆる、αブレンドやニアレ
ストネイバー法、バイリニア法等の方法であってもよ
い)、ガウス分布を用いた滑らかにぼかす方法であって
もよい。
For this reason, the hue of the display area texture mapped to the refractor may be changed, or the display area texture may be subjected to blur processing. The portion where the hue is changed or blurred may be the entire display region texture or the inner edge portion of the display region texture. For example, by performing lighting based on a light source such as a point, a line, a surface, or the like, a gloss or a shadow may be given to the refractor to emphasize the three-dimensional appearance or presence of the refractor. Also,
As a blurring method, a method of giving an average value of pixels in the vicinity of each pixel constituting the display area texture may be used (so-called alpha blending, nearest neighbor method, bilinear method, etc.). Or a method of smooth blurring using a Gaussian distribution.

【0046】また、擬似透明ポリゴンにマッピングする
表示領域テクスチャを原画テクスチャ内から選択する際
に、擬似透明ポリゴンの各頂点によって囲まれた部分と
異なる大きさを選択することとしてもよい。このよう
に、生成画像内において擬似透明ポリゴンが相当する部
分と異なる大きさの表示領域テクスチャを用いることに
よって、あたかも屈折体が独自の屈折率を持つかのよう
に表現することができる。
When the display area texture to be mapped to the pseudo-transparent polygon is selected from within the original image texture, a size different from the portion surrounded by each vertex of the pseudo-transparent polygon may be selected. As described above, by using the display area texture having a size different from that of the portion corresponding to the pseudo-transparent polygon in the generated image, it is possible to express as if the refractor has a unique refractive index.

【0047】なお、表示領域テクスチャの色相を変化さ
せたり、ぼかしの処理や屈折させた表現を実行する場合
には、色相やぼかし、屈折率等を特定するためのパラメ
ータを各擬似透明ポリゴンに属性として与えることとす
る。
When the hue of the display area texture is changed, blur processing or refracted expression is performed, parameters for specifying the hue, blur, refractive index, and the like are attributed to each pseudo transparent polygon. Will be given as

【0048】次に、本実施の形態における構成を説明す
る。図6は、本実施の形態における機能ブロックの一例
を示す図である。同図において、機能ブロックは、操作
部10と、処理部20と、表示部30と、記憶部40
と、一時記憶部50とから構成されている。
Next, the configuration of the present embodiment will be described. FIG. 6 is a diagram illustrating an example of a functional block according to the present embodiment. In the figure, the functional blocks include an operation unit 10, a processing unit 20, a display unit 30, and a storage unit 40.
And a temporary storage unit 50.

【0049】操作部10は、プレーヤが操作データを入
力するためのものであり、操作部10にて得られた操作
データは、処理部20に出力される。
The operation unit 10 is used by the player to input operation data. The operation data obtained by the operation unit 10 is output to the processing unit 20.

【0050】処理部20は、システム全体の制御、シス
テム内の各ブロックへの命令、ゲーム処理、画像処理、
音処理等の各種処理を行うものであり、その機能は、各
種プロセッサ(CPU、DSP等)、あるいはASIC
(ゲートアレイ等)等のハードウェアや、所与のプログ
ラムにより実現できる。また、処理部20には、主に、
ゲーム演算部22、画像生成部24が含まれる。
The processing section 20 controls the entire system, issues commands to each block in the system, game processing, image processing,
It performs various processes such as sound processing, and its function is performed by various processors (CPU, DSP, etc.) or ASIC.
(Eg, a gate array) or a given program. The processing unit 20 mainly includes:
A game calculation unit 22 and an image generation unit 24 are included.

【0051】ゲーム演算部22は、ゲームの進行処理、
選択画面の設定処理、仮想空間上での各オブジェクトの
位置や向きを求める処理、視点の位置や視線方向等を求
める処理等の種々のゲーム処理を操作部10からの操作
信号や、記憶部40から読み出すゲームプログラム42
等に基づいて実行する。そして、視点の座標を決定する
と、焦点位置や各オブジェクト等の座標情報等を画像生
成部24に出力して視点に基づく画像を生成させる。ま
た、ゲーム演算部22は、仮想空間における屈折体を構
成する擬似透明ポリゴンの座標情報を画像生成部24に
出力する。
The game calculation section 22 performs a game progress process,
Various game processes such as a process of setting a selection screen, a process of obtaining the position and orientation of each object in the virtual space, and a process of obtaining the position of the viewpoint and the direction of the line of sight are performed by operating signals from the operation unit 10, Game program 42 read from
And so on. When the coordinates of the viewpoint are determined, the focal position, coordinate information of each object, and the like are output to the image generation unit 24 to generate an image based on the viewpoint. Further, the game calculation unit 22 outputs to the image generation unit 24 the coordinate information of the pseudo-transparent polygon forming the refraction body in the virtual space.

【0052】画像生成部24は、ゲーム演算部22から
指示信号、各種座標情報等が入力されると、画像を生成
する処理を実行するものであり、CPU、DSP、画像
生成専用のIC、メモリなどのハードウェアにより構成
される。例えば、画像生成部24は、ゲーム演算部22
からオブジェクト空間の設定情報、すなわち、キャラク
タの座標や視点の位置等のデータが入力されると、クリ
ッピングを行ってビューボリュームを設定した後、ビュ
ーボリューム内の各オブジェクトに対する透視投影変換
を行って画像データを生成する。そして、生成した画像
データを表示部30に出力して表示させる。また、画像
生成部24には、主に、ジオメトリ部240、レンダリ
ング部242、原画テクスチャ生成部244とが含まれ
る。
When an instruction signal, various kinds of coordinate information, and the like are input from the game operation unit 22, the image generation unit 24 executes a process of generating an image, and includes a CPU, a DSP, an IC dedicated to image generation, and a memory. It is composed of hardware such as. For example, the image generation unit 24 includes the game calculation unit 22
When the setting information of the object space, that is, the data such as the coordinates of the character and the position of the viewpoint is input, the clipping is performed, the view volume is set, and the perspective projection transformation is performed on each object in the view volume to perform image projection. Generate data. Then, the generated image data is output to the display unit 30 and displayed. The image generation unit 24 mainly includes a geometry unit 240, a rendering unit 242, and an original image texture generation unit 244.

【0053】ジオメトリ部240は、ゲーム演算部22
から各種オブジェクトの仮想空間内の座標系(ワールド
座標系)における座標情報が入力されると、各オブジェ
クトを構成するポリゴンの頂点座標を、ワールド座標系
からスクリーン座標系に変換処理を実行する。具体的に
は、各ポリゴンの頂点座標をワールド座標系から、視点
を原点とする視点座標系に変換し、更に、各ポリゴンの
頂点座標を視点に基づいて透視投影変換することによっ
て、視点座標系からスクリーン座標系に変換する。そし
て、ジオメトリ部240は、スクリーン座標系に変換し
た各頂点の座標データを、レンダリング部242に出力
する。また、ジオメトリ部240は、ゲーム演算部22
から屈折体の座標情報が入力されると、他のオブジェク
トと同様に座標変換を施し、スクリーン座標系に変換さ
れた擬似透明ポリゴンの座標データをレンダリング部2
42に出力する。
The geometry section 240 includes the game operation section 22
When the coordinate information of the various objects in the coordinate system (world coordinate system) in the virtual space is input from, the vertex coordinates of the polygon constituting each object are converted from the world coordinate system to the screen coordinate system. Specifically, the vertex coordinates of each polygon are converted from the world coordinate system to the viewpoint coordinate system having the viewpoint as the origin, and the vertex coordinates of each polygon are perspectively transformed based on the viewpoint to obtain the viewpoint coordinate system. To the screen coordinate system. Then, the geometry unit 240 outputs the coordinate data of each vertex converted to the screen coordinate system to the rendering unit 242. In addition, the geometry unit 240 includes the game operation unit 22
When the coordinate information of the refractor is input from the rendering unit 2, the coordinate conversion is performed in the same manner as other objects, and the coordinate data of the pseudo-transparent polygon converted to the screen coordinate system is rendered.
42.

【0054】レンダリング部242は、ジオメトリ部2
40から入力される座標データに基づいて画像を生成す
る処理を実行する。例えば、ジオメトリ部240から擬
似透明ポリゴンを除く各ポリゴンの座標データが入力さ
れると、各ポリゴンの奥行値の小さいもの、すなわち、
視点に近いものが優先的に描かれるように描画処理を実
行することによって画像を生成し、一時記憶部50内の
フレームバッファ52に記憶する。また、レンダリング
部242は、画像を生成すると、原画テクスチャ生成部
244に指示信号を出力して原画テクスチャを生成させ
る。
The rendering unit 242 includes the geometry unit 2
A process for generating an image based on the coordinate data input from 40 is executed. For example, when the coordinate data of each polygon except the pseudo-transparent polygon is input from the geometry unit 240, the polygon having a small depth value, that is,
An image is generated by executing a drawing process so that an object closer to the viewpoint is drawn preferentially, and stored in the frame buffer 52 in the temporary storage unit 50. After generating the image, the rendering unit 242 outputs an instruction signal to the original image texture generation unit 244 to generate an original image texture.

【0055】また、レンダリング部242は、ジオメト
リ部240から擬似透明ポリゴンの座標データが入力さ
れると、原画テクスチャ生成部244に座標データを出
力し、表示領域テクスチャのデータを請求する。そし
て、原画テクスチャ生成部244から表示領域テクスチ
ャのデータが入力されると、該当する擬似透明ポリゴン
の表面にマッピングして視点に基づいてスクリーン座標
系に透視投影変換することによって描画し、フレームバ
ッファ52内の該当する位置に合成する。
When the pseudo-transparent polygon coordinate data is input from the geometry unit 240, the rendering unit 242 outputs the coordinate data to the original image texture generation unit 244, and requests the display area texture data. Then, when the data of the display area texture is input from the original image texture generation unit 244, the data is mapped onto the surface of the corresponding pseudo-transparent polygon, and is rendered by perspective projection transformation to the screen coordinate system based on the viewpoint, thereby rendering the frame buffer 52. Is synthesized at the corresponding position in.

【0056】原画テクスチャ生成部244は、レンダリ
ング部242から原画テクスチャの生成指示が入力され
ると、一時記憶部50内のフレームバッファ52に記憶
された画像データに基づいて原画テクスチャを生成す
る。そして、生成した原画テクスチャを一時記憶部50
内の原画テクスチャ記憶部54に記憶する。また、レン
ダリング部242から擬似透明ポリゴンの座標データが
入力されると、式(1)に基づいて原画テクスチャの座
標系に変換し、一時記憶部50に記憶した原画テクスチ
ャの中から表示領域テクスチャを決定する。このとき、
レンダリング部242から入力された擬似透明ポリゴン
に、色相やぼかし、屈折率を特定するためのパラメータ
が属性として付加されている場合には、そのパラメータ
に従った処理を実行し、表示領域テクスチャを生成す
る。そして、生成した表示領域テクスチャをレンダリン
グ部242に出力する。
When an instruction to generate an original image texture is input from the rendering unit 242, the original image texture generating unit 244 generates an original image texture based on the image data stored in the frame buffer 52 in the temporary storage unit 50. Then, the generated original image texture is temporarily stored in the temporary storage unit 50.
Is stored in the original texture storage unit 54. In addition, when the coordinate data of the pseudo-transparent polygon is input from the rendering unit 242, the coordinate system is converted into the coordinate system of the original image texture based on Expression (1), and the display area texture is selected from the original image textures stored in the temporary storage unit 50. decide. At this time,
When parameters for specifying hue, blur, and refractive index are added as attributes to the pseudo-transparent polygon input from the rendering unit 242, processing according to the parameters is executed to generate a display area texture. I do. Then, the generated display area texture is output to the rendering unit 242.

【0057】記憶部40は、所与のゲームを実行するた
めのゲームプログラム42の他、屈折体表現処理を実行
するための屈折体プログラム44や変換式(1)46等
を記憶するものであり、この機能は、CD−ROM、ゲ
ームカセット、ICカード、MO、FD、DVD、メモ
リ、ハードディスク等のハードウェアにより実現でき
る。
The storage section 40 stores, in addition to a game program 42 for executing a given game, a refraction body program 44 for executing refraction body expression processing, a conversion formula (1) 46, and the like. This function can be realized by hardware such as a CD-ROM, game cassette, IC card, MO, FD, DVD, memory, and hard disk.

【0058】一時記憶部50は、レンダリング部242
によって生成された画像データを記憶するフレームバッ
ファ52及び、原画テクスチャ生成部244によって生
成された原画テクスチャを記憶するための原画テクスチ
ャ記憶部54とから構成され、主に、VRAM等により
実現可能なものである。
The temporary storage unit 50 includes a rendering unit 242
A frame buffer 52 for storing the image data generated by the image processing unit, and an original image texture storage unit 54 for storing the original image texture generated by the original image texture generation unit 244, which can be realized mainly by a VRAM or the like. It is.

【0059】続いて、画像生成部24により実行される
屈折体表現処理について図7に示すフローチャートを用
いて以下に説明する。なお、以下の処理は、1フレーム
毎に全ての屈折体に対して実行するものである。
Next, a description will be given of the refraction body expression processing executed by the image generation section 24 with reference to the flowchart shown in FIG. The following processing is executed for all refractors for each frame.

【0060】同図において、レンダリング部242は、
ジオメトリ部244から入力される座標データに基づ
き、屈折体を除く画像を生成し、フレームバッファ52
に記憶する(ステップS1)。そして、原画テクスチャ
生成部244は、レンダリング部242により生成され
た画像に基づき原画テクスチャを生成する(ステップS
2)。
In the figure, the rendering unit 242
Based on the coordinate data input from the geometry unit 244, an image excluding a refractor is generated, and the frame buffer 52
(Step S1). Then, the original image texture generation unit 244 generates an original image texture based on the image generated by the rendering unit 242 (Step S).
2).

【0061】また、レンダリング部242は、ジオメト
リ部244から入力された擬似透明ポリゴンのスクリー
ン座標系における座標データが入力されると、未処理の
擬似透明ポリゴンを取り出し(ステップS3)、当該擬
似透明ポリゴンの座標データを原画テクスチャ生成部2
44に出力する。原画テクスチャ生成部244は、レン
ダリング部242から入力された当該擬似透明ポリゴン
の座標データ(スクリーン座標系における)を原画テク
スチャの座標系に変換し、当該擬似透明ポリゴンの表示
領域テクスチャを決定し(ステップS4)、レンダリン
グ部242に出力する。
When the coordinate data in the screen coordinate system of the pseudo-transparent polygon input from the geometry unit 244 is input, the rendering unit 242 extracts the unprocessed pseudo-transparent polygon (step S3), and executes the pseudo-transparent polygon. Original coordinate data of the original image
44. The original texture generation unit 244 converts the coordinate data (in the screen coordinate system) of the pseudo transparent polygon input from the rendering unit 242 to the coordinate system of the original texture, and determines the display area texture of the pseudo transparent polygon (step). S4) Output to the rendering unit 242.

【0062】レンダリング部242は、当該擬似透明ポ
リゴンの表示領域テクスチャが入力されると、当該擬似
透明ポリゴンにマッピングし、視点に基づいて描画して
フレームバッファ52上の画像内に合成する(ステップ
S5)。そして、未処理の擬似透明ポリゴンが存在する
か否かを判定し(ステップS6)、未処理の擬似透明ポ
リゴンが存在する場合には、ステップS3に移行して、
描画処理を実行する。一方、全ての擬似透明ポリゴンに
対して処理を実行した場合には、本処理を終了する。
When the display area texture of the pseudo-transparent polygon is input, the rendering unit 242 maps the pseudo-transparent polygon to the pseudo-transparent polygon, draws the image based on the viewpoint, and synthesizes the image in the image on the frame buffer 52 (step S5). ). Then, it is determined whether an unprocessed pseudo-transparent polygon exists (step S6). If an unprocessed pseudo-transparent polygon exists, the process proceeds to step S3.
Execute drawing processing. On the other hand, when the processing has been performed on all the pseudo-transparent polygons, the present processing ends.

【0063】次に、本実施の形態を実現できるハードウ
ェアの構成の一例について、図8を用いて説明する。同
図に示す装置では、CPU1000、ROM1002、
RAM1004、情報記憶媒体1006、音生成IC1
008、画像生成IC1010、I/Oポート101
2、1014が、システムバス1016により相互にデ
ータ入出力可能に接続されている。そして、画像生成I
C1010には、表示装置1018が接続され、音生成
IC1008には、スピーカ1020が接続され、I/
Oポート1012には、コントロール装置1022が接
続され、I/Oポート1014には、通信装置1024
が接続されている。
Next, an example of a hardware configuration capable of realizing the present embodiment will be described with reference to FIG. In the device shown in the figure, a CPU 1000, a ROM 1002,
RAM 1004, information storage medium 1006, sound generation IC1
008, image generation IC 1010, I / O port 101
2 and 1014 are connected to each other via a system bus 1016 so that data can be input and output therebetween. Then, the image generation I
A display device 1018 is connected to C1010, and a speaker 1020 is connected to the sound generation IC 1008.
A control device 1022 is connected to the O port 1012, and a communication device 1024 is connected to the I / O port 1014.
Is connected.

【0064】情報記憶媒体1006は、図6に示す機能
ブロックにおける記憶部40及び一時記憶部50に相当
するものであり、プログラム、表示物を表現するための
画像データ、音データ、プレイデータ等が主に格納され
るものである。例えば、家庭用ゲーム装置では、ゲーム
プログラム等を格納する情報記憶媒体として、CD−R
OM、ゲームカセット、DVD等が用いられ、プレイデ
ータを格納する情報記憶媒体としてメモリカードなどが
用いられる。また、業務用ゲーム装置では、ROM等の
メモリやハードディスクが用いられ、この場合には、情
報記憶媒体1006は、ROM1002になる。また、
パーソナルコンピュータにおいては、CD−ROM、D
VD、ROM等のメモリ、ハードディスク等が用いられ
る。
The information storage medium 1006 corresponds to the storage section 40 and the temporary storage section 50 in the functional blocks shown in FIG. 6, and stores programs, image data for expressing display objects, sound data, play data, and the like. It is mainly stored. For example, in a home game device, a CD-R is used as an information storage medium for storing a game program and the like.
An OM, a game cassette, a DVD or the like is used, and a memory card or the like is used as an information storage medium for storing play data. In the arcade game device, a memory such as a ROM or a hard disk is used. In this case, the information storage medium 1006 is the ROM 1002. Also,
In personal computers, CD-ROM, D
A memory such as a VD or a ROM, a hard disk, or the like is used.

【0065】コントロール装置1022は、ゲームコン
トローラ、操作パネル等に相当するものであり、ユーザ
がゲーム進行に応じて行う判断の結果を装置本体に入力
するための装置である。
The control device 1022 corresponds to a game controller, an operation panel, and the like, and is a device for inputting a result of a determination made by a user in accordance with the progress of a game to the main body of the device.

【0066】情報記憶媒体1006に格納されるプログ
ラム、ROM1002に格納されるシステムプログラム
(装置本体の初期化情報等)、コントロール装置102
2によって入力される信号等に従って、CPU1000
は、装置全体の制御や各種データ処理を行う。RAM1
004は、このCPU1000の作業領域等として用い
られる記憶手段であり、情報記憶媒体1006やROM
1002の所与の内容、あるいはCPU1000の演算
結果が格納される。
The program stored in the information storage medium 1006, the system program (initialization information of the apparatus main body) stored in the ROM 1002, the control apparatus 102
CPU 1000 according to a signal input by
Performs control of the entire apparatus and various data processing. RAM1
A storage unit 004 is used as a work area or the like of the CPU 1000, and includes an information storage medium 1006 and a ROM.
The given contents of the field 1002 or the operation result of the CPU 1000 are stored.

【0067】更に、この種の装置には、音生成IC10
08と画像生成IC1010とが設けられていて、ゲー
ム音やゲーム画像の好適な出力が行えるようになってい
る。音生成IC1008は、情報記憶媒体1006やR
OM1002に記憶される情報に基づいて効果音やバッ
クグラウンド音楽等のゲーム音を生成する集積回路であ
り、生成されたゲーム音は、スピーカ1020によって
出力される。また、画像生成IC1010は、RAM1
004、ROM1002、情報記憶媒体1006等から
出力される画像情報に基づいて表示装置1018に出力
するための画素情報を生成する集積回路である。また表
示装置1018は、CRTやLCD、TV、プラズマデ
ィスプレイ、プロジェクター等により実現される。
Further, this type of device includes a sound generation IC 10
08 and an image generation IC 1010 are provided so that game sounds and game images can be suitably output. The sound generation IC 1008 includes the information storage medium 1006 and the R
An integrated circuit that generates game sounds such as sound effects and background music based on information stored in the OM 1002, and the generated game sounds are output by a speaker 1020. Further, the image generation IC 1010 includes a RAM 1
004, an integrated circuit that generates pixel information to be output to the display device 1018 based on image information output from the ROM 1002, the information storage medium 1006, and the like. The display device 1018 is realized by a CRT, LCD, TV, plasma display, projector, or the like.

【0068】また、通信装置1024は、ゲーム装置内
部で利用される各種の情報を外部とやり取りするもので
あり、他のゲーム装置と接続されてゲームプログラムに
応じた所与の情報を送受したり、通信回線を介して、ゲ
ームプログラム等の情報を送受すること等に利用され
る。
The communication device 1024 exchanges various kinds of information used inside the game device with the outside. The communication device 1024 is connected to another game device to transmit and receive given information according to the game program. It is used for transmitting and receiving information such as a game program via a communication line.

【0069】また、図1〜図6で説明した種々の処理
は、図7のフローチャートに示した処理等を行うための
屈折体プログラム44や変換式(1)46等を含むプロ
グラムを格納した情報記憶媒体1006と、該プログラ
ムに従って動作するCPU1000、画像生成IC10
10、音生成IC1008等によって実現される。な
お、画像生成IC1010、音生成IC1008等で行
われる処理は、CPU1000あるいは汎用のDSP等
によりソフトウェア的に行ってもよい。
The various processes described with reference to FIGS. 1 to 6 are information storing programs including the refraction body program 44 and the conversion formula (1) 46 for performing the processes shown in the flowchart of FIG. Storage medium 1006, CPU 1000 operating according to the program, image generation IC 10
10, the sound generation IC 1008 and the like. Note that the processing performed by the image generation IC 1010, the sound generation IC 1008, and the like may be performed by software using the CPU 1000, a general-purpose DSP, or the like.

【0070】図9に、ホスト装置1300と、このホス
ト装置1300と通信回線1302を介して接続される
端末1304−1〜1304−nとを含むゲーム装置に
本実施の形態を適用した場合の例を示す。
FIG. 9 shows an example in which the present embodiment is applied to a game device including a host device 1300 and terminals 1304-1 to 1304-n connected to the host device 1300 via a communication line 1302. Is shown.

【0071】この場合、図6の記憶部40に記憶される
ゲームプログラム42や屈折体プログラム44、変換式
(1)46等は、例えば、ホスト装置1300が制御可
能な磁気ディスク装置、磁気テープ装置、メモリ等の情
報記憶媒体1306に格納されている。また、端末13
04−1〜1304−nが、CPU、画像生成IC、音
生成IC、を有し、スタンドアローンでゲーム画像、ゲ
ーム音を生成できるものである場合には、ホスト装置1
300からは、ゲーム画像、ゲーム音を生成するための
ゲームプログラム等が端末1304−1〜1304−n
に配送される。一方、スタンドアローンで生成できない
場合には、ホスト装置1300がゲーム画像、ゲーム音
を生成し、これを端末1304−1〜1304−nに伝
送し端末において出力することになる。
In this case, the game program 42, the refraction body program 44, the conversion formula (1) 46, and the like stored in the storage unit 40 in FIG. , Are stored in an information storage medium 1306 such as a memory. Also, the terminal 13
In a case where each of the devices 04-1 to 1304-n has a CPU, an image generation IC, and a sound generation IC and can generate a game image and a game sound in a stand-alone manner, the host device 1
From 300, a game program for generating a game image, a game sound, and the like are provided from terminals 1304-1 to 1304-n.
Will be delivered to On the other hand, if it cannot be generated in a stand-alone manner, the host device 1300 generates a game image and a game sound, transmits them to the terminals 1304-1 to 1304-n, and outputs them.

【0072】図10は、本発明を家庭用のゲーム装置1
210に適用した場合の一例を示す図である。同図にお
いて、プレーヤは、表示装置1200に映し出されたゲ
ーム画像を見ながら、ゲームコントローラ1202、1
204を操作してゲームを楽しむ。ゲームプログラム等
のゲームを行うために必要な情報、および、屈折体プロ
グラム44、変換式(1)46等は、本体装置に装着自
在な情報記憶媒体であるCD−ROM1206、ICカ
ード1208、メモリカード1212等に格納されてい
る。
FIG. 10 shows a home game apparatus 1 according to the present invention.
FIG. 21 is a diagram illustrating an example of a case where the invention is applied to 210. In the figure, a player looks at a game image displayed on a display device 1200 while watching a game controller 1202, 1
Play the game by operating 204. Information required for playing a game such as a game program, the refraction body program 44, the conversion formula (1) 46, and the like are stored in a CD-ROM 1206, an IC card 1208, and a memory card which are information storage media that can be mounted on the main device. 1212 and the like.

【0073】図11は、本実施の形態を業務用ゲーム装
置80に適用した場合の例を示す図である。この業務用
ゲーム装置80は、プレーヤがスピーカ86から出力さ
れる音を聞きながら、操作ボタン84を操作することに
よって、ディスプレイ82上に表示されるキャラクタを
操作して所与のゲームを楽しむ装置である。業務用ゲー
ム装置80に内蔵されるシステム基板90には、CP
U、画像生成IC、音生成IC等が実装されている。そ
して、ゲームプログラム42や屈折体プログラム44、
変換式(1)46等は、システム基板90上の情報記憶
媒体であるメモリ92に格納されている。
FIG. 11 is a diagram showing an example in which the present embodiment is applied to an arcade game device 80. The arcade game device 80 is a device for operating a character displayed on the display 82 to enjoy a given game by operating the operation button 84 while the player listens to the sound output from the speaker 86. is there. The system board 90 built in the arcade game device 80 has a CP
U, an image generation IC, a sound generation IC, and the like are mounted. Then, the game program 42 and the refraction body program 44,
The conversion formula (1) 46 and the like are stored in a memory 92 which is an information storage medium on the system board 90.

【0074】なお、本発明は、上記実施の形態で説明し
たものに限らず、種々の変形実施が可能である。例え
ば、本実施の形態では、屈折体を除く全てのオブジェク
トを描いた画像を生成した後に原画テクスチャを生成す
ることとした。この方法によれば、屈折体は、全てのオ
ブジェクトよりも視点に近い位置に存在するかのように
表現される。すなわち、屈折体よりも手前に存在するオ
ブジェクトについても、屈折体の存在によって歪んで表
現されることとなる。
The present invention is not limited to those described in the above embodiments, and various modifications can be made. For example, in the present embodiment, an original image texture is generated after an image depicting all objects except a refractor is generated. According to this method, the refraction body is expressed as if it were closer to the viewpoint than all the objects. In other words, an object existing before the refraction body is also distorted due to the presence of the refraction body.

【0075】以上の矛盾を防ぐために、まず、屈折体よ
りも視点に近い位置に存在するオブジェクトを除いた画
像を生成して、原画テクスチャを生成する。そして、屈
折体の表現を施した後に、屈折体よりも手前に存在する
オブジェクトを描画する構成にしてもよい。
In order to prevent the above contradiction, first, an image excluding an object existing at a position closer to the viewpoint than the refractor is generated, and an original image texture is generated. Then, after the expression of the refraction body is performed, an object existing before the refraction body may be drawn.

【0076】あるいは、フレームバッファの各画素に対
応するZバッファを設け、屈折体を構成する擬似透明ポ
リゴンをフレームバッファ上の画像に合成する際に、各
画素の奥行値(Z値)を比較して、フレームバッファの
画素が、擬似透明ポリゴンが有する奥行値よりも視点に
近い奥行値を有する場合には、上書きしないといった構
成にしてもよい。
Alternatively, a Z-buffer corresponding to each pixel of the frame buffer is provided, and the depth value (Z value) of each pixel is compared when synthesizing the pseudo-transparent polygon constituting the refractor with the image on the frame buffer. If the pixel of the frame buffer has a depth value closer to the viewpoint than the depth value of the pseudo-transparent polygon, the overwriting may not be performed.

【0077】また、本実施の形態では、屈折体にマッピ
ングする表示領域テクスチャを擬似透明ポリゴン1つ1
つに対して個別に決定することとして説明したが、屈折
体全体にマッピングする1つの表示領域テクスチャを決
定する構成にしてもよい。具体的には、例えば、屈折体
を構成する各ポリゴンの各頂点の全てをスクリーン座標
系に変換する。そして、スクリーン座標系に変換された
全頂点の座標の内、屈折体の輪郭となる座標(すなわ
ち、スクリーン座標系に変換された頂点の集合の内、外
縁に存在する頂点の座標)のみを抜粋し、uv座標系に
変換する。このuv座標系に変換された各頂点によって
囲まれた領域を表示領域テクスチャとして採用し、屈折
体の表面にマッピングするといったことにしてもよい。
Further, in the present embodiment, the display area texture to be mapped to the refraction element is used for each pseudo transparent polygon.
Although it has been described that each texture is determined individually, a configuration may be adopted in which one display area texture mapped to the entire refractor is determined. Specifically, for example, all the vertices of each polygon constituting the refractor are converted to a screen coordinate system. Then, of the coordinates of all the vertices converted to the screen coordinate system, only the coordinates that are the contours of the refraction body (that is, the coordinates of the vertices existing at the outer edge of the set of vertices converted to the screen coordinate system) are extracted. Then, it is converted to the uv coordinate system. An area surrounded by the vertices converted into the uv coordinate system may be adopted as a display area texture and mapped on the surface of the refraction body.

【0078】また、このとき、uv座標系に変換された
各頂点によって囲まれた領域から僅かにずれた部分、あ
るいは、各頂点によって囲まれた領域と僅かに大きさの
異なる部分を表示領域テクスチャとして採用してもよ
い。このように、表示領域テクスチャの大きさや位置
を、生成画像内の屈折体が対応する部分と異なる大きさ
に設定することによって、屈折体により光が屈折するか
のような表現を実現し、屈折体のあらゆる迷彩表現をす
ることが可能となる。
At this time, a part slightly shifted from the area surrounded by each vertex converted into the uv coordinate system, or a part slightly different in size from the area surrounded by each vertex is displayed in the display area texture. It may be adopted as. In this way, by setting the size and position of the display area texture to a size different from the corresponding portion of the refractor in the generated image, an expression as if the light is refracted by the refractor is realized. It is possible to express any camouflage of the body.

【0079】あるいは、屈折体を形作る部分毎(例え
ば、頭部や胴体部といった部分毎)に表示領域テクスチ
ャを決定する構成にしてもよい。また、部分毎に表示領
域テクスチャを決定する場合には、各部分毎に表示領域
テクスチャとして採用する部分の大きさや位置を変更す
るようにしてもよい。このように、屈折体の性質(屈折
率や透明度等)を部分に応じて不均一に設定することに
よって、より未確認物体らしさ、異物体らしさ、恐ろし
さ等を表現することが可能となる。
Alternatively, the display area texture may be determined for each part forming the refractor (for example, for each part such as the head and the body). When the display area texture is determined for each part, the size and position of the part adopted as the display area texture may be changed for each part. In this way, by setting the properties (refractive index, transparency, etc.) of the refractor non-uniformly depending on the portion, it becomes possible to express the likeness of an unidentified object, the likeness of a foreign body, the fear, etc. more.

【0080】また、本実施の形態では、原画テクスチャ
の中から選択した表示領域テクスチャを、屈折体にマッ
ピングして描画することとして説明したが、これに限定
する必要はない。例えば、擬似透明ポリゴンの各頂点の
座標を、視点座標系からスクリーン座標系に変換する際
において、各頂点の奥行値を保持させて変換する。そし
て、視点座標系における擬似透明ポリゴンの法線ベクト
ルと、Z軸との成す角度に擬似透明ポリゴンの視点座標
系におけるZ軸方向(すなわち、奥行方向)の傾きに応
じて表示領域テクスチャ内の画像を拡大縮小させること
によって歪みを表現することとしてもよい。
In the present embodiment, the display area texture selected from the original image textures is mapped to the refractor and drawn. However, the present invention is not limited to this. For example, when converting the coordinates of each vertex of the pseudo-transparent polygon from the viewpoint coordinate system to the screen coordinate system, the conversion is performed while retaining the depth value of each vertex. Then, the angle between the normal vector of the quasi-transparent polygon in the viewpoint coordinate system and the Z-axis is determined according to the inclination of the quasi-transparent polygon in the Z-axis direction (ie, the depth direction) in the viewpoint coordinate system. May be expressed by scaling.

【0081】[0081]

【発明の効果】本発明によれば、屈折体を除く画像内に
おいて、屈折体が位置する部分の画像に、屈折体の形態
および奥行値に応じた幾何変換処理を施すことができ
る。したがって、見えないはずの物体である屈折体の存
在を、空間を歪めた表現によって間接的に知らしめるこ
とが可能となる。また、光線追跡法のような面倒な処理
を実行することなく、単なる擬似透明ポリゴンでは表現
できない光学的迷彩表現を実現することが可能となる。
According to the present invention, in the image excluding the refractor, the image of the portion where the refractor is located can be subjected to a geometric transformation process according to the shape and depth value of the refractor. Therefore, it is possible to indirectly notify the presence of the refraction body, which should be invisible, by using a distorted representation of the space. Further, it is possible to realize an optical camouflage expression that cannot be expressed by a mere pseudo-transparent polygon without performing a complicated process such as a ray tracing method.

【図面の簡単な説明】[Brief description of the drawings]

【図1】屈折体の一例を示す図であり、(a)は斜視図
を、(b)は平面図を示す。また、(c)は当該屈折体
をスクリーン座標系に変換した一例を示す図である。
1A and 1B are diagrams illustrating an example of a refractor, wherein FIG. 1A is a perspective view and FIG. 1B is a plan view. (C) is a diagram showing an example in which the refractor is converted into a screen coordinate system.

【図2】(a)は、屈折体を除く画像例を示す図。
(b)は、屈折体の存在する位置を歪ませた一例を示す
図である。
FIG. 2A is a diagram illustrating an example of an image excluding a refractor.
(B) is a figure which shows an example which distorted the position where a refraction body exists.

【図3】(a)は、フレームバッファ上における画像の
一例を示す図。(b)は、(a)に示す画像に基づく原
画テクスチャの一例を示す図である。
FIG. 3A is a diagram illustrating an example of an image on a frame buffer. FIG. 2B is a diagram illustrating an example of an original image texture based on the image illustrated in FIG.

【図4】本実施の形態における屈折体の表現方法のイメ
ージを説明するための図である。
FIG. 4 is a diagram illustrating an image of a method of expressing a refractor according to the present embodiment.

【図5】擬似透明ポリゴンの頂点の奥行値を操作した一
例を示す図である。
FIG. 5 is a diagram illustrating an example in which a depth value of a vertex of a pseudo-transparent polygon is operated.

【図6】本実施の形態における機能ブロックの一例を示
す図である。
FIG. 6 is a diagram illustrating an example of a functional block according to the present embodiment.

【図7】屈折体表現処理を説明するためのフローチャー
トである。
FIG. 7 is a flowchart for explaining a refraction body expression process.

【図8】本発明を実現できるハードウェアの構成の一例
を示す図である。
FIG. 8 is a diagram illustrating an example of a hardware configuration capable of realizing the present invention.

【図9】ホスト装置と通信回線を介して接続されるゲー
ム端末に本実施の形態を適用した場合の一例を示す図で
ある。
FIG. 9 is a diagram showing an example in which the present embodiment is applied to a game terminal connected to a host device via a communication line.

【図10】本発明を家庭用のゲーム装置に適用した場合
の一例を示す図である。
FIG. 10 is a diagram showing an example of a case where the present invention is applied to a home game device.

【図11】本発明を業務用のゲーム装置に適用した場合
の一例を示す図である。
FIG. 11 is a diagram showing an example of a case where the present invention is applied to an arcade game device.

【符号の説明】[Explanation of symbols]

10 操作部 20 処理部 22 ゲーム演算部 24 画像生成部 240 ジオメトリ部 242 レンダリング部 244 原画テクスチャ生成部 30 表示部 40 記憶部 42 ゲームプログラム 44 屈折体プログラム 46 変換式(1) 50 一時記憶部 52 フレームバッファ 54 原画テクスチャ記憶部 Reference Signs List 10 operation unit 20 processing unit 22 game calculation unit 24 image generation unit 240 geometry unit 242 rendering unit 244 original image texture generation unit 30 display unit 40 storage unit 42 game program 44 refraction body program 46 conversion formula (1) 50 temporary storage unit 52 frame Buffer 54 Original image texture storage

Claims (15)

【特許請求の範囲】[Claims] 【請求項1】仮想空間の画像を所与の視点に基づき生成
し、生成画像を表示させることで所与のゲームを実行す
るゲーム装置であって、 前記仮想空間内に配置した屈折体を表現するために、前
記生成画像における前記屈折体が表示される領域に該当
する略表示領域画像に対して、前記屈折体の形態に応じ
た幾何変換処理を施すことを特徴とするゲーム装置。
1. A game device for executing a given game by generating an image of a virtual space based on a given viewpoint and displaying the generated image, wherein a refractor arranged in the virtual space is represented. In order to achieve this, a game device is characterized in that a geometric conversion process according to the form of the refractor is performed on a substantially display area image corresponding to a region where the refractor is displayed in the generated image.
【請求項2】請求項1記載のゲーム装置であって、 前記幾何変換処理には、少なくとも、前記所与の視点と
前記屈折体との距離に基づく前記略表示領域画像の変換
処理が含まれることを特徴とするゲーム装置。
2. The game device according to claim 1, wherein the geometric transformation process includes at least a transformation process of the approximate display area image based on a distance between the given viewpoint and the refractor. A game device, characterized in that:
【請求項3】請求項2記載のゲーム装置であって、 前記略表示領域画像の変換処理は、前記所与の視点の座
標系における前記屈折体の奥行値に基づく前記略表示領
域画像の射影変換処理であることを特徴とするゲーム装
置。
3. The game device according to claim 2, wherein the conversion processing of the approximate display area image includes projecting the approximate display area image based on a depth value of the refraction body in the coordinate system of the given viewpoint. A game device, which is a conversion process.
【請求項4】請求項3記載のゲーム装置であって、 前記屈折体の奥行値を変更する変更手段を備え、前記変
更手段によって変更された奥行値に基づいて前記略表示
領域画像の射影変換処理を行うことを特徴とするゲーム
装置。
4. The game apparatus according to claim 3, further comprising a change unit for changing a depth value of the refractor, wherein a projection transformation of the substantially display area image is performed based on the depth value changed by the change unit. A game device for performing processing.
【請求項5】請求項1から4のいずれか記載のゲーム装
置であって、 前記屈折体は透過率を持ち、 前記略表示領域画像に対して、前記屈折体の透過率に基
づくぼかし処理を行うことを特徴とするゲーム装置。
5. The game device according to claim 1, wherein the refractor has a transmittance, and performs a blurring process on the substantially display area image based on the transmittance of the refractor. A game device characterized by performing.
【請求項6】請求項1から5のいずれか記載のゲーム装
置であって、 前記幾何変換処理は、前記屈折体を形作る部分毎に施さ
れることを特徴とするゲーム装置。
6. The game device according to claim 1, wherein the geometric transformation processing is performed for each portion forming the refraction body.
【請求項7】請求項1から6のいずれか記載のゲーム装
置であって、 前記幾何変換処理を施す略表示領域画像として、前記生
成画像における前記屈折体の表示領域から僅かにずれた
部分、或いは、前記屈折体の表示領域との大きさが僅か
に異なる部分を採用し、前記幾何変換処理を施した前記
略表示領域画像を前記生成画像内の前記屈折体の表示領
域に合成することを特徴とするゲーム装置。
7. The game device according to claim 1, wherein a portion slightly shifted from a display area of the refractor in the generated image is used as the approximate display area image to be subjected to the geometric transformation processing. Alternatively, a portion having a slightly different size from the display area of the refraction body is adopted, and the approximate display area image subjected to the geometric transformation processing is combined with the display area of the refraction body in the generated image. Characteristic game device.
【請求項8】請求項1から7のいずれか記載のゲーム装
置であって、 前記略表示領域画像の色相を変更することを特徴とする
ゲーム装置。
8. The game device according to claim 1, wherein a hue of the substantially display area image is changed.
【請求項9】仮想空間の画像を所与の視点に基づき生成
し、当該生成画像を表示することによって所与のゲーム
を実行するための情報を記憶した情報記憶媒体であっ
て、 前記仮想空間内に配置した屈折体を表現するために、 前記生成画像の中から前記屈折体が表示される領域に該
当する略表示領域画像を選択するための情報と、 前記略表示領域画像に対して、前記屈折体の形態に応じ
た幾何変換処理を施すための情報と、 を記憶したことを特徴とする情報記憶媒体。
9. An information storage medium for generating an image of a virtual space based on a given viewpoint and storing information for executing a given game by displaying the generated image, the information storage medium comprising: In order to represent the refractors arranged in the information, information for selecting an approximate display area image corresponding to the area where the refractors are displayed from the generated image, and for the approximate display area image, An information storage medium, which stores: information for performing a geometric transformation process according to a form of the refraction body.
【請求項10】請求項9記載の情報記憶媒体であって、 前記幾何変換処理を施すための情報には、少なくとも、
前記所与の視点と前記屈折体との距離に基づく前記略表
示領域画像の変換処理を実行するための情報が含まれる
ことを特徴とする情報記憶媒体。
10. The information storage medium according to claim 9, wherein the information for performing the geometric transformation processing includes at least:
An information storage medium including information for executing a conversion process of the approximate display area image based on a distance between the given viewpoint and the refraction body.
【請求項11】請求項10記載の情報記憶媒体であっ
て、 前記略表示領域画像の変換処理を実行するための情報
は、前記所与の視点の座標系における前記屈折体の奥行
値に基づく前記略表示領域画像の射影変換処理を実行す
るための情報であることを特徴とする情報記憶媒体。
11. The information storage medium according to claim 10, wherein the information for executing the conversion process of the substantially display area image is based on a depth value of the refraction body in the coordinate system of the given viewpoint. An information storage medium, which is information for executing a projection conversion process of the approximate display area image.
【請求項12】請求項11記載の情報記憶媒体であっ
て、 前記屈折体の奥行値の変更処理を実行するための情報を
記憶することを特徴とする情報記憶媒体。
12. The information storage medium according to claim 11, wherein information for executing a process of changing a depth value of said refractor is stored.
【請求項13】請求項9から12のいずれか記載の情報
記憶媒体であって、 前記屈折体の透過率情報と、 前記略表示領域画像に対して、前記屈折体の透過率に基
づくぼかし処理を実行するための情報を記憶することを
特徴とする情報記憶媒体。
13. The information storage medium according to claim 9, wherein the transmissivity information of the refractor and the blurring process based on the transmissivity of the refractor are applied to the substantially display area image. An information storage medium, which stores information for performing the following.
【請求項14】請求項9から13のいずれか記載の情報
記憶媒体であって、 前記屈折体を形作る部分毎に前記幾何変換処理を施すた
めの情報を記憶することを特徴とする情報記憶媒体。
14. The information storage medium according to claim 9, wherein information for performing the geometric transformation process is stored for each part forming the refractor. .
【請求項15】請求項9から14のいずれか記載の情報
記憶媒体であって、 前記生成画像の中から前記略表示領域画像を選択する際
に、前記屈折体の表示領域から僅かにずれた部分、或い
は、前記屈折体の表示領域との大きさが僅かに異なる部
分の画像を前記略表示領域画像として選択するための情
報と、 当該略表示領域画像を前記生成画像における前記屈折体
の表示領域に合成するための情報と、 を記憶することを特徴とする情報記憶媒体。
15. The information storage medium according to claim 9, wherein, when selecting the approximate display area image from the generated images, the information storage medium slightly deviates from the display area of the refractor. Information for selecting a portion or an image of a portion having a slightly different size from the display area of the refractor as the approximate display area image; and displaying the refractor in the generated image using the approximate display area image. An information storage medium, which stores information for combining with an area, and
JP2000340739A 2000-11-08 2000-11-08 Information storage medium and image generation apparatus Expired - Fee Related JP4589517B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000340739A JP4589517B2 (en) 2000-11-08 2000-11-08 Information storage medium and image generation apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000340739A JP4589517B2 (en) 2000-11-08 2000-11-08 Information storage medium and image generation apparatus

Publications (2)

Publication Number Publication Date
JP2002150310A true JP2002150310A (en) 2002-05-24
JP4589517B2 JP4589517B2 (en) 2010-12-01

Family

ID=18815602

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000340739A Expired - Fee Related JP4589517B2 (en) 2000-11-08 2000-11-08 Information storage medium and image generation apparatus

Country Status (1)

Country Link
JP (1) JP4589517B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011103142A (en) * 2011-02-16 2011-05-26 Copcom Co Ltd Display device of three-dimensional animation and program for achieving the display device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03164981A (en) * 1989-11-24 1991-07-16 Fujitsu Ltd Image editing system
JPH044475A (en) * 1990-04-20 1992-01-08 Fujitsu Ltd Hue processing system
JPH113432A (en) * 1997-06-12 1999-01-06 Sega Enterp Ltd Image processor, game machine, its method and recording medium
WO2000049573A1 (en) * 1999-02-19 2000-08-24 Sony Computer Entertainment Inc. System for and method of implementing refraction mapping

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03164981A (en) * 1989-11-24 1991-07-16 Fujitsu Ltd Image editing system
JPH044475A (en) * 1990-04-20 1992-01-08 Fujitsu Ltd Hue processing system
JPH113432A (en) * 1997-06-12 1999-01-06 Sega Enterp Ltd Image processor, game machine, its method and recording medium
WO2000049573A1 (en) * 1999-02-19 2000-08-24 Sony Computer Entertainment Inc. System for and method of implementing refraction mapping

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011103142A (en) * 2011-02-16 2011-05-26 Copcom Co Ltd Display device of three-dimensional animation and program for achieving the display device

Also Published As

Publication number Publication date
JP4589517B2 (en) 2010-12-01

Similar Documents

Publication Publication Date Title
US6580430B1 (en) Method and apparatus for providing improved fog effects in a graphics system
US20090244064A1 (en) Program, information storage medium, and image generation system
US6151026A (en) Image processing apparatus and image processing method
JP3705739B2 (en) Information storage medium and game device
JP2008225985A (en) Image recognition system
JP2008033521A (en) Program, information storage medium and image generation system
JP2004005452A (en) Image processor, image processing method, semiconductor device, computer program and record medium
JP4717622B2 (en) Program, information recording medium, and image generation system
JP4305903B2 (en) Image generation system, program, and information storage medium
JP3453119B2 (en) Information storage medium and game device
JP4868586B2 (en) Image generation system, program, and information storage medium
JP2006323512A (en) Image generation system, program, and information storage medium
JP4303395B2 (en) GAME DEVICE AND INFORMATION STORAGE MEDIUM
JP4006243B2 (en) Image generation information, game information, information storage medium, image generation device, and game device
JP5146054B2 (en) Generation control program of sound generated from sound source in virtual space
JP4528008B2 (en) Program, information storage medium, and image generation system
JP4229317B2 (en) Image generation system, program, and information storage medium
JP4589517B2 (en) Information storage medium and image generation apparatus
JP2007272388A (en) Program, information storage medium and image generation system
JP4488346B2 (en) Program, information storage medium, and image generation system
US20100144448A1 (en) Information storage medium, game device, and game system
JP4802254B2 (en) GAME DEVICE AND INFORMATION STORAGE MEDIUM
JP2002251625A (en) Device and method for processing image, recording medium for recording program for processing image operating on computer
JP2007164651A (en) Program, information storage medium and image generation system
JP4688405B2 (en) PROGRAM, INFORMATION STORAGE MEDIUM, AND GAME DEVICE

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071105

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20071105

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20071207

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20071207

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100412

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100420

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100618

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100907

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100910

R150 Certificate of patent or registration of utility model

Ref document number: 4589517

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130917

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130917

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees