JPH06348860A - Picture synthesizing device and game device using the same - Google Patents

Picture synthesizing device and game device using the same

Info

Publication number
JPH06348860A
JPH06348860A JP5166494A JP16649493A JPH06348860A JP H06348860 A JPH06348860 A JP H06348860A JP 5166494 A JP5166494 A JP 5166494A JP 16649493 A JP16649493 A JP 16649493A JP H06348860 A JPH06348860 A JP H06348860A
Authority
JP
Japan
Prior art keywords
image
dimensional object
texture information
polygon
polygons
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP5166494A
Other languages
Japanese (ja)
Other versions
JP2883514B2 (en
Inventor
Masaaki Tsuchida
政明 土田
Takehito Sasaki
建仁 佐々木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Namco Ltd
Original Assignee
Namco Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Ltd filed Critical Namco Ltd
Priority to JP5166494A priority Critical patent/JP2883514B2/en
Publication of JPH06348860A publication Critical patent/JPH06348860A/en
Application granted granted Critical
Publication of JP2883514B2 publication Critical patent/JP2883514B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Abstract

PURPOSE:To provide a real time display type picture synthesizing device in which the surface with projecting and recessing parts of a three-dimensional object can be simplified and expressed by the combination of a few polygons, and the picture of a high picture quality with a stereoscopic sensation can be synthesized. CONSTITUTION:In a real time display type picture synthesizing device, a three- dimensional object expressed by combining the polygons in a vertual three-dimensional space is transformed in perspective projection on the projcting surface of a view point coordinate system, and a display picture is synthesized. This device is equipped with a texture information storage means 42 which preliminarily stores the picture of each polygon obtained when the three-dimensional object is viewed from a prescribed angle in an oblique direction as texture information. Then, a picture forming part 44 operates the mapping of the corresponding texture information stored in the texture information storage means 42, forms the display picture, and displays it on a display 46 for the polygon of the three-dimensional object. Thus, the picture obtained when the three-dimensional object is viewed from the oblique direction can be expressed by a few polygons.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明はテクスチャマッピングの
手法を用いたリアルタイム表示型画像合成装置及びこれ
を用いたゲーム装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a real-time display type image synthesizing apparatus using a texture mapping method and a game apparatus using the same.

【0002】[0002]

【従来の技術】従来、コンピュータグラフィックスの技
術を用い擬似3次元画像を合成するリアルタイム表示型
画像合成装置が知られており、例えば各種のビデオゲー
ムや、飛行機及び各種乗物用の操縦シュミレータ等に幅
広く用いられている。
2. Description of the Related Art Conventionally, a real-time display type image synthesizing device for synthesizing a pseudo three-dimensional image by using a computer graphics technique has been known. Widely used.

【0003】図10には、このような画像合成装置の原
理図が示されている。この画像合成装置には、仮想3次
元空間300内における3次元オブジェクト310に関
する画像情報が予め記憶されている。前記3次元オブジ
ェクト300に関する画像情報は、ポリゴンに分割され
た多面体、すなわちポリゴン(1)〜(6)(ポリゴン
4乃至6は図示せず)に分割された多面体として表現さ
れ、予めメモリ内に記憶されている。
FIG. 10 shows a principle diagram of such an image synthesizing apparatus. Image information about the three-dimensional object 310 in the virtual three-dimensional space 300 is stored in advance in this image synthesizing device. The image information regarding the three-dimensional object 300 is expressed as a polyhedron divided into polygons, that is, a polyhedron divided into polygons (1) to (6) (polygons 4 to 6 are not shown) and stored in advance in a memory. Has been done.

【0004】ドライブゲームを例にとれば、3次元オブ
ジェクト310はレーシングカーであり、仮想3次元空
間300内には、この他に道路、家などの背景を表す各
種の3次元オブジェクトが配置されている。
Taking the drive game as an example, the three-dimensional object 310 is a racing car, and various other three-dimensional objects representing the background of roads, houses, etc. are arranged in the virtual three-dimensional space 300. There is.

【0005】そして、プレイヤー312が、操作パネル
314に設けられたハンドル等により、回転、並進等の
操作を行うと、装置はこの操作信号に基づいてレーシン
グカーである3次元オブジェクト310の回転、並進等
の情報をリアルタイム演算する。そして、この3次元オ
ブジェクト300及びその他の3次元オブジェクトは、
視点座標系の透視投影面316上に透視投影変換され、
擬似3次元画像318として表示される。この結果、プ
レイヤー312は、自身の操作によりレーシングカーで
ある3次元オブジェクト300をリアルタイムに回転、
並進することが可能となり、擬似3次元空間を仮想シュ
ミレートできることとなる。
Then, when the player 312 performs an operation such as rotation or translation with a handle or the like provided on the operation panel 314, the device rotates or translates the three-dimensional object 310, which is a racing car, based on the operation signal. Calculate information in real time. Then, the three-dimensional object 300 and other three-dimensional objects are
Perspective projection conversion is performed on the perspective projection plane 316 of the viewpoint coordinate system,
It is displayed as a pseudo three-dimensional image 318. As a result, the player 312 rotates the three-dimensional object 300, which is a racing car, in real time by its own operation.
It is possible to translate, and it is possible to virtually simulate a pseudo three-dimensional space.

【0006】[0006]

【発明が解決しようとする課題】このようなリアルタイ
ム表示型の画像合成装置では、ハードウェアの負担を軽
減しながら、高画質の画像を合成することが望まれる。
In such a real-time display type image synthesizing apparatus, it is desired to synthesize a high quality image while reducing the load on the hardware.

【0007】しかし、従来の画像合成装置では、画像の
高画質化を図ろうとすると、ハードウェアの処理するデ
ータ量が増え、1画面当りの表示オブジェクト数が制約
されてしまうという問題があった。
However, the conventional image synthesizing apparatus has a problem that the amount of data processed by the hardware increases and the number of display objects per screen is restricted when an attempt is made to improve the image quality of an image.

【0008】例えば、ドライブゲームなどにおいては、
道路の両側または片側に図11に示すような建物(3次
元オブジェクト310)が表示される。この建物310
は複数の面350−1、350−2、350−3の組み
合わせから構成されている。コンピュータグラフィック
スの手法では、これら各面350−1、350−2、3
50−3に、凹凸のない場合に限り、これらをそれぞれ
四角形のポリゴンで表示できる。
For example, in a drive game,
A building (three-dimensional object 310) as shown in FIG. 11 is displayed on both sides or one side of the road. This building 310
Is composed of a combination of a plurality of surfaces 350-1, 350-2, 350-3. In computer graphics techniques, each of these faces 350-1, 350-2, 3
Only when there is no unevenness in 50-3, these can be displayed as quadrangular polygons.

【0009】しかし、建物のリアリティーを高めるため
には、建物の側面350−1、350−2に、窓352
を表す凹みや、玄関354を表す凹み、さらには玄関3
54の上には廂356を表す凸部等を設ける必要があ
る。
However, in order to enhance the reality of the building, the windows 352 are formed on the side surfaces 350-1 and 350-2 of the building.
, The dent that represents the entrance 354, and the entrance 3
It is necessary to provide a convex portion or the like representing the border 356 on 54.

【0010】コンピュータグラフィックスでは、穴の開
いた図形は、これを穴の開いていない複数のポリゴンに
分割して対処し、また廂356のような凸部は、これを
複数のポリゴンに分割して対処する。従って、図11に
示すよう、窓、玄関、廂のある建物310を、リアリテ
ィーをもたして表現するためには、側面350−1、3
50−2をさらに多数のポリゴンに分割しなければなら
ない。例えば、図11に示すような3次元オブジェトを
表す場合には、2つの面350−1、350−2は約1
00個のポリゴンで表現されることになる。
In computer graphics, a figure with a hole is dealt with by dividing it into a plurality of polygons without a hole, and a convex portion such as the ridge 356 divides it into a plurality of polygons. To deal with. Therefore, as shown in FIG. 11, in order to express the building 310 with windows, entrances, and shelters in a realistic manner, the side surfaces 350-1 and 350-3 are used.
50-2 must be divided into a larger number of polygons. For example, in the case of expressing a three-dimensional object as shown in FIG. 11, the two surfaces 350-1 and 350-2 have about 1
It will be represented by 00 polygons.

【0011】しかし、コンピュータグラフィックスの技
術では、ポリゴンの演算はハードウェアに大きな負担を
与える演算である。1個当りの3次元オブジェクトを構
成するためのポリゴン数が増えれば増えるほど、ハード
ウェアの演算回数が増し、1フィールド当りに表示でき
るオブジェクト数が限られたものとなってしまうという
問題が生ずる。
However, in the computer graphics technology, the calculation of polygons is a calculation that puts a heavy load on the hardware. As the number of polygons for constructing a three-dimensional object per piece increases, the number of hardware calculations increases and the number of objects that can be displayed per field becomes limited.

【0012】例えば、ディスプレイの1フィールド(6
0分の1秒)内に処理できるコンピュータのポリゴン数
が3000である場合には、図11に示すような建物
は、3000÷200=15個となり、1画面当り最大
15しか表示できない。しかし、実際のゲーム画面に
は、建物以外に道路や、他の車などといった複数のオブ
ジェクトを登場させなければならないため、ドライブゲ
ームで表示できる建物などは、精々4から5棟程度とな
ってしまい、変化に乏しいゲーム画面となってしまうと
いう問題があった。
For example, one field (6
When the number of computer polygons that can be processed within one-half second) is 3000, the number of buildings shown in FIG. 11 is 3000 ÷ 200 = 15, and only 15 can be displayed at maximum per screen. However, on the actual game screen, multiple objects such as roads and other cars must appear in addition to buildings, so the number of buildings that can be displayed in the drive game will be about 4 to 5 at most. However, there was a problem that the game screen changed little.

【0013】本発明は、このような従来の課題に鑑みな
されたものであり、その目的は、3次元オブジェクトの
凹凸のある面を少ないポリゴンの組み合わせで簡略化し
て表現し、しかも立体感のある高画質の画像を合成する
ことができるリアルタイム表示型画像合成装置及びこれ
を用いたゲーム装置を提供することにある。
The present invention has been made in view of the above-mentioned conventional problems, and its object is to simply express the uneven surface of a three-dimensional object with a combination of a small number of polygons, and to give a stereoscopic effect. An object of the present invention is to provide a real-time display type image synthesizing device capable of synthesizing high quality images and a game device using the same.

【0014】[0014]

【課題を解決するための手段】前記目的を達成するため
に、本発明は、仮想3次元空間内に、ポリゴンを組合わ
せて表現された3次元オブジェクトを、視点座標系の投
影面に透視投影変換し、表示画像を合成するリアルタイ
ム表示型画像合成装置において、前記3次元オブジェク
トを所定アングルから斜め方向にみた各ポリゴン上の画
像がテクスチャ情報として予め記憶されたテクスチャ情
報記憶手段と、前記3次元オブジェクトのポリゴンに、
前記テクスチャ情報記憶手段に記憶された対応する前記
テクスチャ情報をマッピングし前記表示画像を形成する
画像形成手段と、を含み、3次元オブジェクトを斜め方
向からみた画像を、少ないポリゴンで表現するよう形成
されたことを特徴とする。
In order to achieve the above object, the present invention provides a perspective projection of a three-dimensional object represented by combining polygons in a virtual three-dimensional space onto a projection plane of a viewpoint coordinate system. In a real-time display type image synthesizing device for converting and synthesizing a display image, a texture information storage unit in which an image on each polygon when the three-dimensional object is viewed obliquely from a predetermined angle is previously stored as texture information; To the polygon of the object,
An image forming means for mapping the corresponding texture information stored in the texture information storage means to form the display image, and forming an image of a three-dimensional object viewed from an oblique direction with a small number of polygons. It is characterized by that.

【0015】また、本発明は、仮想3次元空間内に、ポ
リゴンを組合わせて表現された3次元オブジェクトを、
移動する視点座標系の投影面に透視投影変換し、表示画
像を合成するリアルタイム表示型画像合成装置におい
て、前記視点座標系の移動経路に沿った代表的な複数ア
ングルから、前記3次元オブジェクトを斜め方向にみた
各ポリゴン上の画像がテクスチャ情報として予め記憶さ
れたテクスチャ情報記憶手段と、前記3次元オブジェク
トのポリゴンに、前記視点座標系と3次元オブジェクト
との相対位置に応じたテクスチャ情報を前記テクスチャ
情報記憶手段から読み出してマッピングすることにより
前記表示画像を形成する画像形成手段と、を含み、3次
元オブジェクトを斜め方向からみた画像を、少ないポリ
ゴンで表現するよう形成されたことを特徴とする。
Further, according to the present invention, a three-dimensional object represented by combining polygons in a virtual three-dimensional space is
In a real-time display type image synthesizing device that performs perspective projection conversion on a projection plane of a moving viewpoint coordinate system and synthesizes a display image, the three-dimensional object is slanted from a plurality of typical angles along a moving path of the viewpoint coordinate system. Texture information storage means in which an image on each polygon viewed in the direction is stored in advance as texture information, and the polygon of the three-dimensional object is provided with texture information according to the relative position between the viewpoint coordinate system and the three-dimensional object. And an image forming unit that forms the display image by reading from the information storage unit and performing mapping, and an image obtained by viewing the three-dimensional object in an oblique direction is formed by a small number of polygons.

【0016】さらに、本発明のゲーム装置は、プレーヤ
が操作するプレーヤ操作手段と、前記プレーヤ操作手段
からの入力信号と、予め記憶されたゲームプログラムと
に基づき、仮想3次元ゲーム空間内に、ポリゴンを組合
わせて表現された3次元オブジェクトが登場する所定の
ゲーム演算を行うとともに、前記3次元オブジェクトを
移動する視点座標系の投影面に透視投影変換して出力す
るゲーム空間演算手段と、前記視点座標系の移動経路に
沿った代表的なアングルから、前記3次元オブジェクト
を斜め方向にみた各ポリゴン上の画像がテクスチャ情報
として予め記憶されたテクスチャ情報記憶手段と、前記
3次元オブジェクトのポリゴンに、対応するテクスチャ
情報を前記テクスチャ情報記憶手段から読み出してマッ
ピングすることにより表示画像を形成しディスプレイ上
に表示する画像形成手段と、を含み、3次元オブジェク
トを斜め方向からみた画像を、少ないポリゴンで表現し
ゲーム画面を形成することを特徴とする。
Further, in the game device of the present invention, a polygon is created in the virtual three-dimensional game space based on the player operating means operated by the player, the input signal from the player operating means, and the game program stored in advance. A game space calculation means for performing a predetermined game operation in which a three-dimensional object represented by combining the three-dimensional objects appears, and for perspective-projecting and outputting the three-dimensional object on a projection plane of a moving viewpoint coordinate system; Texture information storage means in which an image on each polygon obtained by viewing the three-dimensional object in an oblique direction from a representative angle along the movement path of the coordinate system is stored in advance as texture information, and a polygon of the three-dimensional object, The corresponding texture information is read from the texture information storage means and mapped. Ri includes an image forming means for displaying on the substrates to form a display image display, and an image viewed three-dimensional object from an oblique direction, and forming a game screen representing a small polygons.

【0017】前記ゲーム装置において、前記テクスチャ
情報記憶手段は、視点座標系の移動経路に沿った代表的
な複数アングルから、前記3次元オブジェクトを斜め方
向にみた各ポリゴン上の画像がテクスチャ情報として予
め記憶され、前記画像形成手段は、前記3次元オブジェ
クトのポリゴンに、前記視点座標系と3次元オブジェク
トとの相対位置に応じたテクスチャ情報を前記テクスチ
ャ情報記憶手段から読み出してマッピングするよう形成
することができる。
In the game device, the texture information storage means stores in advance, as texture information, an image on each polygon in which the three-dimensional object is viewed obliquely from a plurality of typical angles along the movement path of the viewpoint coordinate system. The image forming means may store the texture information corresponding to the relative position of the viewpoint coordinate system and the three-dimensional object in the polygon of the three-dimensional object, and read and map the texture information from the texture information storage means. it can.

【0018】[0018]

【作用】請求項1の発明によれば、複数ポリゴンの組合
わせで表現された3次元オブジェクトを、所定の視点か
ら斜め方向に見た時のポリゴンの画像が、テクスチャ情
報として予め記憶されている。このように、3次元オブ
ジェクトを所定アングルから斜め方向に見た画像は、そ
れ自体が立体感をもっている。
According to the invention of claim 1, an image of a polygon when a three-dimensional object represented by a combination of a plurality of polygons is viewed obliquely from a predetermined viewpoint is stored in advance as texture information. . As described above, an image of a three-dimensional object viewed obliquely from a predetermined angle has a stereoscopic effect.

【0019】従って、前記テクスチャ情報を、対応する
ポリゴンにマッピングすることにより、各ポリゴンをそ
の凹凸に合せて複数に分割することなく、凹凸感をもっ
た高画質の画像を合成することができる。
Therefore, by mapping the texture information to corresponding polygons, it is possible to synthesize a high-quality image having a feeling of unevenness without dividing each polygon into a plurality of parts according to the unevenness thereof.

【0020】このようにして、本発明によれば、ハード
ウェアの負担を軽くしながら、立体感のある高画質の画
像を合成することができる。
As described above, according to the present invention, it is possible to synthesize a high-quality image having a stereoscopic effect while reducing the load on the hardware.

【0021】特に、本発明をリアルタイム表示型画像合
成装置に用いれば、3次元オブジェクトをほぼ想定され
た視点またはその近傍で見る限り、前記3次元オブジェ
クトの凹凸のある面を多数のポリゴンで作成した場合と
同様な立体感のある複雑かつ緻密な画像としてリアルタ
イムで表示することができる。
In particular, when the present invention is applied to a real-time display type image synthesizing device, the uneven surface of the three-dimensional object is made up of a large number of polygons as long as the three-dimensional object is viewed at or near the supposed viewpoint. The image can be displayed in real time as a complicated and precise image having a stereoscopic effect similar to the case.

【0022】また、請求項1の発明によれば、非リアル
タイムの画像合成を行う場合でも、3次元オブジェクト
の凹凸面を一つのテクスチャ情報を用いて形成すること
ができ、これにより、そのレンダリング作業に要する時
間を大幅に短縮することができる。
Further, according to the invention of claim 1, even when non-real-time image composition is performed, the uneven surface of the three-dimensional object can be formed by using one piece of texture information. The time required for can be greatly reduced.

【0023】さらに、請求項2の発明によれば、視点座
標系の移動経路に沿った代表的な複数アングルから、前
記3次元オブジェクトを斜め方向に見た各ポリゴンの画
像がテクスチャ情報として予め記憶されている。このた
め、視点座標系と3次元オブジェクトとの相対位置に応
じたテクスチャ情報を3次元オブジェクトの各ポリゴン
にマッピングすることにより、複数の視点位置に対して
よりリアリティーに富んだ高品質の画像をリアルタイム
で合成することができる。
Further, according to the invention of claim 2, an image of each polygon in which the three-dimensional object is viewed obliquely from a plurality of representative angles along the movement path of the viewpoint coordinate system is stored in advance as texture information. Has been done. Therefore, by mapping the texture information according to the relative position between the viewpoint coordinate system and the three-dimensional object to each polygon of the three-dimensional object, a high-quality image that is more realistic for a plurality of viewpoint positions can be obtained in real time. Can be synthesized with.

【0024】さらに、請求項3の発明によれば、1個の
3次元オブジェクトを表示するために要するハードウェ
アの負担などを軽減しかつ高品質の画像を合成できるこ
とから、ゲーム画面内に多数のオブジュトを登場させ、
変化に富んだリアリティーの高いゲーム画面をリアルタ
イムで合成することができる。
Further, according to the invention of claim 3, since it is possible to reduce the load of the hardware required for displaying one three-dimensional object and to synthesize a high quality image, a large number of images can be displayed on the game screen. Introduce Objet,
A highly realistic game screen that is rich in variety can be synthesized in real time.

【0025】[0025]

【実施例】次に本発明の好適な実施例を図面に基づき詳
細に説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENT A preferred embodiment of the present invention will now be described in detail with reference to the drawings.

【0026】図2には、本発明に係るリアルタイム表示
型画像合成装置の好適な実施例が示されている。なお、
前記従来技術に対応する部材には同一符号を付しその説
明は省略する。
FIG. 2 shows a preferred embodiment of the real-time display type image synthesizing apparatus according to the present invention. In addition,
The members corresponding to the above-mentioned prior art are designated by the same reference numerals and the description thereof is omitted.

【0027】実施例の画像合成装置は、仮想3次元空間
300内に複数ポリゴンを組合わせて表現された3次元
オブジェクト310を、視点座標系の所定透視投影面3
16上に透視投影変換し、表示画像318を合成するも
のである。
In the image synthesizing apparatus of the embodiment, a three-dimensional object 310 represented by combining a plurality of polygons in a virtual three-dimensional space 300 is converted into a predetermined perspective projection plane 3 in the viewpoint coordinate system.
16 is used for perspective projection conversion to synthesize the display image 318.

【0028】この画像合成に際し、実施例の画像合成装
置は、テクスチャマッピングと呼ばれる手法を用いてい
る。すなわち、図3に示すよう、3次元オブジェクト3
10の画像情報を、3次元オブジェクト310を構成す
る各ポリゴン320−1,320−2,320−3……
の画像情報と、各ポリゴンに貼り付ける図形情報(以下
テクスチャ情報と言う)とに分離して記憶し、画像を出
力する際に、各ポリゴン320−1、320−2、32
0−3に、対応するテクスチャ情報340、342を貼
り付けることによって画像合成を行っている。
At the time of this image composition, the image composition apparatus of the embodiment uses a technique called texture mapping. That is, as shown in FIG. 3, the three-dimensional object 3
The image information of 10 is applied to each of the polygons 320-1, 320-2, 320-3 forming the three-dimensional object 310.
Of the polygons 320-1, 320-2, 32 when the image information and the graphic information (hereinafter referred to as texture information) to be attached to each polygon are separately stored and output.
Image composition is performed by pasting corresponding texture information 340 and 342 to 0-3.

【0029】このテクスチャマッピングの手法によれ
ば、処理するポリゴン数を増やすことなく、図形の模
様、色彩等をよりきめ細かなものとすることができる。
According to this texture mapping method, the pattern, color, etc. of a figure can be made finer without increasing the number of polygons to be processed.

【0030】しかし、例えば図11に示すよう、凹部や
凸部を有する3次元オブジェクト310を表現する場合
には、オブジェクト310を構成する各面350−1、
350−2、350−3をその凹凸に合わせて多数のポ
リゴンに分割しなければならないことは、テクスチャマ
ッピングを用いた場合でも同様である。
However, for example, as shown in FIG. 11, when a three-dimensional object 310 having a concave portion or a convex portion is expressed, each surface 350-1 forming the object 310,
The fact that 350-2 and 350-3 must be divided into a large number of polygons in accordance with the unevenness is the same as when using texture mapping.

【0031】前述したように、3次元コンピュータグラ
フィックスシステムを用いてリアルタイム表示を行う場
合には、1秒間に表示できるポリゴン数に一定の限界が
ある。本実施例の特徴は、表示ポリゴン数に制限のある
リアルタイムコンピュータグラフィックスシステムにお
いて、極力少ないポリゴン数で、立体感を損うことな
く、複雑かつ緻密な画像を合成することにある。
As described above, when performing real-time display using a three-dimensional computer graphics system, there is a certain limit on the number of polygons that can be displayed per second. A feature of the present embodiment is that in a real-time computer graphics system with a limited number of displayed polygons, a complicated and precise image can be synthesized with the smallest possible number of polygons without impairing the stereoscopic effect.

【0032】図4には、本発明の画像合成原理が示され
ている。
FIG. 4 shows the image composition principle of the present invention.

【0033】まず、図4(A)に示すような家110を
3次元オブジェクト310として表現する場合には、リ
アルタイムでない別のコンピュータグラフィックスシス
テムによって、多くのポリゴンを使用して綿密にデータ
を作成する。この場合には、凹部を形成する窓、窓枠及
び玄関は、それぞれ複数のポリゴンの組合わせてとして
表現される。さらに、凸部を構成する廂も、複数のポリ
ゴンの組合わせとして表現される。
First, when representing a house 110 as shown in FIG. 4A as a three-dimensional object 310, data is created carefully by using many polygons by another computer graphics system which is not real time. To do. In this case, the window, window frame, and entrance forming the recess are each expressed as a combination of a plurality of polygons. Furthermore, the ridge forming the convex portion is also expressed as a combination of a plurality of polygons.

【0034】このようにして構成された家110(3次
元オブジェクト310)を、所定の視点から、図4
(B)に示すよう斜め方向に見た図形をレンダリングに
より作成する。この場合にも、レンダリング処理は、リ
アルタイムでない別のコンピュータグラフィックスシス
テムによって行う。そして、レンダリングされた画像か
ら、その遠近のひずみを除去し、3次元オブジェクト3
10の各側面50−1、50−2を表す図形を図4
(C)、(D)に示すようなテクスチャ情報360−
1、360−2として作成し、後述するテクスチャ情報
記憶部42に予め記憶しておく。
The house 110 (three-dimensional object 310) constructed in this manner is shown in FIG.
As shown in (B), a figure viewed in an oblique direction is created by rendering. Again, the rendering process is done by another computer graphics system that is not real-time. Then, the perspective distortion is removed from the rendered image, and the 3D object 3
FIG. 4 is a diagram showing the respective side surfaces 50-1 and 50-2 of FIG.
Texture information 360 as shown in (C) and (D)
1 and 360-2, and are stored in advance in the texture information storage unit 42 described later.

【0035】また、実施例の画像合成装置では、図4
(A)に示す3次元オブジェクト110の各側面10
0、200を、凹凸に関係なく図4(E)に示すようそ
れぞれ1つのポリゴンで簡略化して表現する。
Further, in the image synthesizing apparatus of the embodiment, FIG.
Each side surface 10 of the three-dimensional object 110 shown in FIG.
Each of 0 and 200 is simply represented by one polygon as shown in FIG.

【0036】そして、図4(E)に示す各ポリゴンに、
それぞれ図4(C)、(D)に示すテクスチャ情報を貼
り付けるといういわゆるテクスチャマッピングを行うこ
とにより、図4(B)に示すものと同様な品質を持った
画像を形成することができる。
Then, in each polygon shown in FIG.
By performing so-called texture mapping in which the texture information shown in FIGS. 4C and 4D is pasted, an image having the same quality as that shown in FIG. 4B can be formed.

【0037】すなわち、このような簡略化された手法を
採用する本発明のリアルタイムコンピュータグラフィッ
クスシステムは、ほぼ想定された視点付近で3次元オブ
ジェクト310を見る限り、凹凸のある面を多くのポリ
ゴンで作成した場合と変らない立体感をもつ画像として
表現することができる。
That is, the real-time computer graphics system of the present invention which employs such a simplified method has a large number of polygons on the uneven surface as long as the three-dimensional object 310 is viewed near the assumed viewpoint. It can be expressed as an image with a stereoscopic effect that is the same as when it was created.

【0038】特に、図4に示す具体例では、従来100
個のポリゴンで表されていた3次元オブジェクトを2個
のポリゴンで表現できる。従って、例えば、1秒間の表
示可能なポリゴン数が3000個のリアルタイム表示用
コンピュータグラフィックスシステムを用いた場合に
は、従来の技術では30個しか表現できなかったオブジ
ェクトを、1500個表現することができ、単純計算し
ても、1画面当り50倍のポリゴンを表示することがで
きる。
In particular, in the concrete example shown in FIG.
A three-dimensional object represented by one polygon can be represented by two polygons. Therefore, for example, when a real-time display computer graphics system in which the number of polygons that can be displayed in one second is 3000 is used, it is possible to represent 1500 objects which could be represented only by 30 in the conventional technique. It is possible to display 50 times more polygons per screen even with simple calculation.

【0039】図4(F)には、このようなテクスチャマ
ッピングの手法を用い、ディスプレイ上にリアルタイム
表示されるコンピュータグラフィックスの画像が示さ
れ、同図に示すよう、実施例のリアルタイム表示用の画
像合成装置では、複雑かつ変化に富んだリアリティーの
高い画像を、多くのオブジェクトを使用して表現するこ
とができる。
FIG. 4F shows an image of computer graphics which is displayed in real time on the display using such a texture mapping method. As shown in FIG. The image synthesizing apparatus can express a complex and varied image with high reality by using many objects.

【0040】なお、テクスチャ情報の作成は、これ以外
に、図4(A)の家の各面を所定アングルから見た図形
を、平行投影した後にひずみを除去して作成してもよ
く、また、絵を描く要領で各ドット毎に作成してもよ
い。
In addition to the above, the texture information may be created by parallelly projecting a figure of each surface of the house in FIG. 4A viewed from a predetermined angle and then removing the distortion. Alternatively, it may be created for each dot in the same manner as drawing a picture.

【0041】さらには、模型または実物を所定アングル
から斜め方向に写真撮影し、必要な部分の画像を、スキ
ャナー等でドット画像情報としてとり込み、遠近のひず
みを除去して、テクスチャ情報とすることもできる。
Further, the model or the real object is photographed in an oblique direction from a predetermined angle, the image of a necessary portion is taken in as dot image information by a scanner or the like, the distortion in the perspective is removed, and the texture information is obtained. You can also

【0042】すなわち、テクスチャ情報の作成は、大別
して、ポリゴンを用いて作成した3次元オブジェクトを
用いる手法と、絵を描く要領で各ドット毎に画像を作成
していく手法と、写真から画像情報を取り込んで作成す
る手法のものとがある。そして、3次元ポリゴンを用い
た手法としては、前述したように図4(A)に示す3次
元オブジェクト310の各面を所定の視点から斜め方向
に見た図形をレンダリングにより作成し、レンダリング
された図形からその遠近のひずみを除去してテクスチャ
情報を作成する手法と、図4(A)の3次元オブジェク
ト310の各面を、所定アングルから見た図形を、平行
投影した後にひずみを除去してテクスチャ情報を作成す
る手法とがある。これらの手法を適宜選択して、前記テ
クスチャ情報を作成すればよい。
That is, the texture information is roughly classified into a method of using a three-dimensional object created by using polygons, a method of creating an image for each dot in the manner of drawing a picture, and image information from a photograph. There is a method of taking in and creating. As a method using a three-dimensional polygon, as described above, a rendering of each surface of the three-dimensional object 310 shown in FIG. 4A viewed obliquely from a predetermined viewpoint is created and rendered. A method of removing texture distortion by removing the perspective distortion from a figure, and removing the distortion after parallel projection of a figure in which each surface of the three-dimensional object 310 in FIG. There is a method of creating texture information. The texture information may be created by appropriately selecting these methods.

【0043】また、図5には、本発明の手法を用いて得
られた3次元オブジェクトの画像の一例が示されてい
る。図6には、他の手法を用いて得られた3次元オブジ
ェクトの画像の一例が示されている。
Further, FIG. 5 shows an example of an image of a three-dimensional object obtained by using the method of the present invention. FIG. 6 shows an example of an image of a three-dimensional object obtained by using another method.

【0044】図5に示す画像は、同図(A)に示すよ
う、3次元オブジェクトを斜め方向から見た状態でレン
ダリングし、凹凸を有する各側面のテクスチャ情報を予
め作成する。そして、このようにして得られたテクスチ
ャ情報を、3次元オブシェクトを構成する各側面のポリ
ゴンに貼り付けることにより、図5(B)に示すような
オブジェクトの画像合成を行うものである。
As shown in FIG. 5A, the image shown in FIG. 5 is rendered in a state in which a three-dimensional object is viewed from an oblique direction, and texture information of each side having irregularities is created in advance. Then, the texture information obtained in this way is pasted to the polygons on each side forming the three-dimensional object to perform image composition of the object as shown in FIG. 5 (B).

【0045】これに対し図6(A)に示す手法は、3次
元オブジェクトの凹凸を有する各側面を、それぞれ正面
からレンダリングしてテクスチャ情報を作成しておく。
そして、3次元オブジェクトの各側面に、前記各テクス
チャ情報を貼り付け、画像を合成したものである。3次
元オブジェクト310の各側面を、正面からレンダリン
グした画像を、テクスチャマッピングに用いると、これ
により得られたオブジェクトの画像は、同図(B)に示
すよう、本来見えるはずのない窓枠が見えたり、廂の向
きが狂ったりして、その凹凸が不自然なものとなる。
On the other hand, in the method shown in FIG. 6A, texture information is created by rendering each side surface of the three-dimensional object having irregularities from the front side.
Then, the texture information is pasted on each side surface of the three-dimensional object to synthesize an image. When an image in which each side of the three-dimensional object 310 is rendered from the front is used for texture mapping, the image of the object thus obtained has a window frame that should not be seen, as shown in FIG. Or, the direction of the shelter may go wrong, and the unevenness becomes unnatural.

【0046】移動する視点座標系から、3次元オブジェ
クトをみる場合、これを正面から見る場合より、斜め方
向から見る場合の方が圧倒的に多い。従って、図5に示
すよう、3次元オブジェクトの各面のテクスチャ情報を
斜め方向から見るようにして作成しておくことにより、
立体感のあるリアリティの高い画像を簡単に合成するこ
とができる。
When looking at a three-dimensional object from a moving viewpoint coordinate system, it is overwhelmingly more likely to see it from an oblique direction than to see it from the front. Therefore, as shown in FIG. 5, by creating the texture information of each surface of the three-dimensional object as viewed from an oblique direction,
It is possible to easily compose a highly realistic image with a stereoscopic effect.

【0047】図7、図8には本発明の手法を用いて形成
された建物110の表示画像を、視点座標系を移動させ
ながら表示する様子が示されている。
7 and 8 show how a display image of a building 110 formed by using the method of the present invention is displayed while moving the viewpoint coordinate system.

【0048】まず、図7に示すよう、画像合成装置の3
次元仮想空間300内に、プレーヤの操縦するレーシン
グカー120と、このレーシングカー120が走行する
道路130と、この道路130に面して設置された建物
110とが3次元オブジェクトとして存在する場合を想
定する。ここにおいて、前記建物110は、図4に示す
テクスチャマッピングの手法により画像合成されるもの
とする。なお、図4(C),(D)のテクスチャ情報
は、建物110を図7の120Aの視点位置からみた状
態でレンダリングしたものを用いた。
First, as shown in FIG.
It is assumed that a racing car 120 operated by a player, a road 130 on which the racing car 120 runs, and a building 110 installed facing the road 130 exist as three-dimensional objects in the three-dimensional virtual space 300. To do. Here, the building 110 is image-synthesized by the texture mapping method shown in FIG. The texture information shown in FIGS. 4C and 4D is obtained by rendering the building 110 as viewed from the viewpoint position of 120A in FIG.

【0049】このようにして形成された仮想3次元空間
300内において、レーシングカー100からみた画像
をディスプレイ上に表示する場合には、その視点座標系
がレーシングカー100と共に仮想3次元空間300内
を移動する。
When the image viewed from the racing car 100 is displayed on the display in the virtual three-dimensional space 300 formed in this way, the viewpoint coordinate system of the viewpoint is in the virtual three-dimensional space 300 together with the racing car 100. Moving.

【0050】特に、ドライブゲーム等においては、レー
シングカー120は道路130に沿って移動するため、
この視点座標系の移動経路も、予め定まったものとな
る。
In particular, in a driving game or the like, the racing car 120 moves along the road 130,
The movement path of this viewpoint coordinate system is also predetermined.

【0051】建物110に対して視点座標系が、Aの領
域、Bの領域、Cの領域にある場合を想定すると、建物
110は、ディスプレイ上に図8に示すようにそれぞれ
表示されることになる。
Assuming that the viewpoint coordinate system is in the area A, the area B, and the area C for the building 110, the building 110 is displayed on the display as shown in FIG. Become.

【0052】このように斜め方向から見た画像は、テク
スチャ情報作成時に設定された視点位置120Aよりあ
る程度偏位しても、その立体感が損われず、高いリアリ
ティーを有することとなる。
As described above, the image viewed from an oblique direction has a high reality without losing the stereoscopic effect even if the image is deviated to some extent from the viewpoint position 120A set when the texture information is created.

【0053】とりわけ、レーシングカー100が、建物
110に近付くB,Aの領域では、本発明の効果が顕著
なものとなる。
In particular, in the areas B and A where the racing car 100 approaches the building 110, the effect of the present invention becomes remarkable.

【0054】なお、本発明では、前述した建物110以
外に、各種の3次元オブジェクトを、前記と同様なテク
スチャマッピングの技術を用い、少ないポリゴン数で表
現することができる。
In the present invention, various three-dimensional objects other than the building 110 described above can be expressed with a small number of polygons by using the same texture mapping technique as described above.

【0055】例えば、図12(A)に示すような高層建
築を表現する場合には、同図(B)に示すよう、側面を
斜め方向からみたテクスチャ情報を予め形成しておけば
よい。また、図13に示すような高層建築を表現する場
合でも、同様な手法を用いてやればよい。
For example, in the case of expressing a high-rise building as shown in FIG. 12A, texture information in which the side surface is viewed obliquely may be formed in advance as shown in FIG. 12B. Also, when expressing a high-rise building as shown in FIG. 13, a similar method may be used.

【0056】また、図14に示すよう、道路周辺施設を
画像合成する場合には、同図(B)に示すよう、例え
ば、土留用のブロックを同様の手法によりテクスチャ情
報として記憶しておけばよい。
Further, as shown in FIG. 14, when the road peripheral facility is image-synthesized, as shown in FIG. 14B, for example, if a block for soil retention is stored as texture information by a similar method. Good.

【0057】さらに、図15(A)に示すようなトンネ
ル内の景色や、図16に示すようなガードレールの画像
を合成する場合には、図15(B)に示すよう、トンネ
ル内の配管等の各パーツや、図16(B)に示すような
ガードレールの各部をテクスチャ情報として同様に形成
しておくことにより、少ないポリゴンで立体感のある画
像を合成することができる。
Further, when synthesizing the scenery in the tunnel as shown in FIG. 15A and the image of the guardrail as shown in FIG. 16, as shown in FIG. By similarly forming each of the parts and each part of the guardrail as shown in FIG. 16B as texture information, it is possible to synthesize an image having a stereoscopic effect with a small number of polygons.

【0058】図1には、本発明が適用されたゲーム機用
画像合成装置のブロック図が示されている。
FIG. 1 is a block diagram of a game machine image synthesizing apparatus to which the present invention is applied.

【0059】実施例の画像合成装置は、プレーヤ操作部
10と、ゲーム空間演算部20と、ソーティング処理部
30と、画像合成部40とを含み、合成した表示画像を
ディスプレイ46上に表示するよう形成されている。
The image synthesizing apparatus of the embodiment includes a player operating section 10, a game space computing section 20, a sorting processing section 30, and an image synthesizing section 40, and displays a synthesized display image on the display 46. Has been formed.

【0060】前記プレーヤ操作部10は、前述した操作
パネル314上等に設けられ、プレーヤ312が各種の
操作信号を入力できるよう形成されている。例えば、ド
ライブゲームを例にとると、前記プレーヤ操作部10
は、操作パネル314およびその付近に設けられたハン
ドル、ブレーキ、アクセル等から構成される。
The player operation section 10 is provided on the above-mentioned operation panel 314 or the like, and is formed so that the player 312 can input various operation signals. For example, taking a drive game as an example, the player operation unit 10
Is composed of an operation panel 314 and a handle, a brake, an accelerator and the like provided in the vicinity thereof.

【0061】前記ゲーム空間演算部20は、前記プレー
ヤ操作部10からの入力信号と、予め記憶されたゲーム
プログラムとに基づき、仮想3次元ゲーム空間300内
に、ポリゴンの組合わせで表現された3次元オブジェク
ト310が登場するゲームの演算を行う。そして、前記
3次元オブジェクト310を、移動する視点座標系の透
視投影面316に透視投影変換し、その情報をソーティ
ング処理部30へ向け出力する。
The game space calculation unit 20 is a combination of polygons expressed in the virtual three-dimensional game space 300 based on an input signal from the player operation unit 10 and a game program stored in advance. The game in which the three-dimensional object 310 appears is calculated. Then, the three-dimensional object 310 is perspective-projected onto the perspective projection plane 316 of the moving viewpoint coordinate system, and the information is output to the sorting processing unit 30.

【0062】このような演算を行うため、実施例のゲー
ム演算部20は、メインCPU22と、3次元演算部2
4と、3次元情報メモリ26とを含む。
In order to perform such a calculation, the game calculation section 20 of the embodiment has a main CPU 22 and a three-dimensional calculation section 2.
4 and a three-dimensional information memory 26.

【0063】図2、図4において、3次元オブジェクト
310に関する画像情報は、ポリゴンに分割された多面
体、例えば図2におけるポリゴン320−1,320−
2,320−3,…320−6(ポリゴン320−4〜
320−6は図示せず)に分割された多面体として表現
され、前記各ポリゴンの各頂点座標、各頂点に対する各
種の画像情報、付随データが3次元情報メモリ26内に
予め記憶されている。
2 and 4, the image information about the three-dimensional object 310 is a polyhedron divided into polygons, for example, the polygons 320-1 and 320- in FIG.
2, 320-3, ... 320-6 (polygon 320-4 to
320-6 is represented as a polyhedron divided into (not shown), and the vertex coordinates of each polygon, various image information for each vertex, and associated data are stored in advance in the three-dimensional information memory 26.

【0064】さらに、実施例の画像合成装置では、3次
元オブジェクト310の回転、並進、透視投影変換等の
座標変換およびクリッピング処理等を、各面を構成する
ポリゴン毎(具体的には各ポリゴンの頂点毎)に行い、
テクスチャ情報については、ポリゴンの処理と分割して
その処理を行っている。この場合のテクスチャ情報その
ものは、後述するテクスチャ情報記憶部42内に記憶し
ておく。そして、そのテクスチャ情報の指定は、各ポリ
ゴンの各頂点に対応して、頂点テクスチャ座標VTX 、
VTY からなる画像情報を与えることにより行う。例え
ば、図2に示すよう、ポリゴン320−1の各頂点に対
しては、(VTX0、VTY0)、(VTX1、VTY1)、
(VTX2、VTY2)、(VTX3、VTY3)の各頂点テク
スチャ座標を与えておく。これら、頂点テクスチャ座標
は、3次元情報メモリ26内に記憶されている。
Further, in the image synthesizing apparatus of the embodiment, the rotation, translation, coordinate conversion such as perspective projection conversion and clipping processing of the three-dimensional object 310 are performed for each polygon constituting each surface (specifically, for each polygon). Every vertex)
The texture information is divided into polygon processing and then divided. The texture information itself in this case is stored in the texture information storage unit 42 described later. Then, the designation of the texture information corresponds to the vertex texture coordinates VTX, corresponding to each vertex of each polygon.
This is done by giving image information consisting of VTY. For example, as shown in FIG. 2, for each vertex of the polygon 320-1, (VTX0, VTY0), (VTX1, VTY1),
The vertex texture coordinates of (VTX2, VTY2) and (VTX3, VTY3) are given. These vertex texture coordinates are stored in the three-dimensional information memory 26.

【0065】実施例のゲーム空間演算部20の構成をド
ライビングゲームを行うゲーム機を例にとりより詳細に
説明する。ゲームを構成する要素であるレーシングカ
ー、道路、建物等を表す3次元オブジェクト310の画
像情報は、3次元情報メモリ26内に記憶される。そし
て、実施例の装置では、この3次元オブジェクトの画像
情報に座標変換、回転、並進等の各種の画像演算処理を
行い、ドライビングゲーム空間300を形成するもので
ある。
The configuration of the game space calculation unit 20 of the embodiment will be described in more detail by taking a game machine for playing a driving game as an example. Image information of a three-dimensional object 310 representing a racing car, a road, a building, etc., which are elements that constitute the game, is stored in the three-dimensional information memory 26. In the apparatus of the embodiment, the image information of the three-dimensional object is subjected to various kinds of image calculation processing such as coordinate conversion, rotation and translation to form the driving game space 300.

【0066】前記メインCPU22は、予め定められた
ゲームプログラムと、プレーヤ操作部10からの入力信
号とに基づき、各種のゲーム演算を行う。例えば、ドラ
イビングゲーム空間300を形成するためには、図7に
示すよう、ドライビングゲームを構成する要素であるレ
ーシングカー、道路や建物などの各種の3次元オブジェ
クト310を、仮想3次元ゲーム空間300上の所定位
置に配置しなければならない。したがって、どの3次元
オブジェクトを、どこに配置するかを表すオブジェクト
ナンバー、位置情報が必要となる。これらのオブジェク
トナンバー、位置情報は、メインCPU22にて演算さ
れ、3次元演算部24へ向け出力される。
The main CPU 22 performs various game calculations based on a predetermined game program and an input signal from the player operation unit 10. For example, in order to form the driving game space 300, various three-dimensional objects 310 such as a racing car, roads and buildings, which are elements that constitute the driving game, are displayed on the virtual three-dimensional game space 300 as shown in FIG. Must be in place. Therefore, an object number and position information indicating which three-dimensional object is to be arranged and where are required. The object number and position information are calculated by the main CPU 22 and output to the three-dimensional calculation unit 24.

【0067】3次元演算部24は、前述したオブジェク
トナンバーをアドレスとして、3次元情報メモリ26か
ら対応する3次元オブジェクトの画像情報の読み出しを
行う。例えばオブジェクトナンバーが図4に示す建物1
10を指定するものである場合には、この建物110の
画像情報が3次元情報メモリ26から読み出される。3
次元情報メモリ26には、建物などの画像情報が複数枚
のポリゴンの集合(図4に示す建物110は2個のポリ
ゴンの集合)として表現され、格納されている。3次元
情報演算部24は、3次元情報メモリ26から読み出し
たデータからオブジェクトデータおよびポリゴンデータ
といわれるデータを形成する。
The three-dimensional operation unit 24 reads the image information of the corresponding three-dimensional object from the three-dimensional information memory 26 by using the above-mentioned object number as an address. For example, building 1 whose object number is shown in FIG.
When 10 is designated, the image information of the building 110 is read from the three-dimensional information memory 26. Three
In the dimension information memory 26, image information such as a building is expressed and stored as a set of a plurality of polygons (the building 110 shown in FIG. 4 is a set of two polygons). The three-dimensional information calculation unit 24 forms data called object data and polygon data from the data read from the three-dimensional information memory 26.

【0068】ここで、オブジェクトデータとは、3次元
オブジェクトである建物等の位置情報、回転情報その他
の付随データで構成されるデータをいう。また、ポリゴ
ンデータとは、前記建物等の画像情報をポリゴンに分割
したデータであり、ポリゴン頂点座標、頂点テクスチャ
座標、輝度情報その他の付随データで構成されるデータ
をいう。これらのデータは、所定のフォーマットのデー
タとして形成される。
Here, the object data refers to data composed of positional information of a building or the like, which is a three-dimensional object, rotation information and other accompanying data. Further, the polygon data is data obtained by dividing the image information of the building or the like into polygons, and is composed of polygon vertex coordinates, vertex texture coordinates, brightness information and other accompanying data. These data are formed as data of a predetermined format.

【0069】そして、3次元演算部24は、メインCP
U22から入力されるプレーヤの視点情報と、前記オブ
ジェクトデータを元にポリゴンデータに対して各種の座
標変換を行う。即ち、ポリゴンデータに対するローカル
座標系への回転、ワールド座標系への平行移動、視点座
標系への回転が行われる。
Then, the three-dimensional calculation unit 24
Based on the player viewpoint information input from U22 and the object data, various coordinate conversions are performed on the polygon data. That is, the polygon data is rotated to the local coordinate system, translated to the world coordinate system, and rotated to the viewpoint coordinate system.

【0070】そして、これらの座標変換が終了したポリ
ゴンデータに対してクリッピング処理が行われ、クリッ
ピング処理が終了したデータは、次段のソーティング処
理部30へ向け出力される。
Then, clipping processing is performed on the polygon data for which the coordinate conversion has been completed, and the data for which the clipping processing has been completed is output to the sorting processing unit 30 in the next stage.

【0071】前記ソーティング処理部30は、このよう
にして入力されたデータおよびソーティング処理用のデ
ータ等を用いて、次段の画像合成部40において処理す
るポリゴンの画像情報の順序を決定し、その順序にした
がって、各ポリゴンの画像情報を画像合成部40へ向け
出力する。
The sorting processing section 30 determines the order of the image information of polygons to be processed in the image synthesizing section 40 at the next stage by using the data thus input and the data for sorting processing, and the like. According to the order, the image information of each polygon is output to the image synthesizing unit 40.

【0072】前記画像合成部40は、各ポリゴンに対す
るテクスチャ情報が記憶されたテクスチャ情報記憶部4
2と、透視投影変換された前記3次元オブジェクトのポ
リゴンに、前記テクスチャ情報記憶部42に記憶された
対応するテクスチャ情報をマッピングし、表示画像を形
成する画像形成部44とを含む。
The image composition section 40 includes a texture information storage section 4 in which texture information for each polygon is stored.
2 and an image forming unit 44 that forms a display image by mapping the corresponding texture information stored in the texture information storage unit 42 onto the polygon of the three-dimensional object that has been perspective projection converted.

【0073】図9には、前記テクスチャ情報記憶部42
のテクスチャ記憶平面が概略的に示されている。実施例
のテクスチャ記憶平面は、複数ブロックに分割され、各
ブロックは、256×256のキャラクタに分割されて
いる。各キャラクタは、16×16ドットの画素に分割
され、各キャラクタには、テクスチャ記憶平面を構成す
るための絵素が記憶されている。
FIG. 9 shows the texture information storage section 42.
The texture memory plane of is schematically shown. The texture storage plane of the embodiment is divided into a plurality of blocks, and each block is divided into 256 × 256 characters. Each character is divided into pixels of 16 × 16 dots, and each character stores picture elements for forming a texture storage plane.

【0074】そして、各ポリゴンへのテクスチャリング
は、ポリゴンに貼り付けたい各テクスチャ情報の座標T
X ,TY を指定することにより行われる。ただし、ブロ
ック間にまたがるポリゴンを指定することは出来ない。
The texturing for each polygon is performed by the coordinate T of each texture information to be attached to the polygon.
This is done by specifying X and TY. However, it is not possible to specify polygons that span blocks.

【0075】このように構成されたテクスチャ情報記憶
部42は、ポリゴンを正面から見て形成された通常のテ
クスチャ情報と、視点座標系の移動経路に沿った代表的
なアングルから、3次元オブジェクトを斜め方向に見て
形成された各ポリゴンのテクスチャ情報とが記憶されて
いる。後者のテクスチャ情報としては、例えば、図4
(C),(D)に示すようなテクスチャ情報がある。
The texture information storage unit 42 thus constructed stores the three-dimensional object from the normal texture information formed by viewing the polygon from the front and the representative angle along the movement path of the viewpoint coordinate system. The texture information of each polygon formed in the diagonal direction is stored. The latter texture information is, for example, as shown in FIG.
There is texture information as shown in (C) and (D).

【0076】そして、前記画像形成部44では、ソーテ
ィング処理部30を介して3次元演算部24から入力さ
れるポリゴンの各頂点画像情報から、ポリゴンの輪郭線
および内部の画像情報が演算される。即ち、前述した3
次元演算部24、ソーティング処理部30では、回転、
並進等の座標変換、透視投影変換、クリッピング処理、
ソーティング処理等の複雑な演算処理を行わなくてはな
らないため、ハードウエアの負担を軽減すべく、これら
の処理を全て各ポリゴン毎および各頂点毎に行う。そし
て、実際に画像表示をするのに必要なポリゴンの輪郭線
や、ポリゴン内部の画像情報を、この画像形成部44で
形成する。
Then, in the image forming section 44, the contour line of the polygon and the internal image information are calculated from the vertex image information of the polygon input from the three-dimensional calculating section 24 via the sorting processing section 30. That is, the above-mentioned 3
In the dimension calculation unit 24 and the sorting processing unit 30, rotation,
Coordinate conversion such as translation, perspective projection conversion, clipping processing,
Since complicated calculation processing such as sorting processing must be performed, all of these processings are performed for each polygon and each vertex in order to reduce the load on the hardware. Then, the image forming unit 44 forms the outlines of the polygons necessary for actually displaying an image and the image information inside the polygons.

【0077】このとき、画像形成部44では、入力され
るポリゴンの各頂点テクスチャ座標VTX 、VTY か
ら、ポリゴン内の全てのドットについて、テクスチャ情
報読み出しアドレスとして用いるテクスチャ座標TX 、
TY を求める。そして、このテクスチャ座標TX 、TY
をアドレスとして、テクスチャ情報記憶部42から対応
するテクスチャ情報の読み出しを行い、前記テクスチャ
情報がマッピングされた3次元オブジェクトを画像合成
して、ディスプレイ46上に表示する。このようなテク
スチャマッピングの画像合成技術の詳細は、本出願人に
より、特願平4−252139として既に提案されてい
る。
At this time, in the image forming section 44, from the vertex texture coordinates VTX, VTY of the input polygon, the texture coordinates TX used as the texture information read address for all the dots in the polygon,
Find TY. And the texture coordinates TX, TY
Is used as an address to read the corresponding texture information from the texture information storage unit 42, and the three-dimensional object to which the texture information is mapped is image-synthesized and displayed on the display 46. Details of such an image synthesizing technique of texture mapping have already been proposed by the present applicant as Japanese Patent Application No. 4-252139.

【0078】実施例の画像合成装置では、図4(B)に
示すよう、3次元オブジェクト310を斜めからみた画
像は、少ないポリゴン(ここでは2つのポリゴン)で簡
略的に表現し、これに図4(C),(D)に示すような
テクスチャ情報をマッピングすることにより表示できる
ため、1個当たりの3次元オブジェクトを表示するため
に必要とされるデータ量および演算量を大幅に低減し、
1画面内に高品質の3次元オブジェクトを多数表示する
ことができる。
In the image synthesizing apparatus of the embodiment, as shown in FIG. 4 (B), an image of the three-dimensional object 310 seen from an oblique direction is simply represented by a small number of polygons (two polygons in this case), and the image is shown in FIG. 4 (C) and (D) can be displayed by mapping the texture information, so that the amount of data and the amount of calculation required to display each three-dimensional object can be significantly reduced.
A large number of high-quality three-dimensional objects can be displayed on one screen.

【0079】さらに、実施例の画像合成装置によれば、
例えば図13〜図16に示す3次元オブジェクトを所定
アングルで形成されたテクスチャ情報を、あらかじめテ
クスチャ情報記憶部42に記憶しておくことにより、同
図に示す3次元オブジェクトを立体感を損なわず簡略化
して表示することができ、従来のゲーム機に比べ、ゲー
ム画面の品質を格段に高めることができる。
Further, according to the image synthesizing apparatus of the embodiment,
For example, by storing texture information in which the three-dimensional objects shown in FIGS. 13 to 16 are formed at a predetermined angle in the texture information storage unit 42 in advance, the three-dimensional objects shown in FIGS. The game screen can be displayed in a digitized form, and the quality of the game screen can be significantly improved as compared with the conventional game machine.

【0080】なお、本発明は前記実施例に限定されるも
のではなく、本発明の要旨の範囲内で各種の変形実施が
可能である。
The present invention is not limited to the above embodiment, and various modifications can be made within the scope of the gist of the present invention.

【0081】例えば、前記実施例では本発明をゲーム用
の画像合成装置に適用した場合を例にとり説明したが、
本発明はこれに限らず、これ以外の各種用途、例えば、
各種の3次元画像生成用シミュレータおよびその他の用
途に用いることができる。
For example, in the above-mentioned embodiment, the case where the present invention is applied to the image synthesizing device for a game has been described as an example.
The present invention is not limited to this, various applications other than this, for example,
It can be used for various simulators for three-dimensional image generation and other applications.

【0082】また、ポリゴンへのテクスチャ情報のマッ
ピングは、前記実施例に限定されるものではなく、必要
に応じ、各種のマッピング手法を用いることができる。
Further, the mapping of the texture information to the polygon is not limited to the above-mentioned embodiment, and various mapping methods can be used if necessary.

【0083】また、前記実施例では、図7に示すよう、
3次元オブジェクト120を形成する各ポリゴンに貼り
付けるテクスチャ情報を、視点(レーシングカー120
の位置)の位置に係わりなく共通なものを用いたが、本
発明はこれに限らず、例えば、各ポリゴンのテクスチャ
情報を、視点位置を変えて複数種類用意し、各ポリゴン
に対する所定位置に応じて最適なテクスチャ情報を選択
し、マッピングするように形成してもよい。これによ
り、よりリアリティに富んだ画像を形成することができ
る。
In the above embodiment, as shown in FIG.
The texture information to be attached to each polygon forming the three-dimensional object 120 is converted into the viewpoint (racing car 120
However, the present invention is not limited to this, and, for example, a plurality of types of texture information of each polygon are prepared by changing the viewpoint position, and according to a predetermined position for each polygon. Alternatively, the optimum texture information may be selected and mapped. As a result, a more realistic image can be formed.

【0084】また、レーシングカー120が建物110
に120Bのように接近した場合や、建物110の近く
に設けられた駐車スペースに侵入する場合には、建物1
10を図4(B)に示す簡易ポリゴンで形成するのでは
なく、図4(A)に示すような詳細なポリゴンで形成し
たものに切り替えて用いるようにしてもよい。このよう
にしても、レーシングカー120が建物110に接近す
るまでは、建物110を簡易ポリゴンにより少ない演算
で表示できるため、その分多くの3次元オブジェクトを
表示することができる。
In addition, the racing car 120 is the building 110.
When approaching a building like 120B or entering a parking space near the building 110, the building 1
Instead of forming the simple polygon 10 shown in FIG. 4B, the polygon 10 may be switched to a detailed polygon shown in FIG. Even in this case, until the racing car 120 approaches the building 110, the building 110 can be displayed by a simple calculation with a small number of polygons, so that many three-dimensional objects can be displayed accordingly.

【0085】[0085]

【発明の効果】以上説明したように、本発明によれば、
3次元オブジェクトの凹凸のある面を少ないポリゴンの
組合わせで表現し、しかも高画質で立体感のある画像を
合成することができる画像合成装置およびこれを用いた
ゲーム装置を提供できるという効果がある。
As described above, according to the present invention,
There is an effect that it is possible to provide an image synthesizing device and a game device using the image synthesizing device, which can express an uneven surface of a three-dimensional object with a combination of a small number of polygons and can synthesize an image with high image quality and a stereoscopic effect. .

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の画像合成装置の好適な実施例を示すブ
ロック図である。
FIG. 1 is a block diagram showing a preferred embodiment of an image synthesizing apparatus of the present invention.

【図2】実施例の画像合成装置の原理を示す概略説明図
である。
FIG. 2 is a schematic explanatory view showing the principle of the image synthesizing apparatus of the embodiment.

【図3】実施例の画像合成装置のテクスチャマッピング
の原理を示す説明図である。
FIG. 3 is an explanatory diagram showing the principle of texture mapping of the image synthesizing apparatus of the embodiment.

【図4】テクスチャマッピングの手法を用いて行われる
本発明の画像合成原理の説明図である。
FIG. 4 is an explanatory diagram of an image synthesis principle of the present invention performed using a texture mapping method.

【図5】本発明において用いられるテクスチャ情報およ
びそのテクスチャ情報を用いて形成される3次元オブジ
ェクトの画像の説明図である。
FIG. 5 is an explanatory diagram of texture information used in the present invention and an image of a three-dimensional object formed using the texture information.

【図6】通常の手法を用いて形成されたテクスチャ情報
およびこれを用いて形成された3次元オブジェクトの表
示画像の説明図である。
FIG. 6 is an explanatory view of texture information formed by using a normal method and a display image of a three-dimensional object formed by using the texture information.

【図7】仮想3次元空間内に設定された3次元オブジェ
クトと移動する視点座標系との関係の一例を示す説明図
である。
FIG. 7 is an explanatory diagram showing an example of a relationship between a three-dimensional object set in a virtual three-dimensional space and a moving viewpoint coordinate system.

【図8】図7に示す移動する視点座標系からみた3次元
オブジェクトの画像の概略説明図である。
8 is a schematic explanatory diagram of an image of a three-dimensional object viewed from the moving viewpoint coordinate system shown in FIG. 7. FIG.

【図9】図1に示す回路のテクスチャ情報記憶部の説明
図である。
9 is an explanatory diagram of a texture information storage unit of the circuit shown in FIG.

【図10】一般的な画像合成装置の原理を示す説明図で
ある。
FIG. 10 is an explanatory diagram showing the principle of a general image synthesizing apparatus.

【図11】従来、3次元オブジェクトを表示するために
用いるポリゴンの説明図である。
FIG. 11 is an explanatory diagram of polygons conventionally used to display a three-dimensional object.

【図12】本発明の方法により高層ビルを画像合成する
場合の説明図である。
FIG. 12 is an explanatory diagram when an image of a high-rise building is image-synthesized by the method of the present invention.

【図13】本発明の方法により他の高層ビルを画像合成
する場合の説明図である。
FIG. 13 is an explanatory diagram when another skyscraper is image-synthesized by the method of the present invention.

【図14】本発明の方法により道路周辺施設を画像合成
する場合の説明図である。
FIG. 14 is an explanatory diagram of a case where a road peripheral facility is image-synthesized by the method of the present invention.

【図15】本発明の手法によりトンネル内の景色を画像
合成する場合の説明図である。
FIG. 15 is an explanatory diagram in the case of image-synthesizing a scene in a tunnel by the method of the present invention.

【図16】本発明の手法によりガードレールを画像合成
する場合の説明図である。
FIG. 16 is an explanatory diagram when an image of a guardrail is combined by the method of the present invention.

【符号の説明】[Explanation of symbols]

10 プレーヤ操作部 20 ゲーム空間演算部 22 メインCPU 24 3次元演算部 26 3次元情報記憶部 30 ソーティング処理部 40 画像合成部 42 テクスチャ情報記憶部 44 画像形成部 46 ディスプレイ 110 建物 300 仮想3次元空間 310 3次元オブジェクト 312 プレーヤ 316 透視投影面 10 Player Operation Section 20 Game Space Operation Section 22 Main CPU 24 3D Operation Section 26 3D Information Storage Section 30 Sorting Processing Section 40 Image Composition Section 42 Texture Information Storage Section 44 Image Forming Section 46 Display 110 Building 300 Virtual 3D Space 310 3D object 312 player 316 perspective projection plane

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 仮想3次元空間内に、ポリゴンを組合わ
せて表現された3次元オブジェクトを、視点座標系の投
影面に透視投影変換し、表示画像を合成するリアルタイ
ム表示型画像合成装置において、 前記3次元オブジェクトを所定アングルから斜め方向に
みた各ポリゴン上の画像がテクスチャ情報として予め記
憶されたテクスチャ情報記憶手段と、 前記3次元オブジェクトのポリゴンに、前記テクスチャ
情報記憶手段に記憶された対応する前記テクスチャ情報
をマッピングし前記表示画像を形成する画像形成手段
と、 を含み、3次元オブジェクトを斜め方向からみた画像
を、少ないポリゴンで表現するよう形成されたことを特
徴とする画像合成装置。
1. A real-time display type image synthesizing device for synthesizing a display image by performing perspective projection conversion of a three-dimensional object represented by combining polygons in a virtual three-dimensional space onto a projection plane of a viewpoint coordinate system, An image on each polygon in which the three-dimensional object is viewed obliquely from a predetermined angle is stored as texture information in advance, and the polygon of the three-dimensional object is stored in the texture information storage unit. An image synthesizing device for mapping the texture information to form the display image, and forming an image of a three-dimensional object viewed obliquely with a small number of polygons.
【請求項2】 仮想3次元空間内に、ポリゴンを組合わ
せて表現された3次元オブジェクトを、移動する視点座
標系の投影面に透視投影変換し、表示画像を合成するリ
アルタイム表示型画像合成装置において、 前記視点座標系の移動経路に沿った代表的な複数アング
ルから、前記3次元オブジェクトを斜め方向にみた各ポ
リゴン上の画像がテクスチャ情報として予め記憶された
テクスチャ情報記憶手段と、 前記3次元オブジェクトのポリゴンに、前記視点座標系
と3次元オブジェクトとの相対位置に応じたテクスチャ
情報を前記テクスチャ情報記憶手段から読み出してマッ
ピングすることにより前記表示画像を形成する画像形成
手段と、 を含み、3次元オブジェクトを斜め方向からみた画像
を、少ないポリゴンで表現するよう形成されたことを特
徴とするリアルタイム表示型画像合成装置。
2. A real-time display type image synthesizing device for synthesizing a display image by performing perspective projection conversion of a three-dimensional object represented by combining polygons in a virtual three-dimensional space onto a projection plane of a moving viewpoint coordinate system. In the texture information storage means, an image on each polygon in which the three-dimensional object is viewed obliquely from a plurality of representative angles along the movement path of the viewpoint coordinate system is stored in advance as texture information, Image forming means for forming the display image by reading texture information corresponding to the relative position between the viewpoint coordinate system and the three-dimensional object from the texture information storage means and mapping the polygon on the object. Formed to represent an image of a three-dimensional object viewed from an oblique direction with a small number of polygons Real-time display type image synthesizing device.
【請求項3】 プレーヤが操作するプレーヤ操作手段
と、 前記プレーヤ操作手段からの入力信号と、予め記憶され
たゲームプログラムとに基づき、仮想3次元ゲーム空間
内に、ポリゴンを組合わせて表現された3次元オブジェ
クトが登場する所定のゲーム演算を行うとともに、前記
3次元オブジェクトを移動する視点座標系の投影面に透
視投影変換して出力するゲーム空間演算手段と、 前記視点座標系の移動経路に沿った代表的なアングルか
ら、前記3次元オブジェクトを斜め方向にみた各ポリゴ
ン上の画像がテクスチャ情報として予め記憶されたテク
スチャ情報記憶手段と、 前記3次元オブジェクトのポリゴンに、対応するテクス
チャ情報を前記テクスチャ情報記憶手段から読み出して
マッピングすることにより表示画像を形成しディスプレ
イ上に表示する画像形成手段と、 を含み、3次元オブジェクトを斜め方向からみた画像
を、少ないポリゴンで表現しゲーム画面を形成すること
を特徴とするゲーム装置。
3. A polygon is combined and expressed in a virtual three-dimensional game space based on a player operating means operated by a player, an input signal from the player operating means, and a game program stored in advance. A game space calculation means for performing a predetermined game calculation in which a three-dimensional object appears and outputting the three-dimensional object by perspective projection conversion on a projection plane of a moving viewpoint coordinate system, and along a moving path of the viewpoint coordinate system. The texture information storage means stores in advance, as texture information, an image on each polygon in which the three-dimensional object is viewed obliquely from a representative angle, and texture information corresponding to the polygon of the three-dimensional object is stored in the texture. The display image is formed by reading out from the information storage means and mapping the display image. An image forming means for displaying on a ray, and forming a game screen by expressing an image of a three-dimensional object viewed obliquely with a small number of polygons.
【請求項4】 請求項3において、 前記テクスチャ情報記憶手段は、 視点座標系の移動経路に沿った代表的な複数アングルか
ら、前記3次元オブジェクトを斜め方向にみた各ポリゴ
ン上の画像がテクスチャ情報として予め記憶され、 前記画像形成手段は、 前記3次元オブジェクトのポリゴンに、前記視点座標系
と3次元オブジェクトとの相対位置に応じたテクスチャ
情報を前記テクスチャ情報記憶手段から読み出してマッ
ピングするよう形成されたことを特徴とするゲーム装
置。
4. The texture information storage unit according to claim 3, wherein the texture information is an image on each polygon when the three-dimensional object is viewed obliquely from a plurality of representative angles along a movement path of a viewpoint coordinate system. The image forming unit is formed so as to read texture information corresponding to the relative position of the viewpoint coordinate system and the three-dimensional object from the texture information storage unit and map the polygon on the polygon of the three-dimensional object. A game device characterized by the above.
JP5166494A 1993-06-10 1993-06-10 Image synthesis device and game device using the same Expired - Lifetime JP2883514B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5166494A JP2883514B2 (en) 1993-06-10 1993-06-10 Image synthesis device and game device using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5166494A JP2883514B2 (en) 1993-06-10 1993-06-10 Image synthesis device and game device using the same

Publications (2)

Publication Number Publication Date
JPH06348860A true JPH06348860A (en) 1994-12-22
JP2883514B2 JP2883514B2 (en) 1999-04-19

Family

ID=15832416

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5166494A Expired - Lifetime JP2883514B2 (en) 1993-06-10 1993-06-10 Image synthesis device and game device using the same

Country Status (1)

Country Link
JP (1) JP2883514B2 (en)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11232480A (en) * 1998-02-09 1999-08-27 Cec:Kk High-speed plotting method
JPH11338899A (en) * 1998-05-21 1999-12-10 Nichiha Corp System for supporting house coordination and storage medium
US6078334A (en) * 1997-04-23 2000-06-20 Sharp Kabushiki Kaisha 3-D texture mapping processor and 3-D image rendering system using the same
US6081275A (en) * 1997-01-10 2000-06-27 Sharp Kabushiki Kaisha Image compositing apparatus
US6104409A (en) * 1997-04-21 2000-08-15 Japan Nuclear Cycle Development Institute Three-dimensional object data processing method and system
JP2001273517A (en) * 2000-03-24 2001-10-05 Konami Computer Entertainment Japan Inc Game system and computer-readable recording medium with recording program for game recorded thereon
JP2003263654A (en) * 2003-02-07 2003-09-19 Namco Ltd Image generating apparatus and information storage medium
JP2005275646A (en) * 2004-03-24 2005-10-06 Fujitsu Ltd Three-dimensional plotting model generation method, three-dimensional model plotting method, and program therefor
US7006089B2 (en) 2001-05-18 2006-02-28 Canon Kabushiki Kaisha Method and apparatus for generating confidence data
WO2006033261A1 (en) * 2004-09-22 2006-03-30 Konami Digital Entertainment Co., Ltd. Image processor, image processing method, information recording medium, and program
US7120289B2 (en) 2000-10-27 2006-10-10 Canon Kabushiki Kaisha Image generation method and apparatus
JP2009205439A (en) * 2008-02-28 2009-09-10 Dainippon Printing Co Ltd Hall setup simulation device, program, medium and easy image deformation composition method
JP2011130949A (en) * 2009-12-25 2011-07-07 Sanyo Product Co Ltd Game machine
JP2014208220A (en) * 2014-05-29 2014-11-06 株式会社三洋物産 Game machine
JP2016198575A (en) * 2016-08-04 2016-12-01 株式会社三洋物産 Game machine
JP2020103835A (en) * 2018-12-28 2020-07-09 株式会社バンダイナムコエンターテインメント Game system and program

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5998275A (en) * 1982-07-30 1984-06-06 ハネウエル・インコ−ポレ−テツド Method of mapping image on observation plane and circuit equipment for image address-memory address mapping of biaxial square array

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5998275A (en) * 1982-07-30 1984-06-06 ハネウエル・インコ−ポレ−テツド Method of mapping image on observation plane and circuit equipment for image address-memory address mapping of biaxial square array

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6081275A (en) * 1997-01-10 2000-06-27 Sharp Kabushiki Kaisha Image compositing apparatus
US6104409A (en) * 1997-04-21 2000-08-15 Japan Nuclear Cycle Development Institute Three-dimensional object data processing method and system
US6078334A (en) * 1997-04-23 2000-06-20 Sharp Kabushiki Kaisha 3-D texture mapping processor and 3-D image rendering system using the same
JPH11232480A (en) * 1998-02-09 1999-08-27 Cec:Kk High-speed plotting method
JPH11338899A (en) * 1998-05-21 1999-12-10 Nichiha Corp System for supporting house coordination and storage medium
JP2001273517A (en) * 2000-03-24 2001-10-05 Konami Computer Entertainment Japan Inc Game system and computer-readable recording medium with recording program for game recorded thereon
US7545384B2 (en) 2000-10-27 2009-06-09 Canon Kabushiki Kaisha Image generation method and apparatus
US7120289B2 (en) 2000-10-27 2006-10-10 Canon Kabushiki Kaisha Image generation method and apparatus
US7006089B2 (en) 2001-05-18 2006-02-28 Canon Kabushiki Kaisha Method and apparatus for generating confidence data
JP2003263654A (en) * 2003-02-07 2003-09-19 Namco Ltd Image generating apparatus and information storage medium
JP2005275646A (en) * 2004-03-24 2005-10-06 Fujitsu Ltd Three-dimensional plotting model generation method, three-dimensional model plotting method, and program therefor
WO2006033261A1 (en) * 2004-09-22 2006-03-30 Konami Digital Entertainment Co., Ltd. Image processor, image processing method, information recording medium, and program
KR100898671B1 (en) * 2004-09-22 2009-05-22 가부시키가이샤 코나미 데지타루 엔타테인멘토 Image processor, image processing method, and computer-readable information recording medium having a program recorded thereon
JP2009205439A (en) * 2008-02-28 2009-09-10 Dainippon Printing Co Ltd Hall setup simulation device, program, medium and easy image deformation composition method
JP2011130949A (en) * 2009-12-25 2011-07-07 Sanyo Product Co Ltd Game machine
JP2014208220A (en) * 2014-05-29 2014-11-06 株式会社三洋物産 Game machine
JP2016198575A (en) * 2016-08-04 2016-12-01 株式会社三洋物産 Game machine
JP2020103835A (en) * 2018-12-28 2020-07-09 株式会社バンダイナムコエンターテインメント Game system and program

Also Published As

Publication number Publication date
JP2883514B2 (en) 1999-04-19

Similar Documents

Publication Publication Date Title
US5577960A (en) Image synthesizing system and game playing apparatus using the same
US5805135A (en) Apparatus and method for producing picture data based on two-dimensional and three dimensional picture data producing instructions
JP2883514B2 (en) Image synthesis device and game device using the same
EP1008958B1 (en) Methods and apparatus for synthesizing a three-dimensional image signal and producing a tow-dimensional visual display therefrom
JPH0757117A (en) Forming method of index to texture map and computer control display system
TW200305109A (en) Image with depth of field using Z-buffer image data and alpha blending
US7277571B2 (en) Effective image processing, apparatus and method in virtual three-dimensional space
CN1369849A (en) System and method suitable for setting up real time shadow of transparent target
JPH11506846A (en) Method and apparatus for efficient digital modeling and texture mapping
US7212215B2 (en) Apparatus and method for rendering an antialiased image
JP2000011204A (en) Image processing method and recording medium with image processing program recorded thereon
JP4804122B2 (en) Program, texture data structure, information storage medium, and image generation system
US6771265B1 (en) Computer-readable recording medium storing a program for 3-D computer image processing, method of depicting shadow, and video game apparatus
JP2001084404A (en) Method and device for rendering, game machine, and computer readable recording medium for storing program for rendering three-dimensional model
JP3748451B1 (en) Program, information storage medium, and image generation system
AU5652700A (en) Method and apparatus for providing non-photorealistic cartoon outlining within a 3D vodeographic system
GB2284526A (en) Image synthesizer and apparatus for playing game using the image synthesizer
US7245298B2 (en) Game system, image drawing method for game system, and computer-readable storage medium storing game program
EP1041515B1 (en) Game apparatus
JP4517447B2 (en) 3D model image processing method and apparatus
JP3052839B2 (en) Image processing apparatus and processing method thereof
EP1249791B1 (en) 3-D game image processing method and device for drawing border lines
JP4754385B2 (en) Program, information recording medium, and image generation system
EP1094421A2 (en) Method and apparatus for providing non-photorealistic cartoon outlining within a 3D videographics system
JP3452512B2 (en) GAME DEVICE AND GAME IMAGE GENERATION METHOD

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 19990119

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080205

Year of fee payment: 9

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090205

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090205

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100205

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100205

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100205

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110205

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110205

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120205

Year of fee payment: 13

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120205

Year of fee payment: 13

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120205

Year of fee payment: 13

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130205

Year of fee payment: 14

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130205

Year of fee payment: 14

EXPY Cancellation because of completion of term