JP2883514B2 - Image synthesis device and game device using the same - Google Patents

Image synthesis device and game device using the same

Info

Publication number
JP2883514B2
JP2883514B2 JP5166494A JP16649493A JP2883514B2 JP 2883514 B2 JP2883514 B2 JP 2883514B2 JP 5166494 A JP5166494 A JP 5166494A JP 16649493 A JP16649493 A JP 16649493A JP 2883514 B2 JP2883514 B2 JP 2883514B2
Authority
JP
Japan
Prior art keywords
dimensional object
texture information
image
dimensional
game
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP5166494A
Other languages
Japanese (ja)
Other versions
JPH06348860A (en
Inventor
政明 土田
建仁 佐々木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Namco Ltd
Original Assignee
Namco Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Ltd filed Critical Namco Ltd
Priority to JP5166494A priority Critical patent/JP2883514B2/en
Publication of JPH06348860A publication Critical patent/JPH06348860A/en
Application granted granted Critical
Publication of JP2883514B2 publication Critical patent/JP2883514B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Image Generation (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明はテクスチャマッピングの
手法を用いたリアルタイム表示型画像合成装置及びこれ
を用いたゲーム装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a real-time display type image synthesizing apparatus using a texture mapping technique and a game apparatus using the same.

【0002】[0002]

【従来の技術】従来、コンピュータグラフィックスの技
術を用い擬似3次元画像を合成するリアルタイム表示型
画像合成装置が知られており、例えば各種のビデオゲー
ムや、飛行機及び各種乗物用の操縦シュミレータ等に幅
広く用いられている。
2. Description of the Related Art Conventionally, a real-time display type image synthesizing apparatus for synthesizing a pseudo three-dimensional image using a computer graphics technique is known. For example, it is used for various video games, flight simulators for airplanes and various vehicles. Widely used.

【0003】図10には、このような画像合成装置の原
理図が示されている。この画像合成装置には、仮想3次
元空間300内における3次元オブジェクト310に関
する画像情報が予め記憶されている。前記3次元オブジ
ェクト300に関する画像情報は、ポリゴンに分割され
た多面体、すなわちポリゴン(1)〜(6)(ポリゴン
4乃至6は図示せず)に分割された多面体として表現さ
れ、予めメモリ内に記憶されている。
FIG. 10 shows the principle of such an image synthesizing apparatus. In this image synthesizing apparatus, image information on the three-dimensional object 310 in the virtual three-dimensional space 300 is stored in advance. The image information on the three-dimensional object 300 is expressed as a polyhedron divided into polygons, that is, a polyhedron divided into polygons (1) to (6) (polygons 4 to 6 are not shown) and stored in a memory in advance. Have been.

【0004】ドライブゲームを例にとれば、3次元オブ
ジェクト310はレーシングカーであり、仮想3次元空
間300内には、この他に道路、家などの背景を表す各
種の3次元オブジェクトが配置されている。
In a driving game, for example, the three-dimensional object 310 is a racing car, and various other three-dimensional objects representing a background such as a road and a house are arranged in the virtual three-dimensional space 300. I have.

【0005】そして、プレイヤー312が、操作パネル
314に設けられたハンドル等により、回転、並進等の
操作を行うと、装置はこの操作信号に基づいてレーシン
グカーである3次元オブジェクト310の回転、並進等
の情報をリアルタイム演算する。そして、この3次元オ
ブジェクト300及びその他の3次元オブジェクトは、
視点座標系の透視投影面316上に透視投影変換され、
擬似3次元画像318として表示される。この結果、プ
レイヤー312は、自身の操作によりレーシングカーで
ある3次元オブジェクト300をリアルタイムに回転、
並進することが可能となり、擬似3次元空間を仮想シュ
ミレートできることとなる。
[0005] When the player 312 performs an operation such as rotation and translation using a handle or the like provided on the operation panel 314, the apparatus rotates and translates the three-dimensional object 310, which is a racing car, based on the operation signal. And other information are calculated in real time. The three-dimensional object 300 and other three-dimensional objects are
Perspective projection transformation is performed on a perspective projection plane 316 in the viewpoint coordinate system,
It is displayed as a pseudo three-dimensional image 318. As a result, the player 312 rotates the three-dimensional object 300, which is a racing car, in real time by his own operation,
The translation becomes possible, and the virtual three-dimensional space can be virtually simulated.

【0006】[0006]

【発明が解決しようとする課題】このようなリアルタイ
ム表示型の画像合成装置では、ハードウェアの負担を軽
減しながら、高画質の画像を合成することが望まれる。
In such a real-time display type image synthesizing apparatus, it is desired to synthesize a high quality image while reducing the load on hardware.

【0007】しかし、従来の画像合成装置では、画像の
高画質化を図ろうとすると、ハードウェアの処理するデ
ータ量が増え、1画面当りの表示オブジェクト数が制約
されてしまうという問題があった。
However, in the conventional image synthesizing apparatus, there is a problem that, when an attempt is made to improve the image quality of an image, the amount of data to be processed by hardware increases, and the number of display objects per screen is restricted.

【0008】例えば、ドライブゲームなどにおいては、
道路の両側または片側に図11に示すような建物(3次
元オブジェクト310)が表示される。この建物310
は複数の面350−1、350−2、350−3の組み
合わせから構成されている。コンピュータグラフィック
スの手法では、これら各面350−1、350−2、3
50−3に、凹凸のない場合に限り、これらをそれぞれ
四角形のポリゴンで表示できる。
For example, in a drive game or the like,
Buildings (three-dimensional objects 310) as shown in FIG. 11 are displayed on both sides or one side of the road. This building 310
Is composed of a combination of a plurality of surfaces 350-1, 350-2, and 350-3. In the computer graphics method, each of these surfaces 350-1, 350-2, 3-2
Each of these can be displayed as a quadrilateral polygon only in the case where there is no unevenness in the area 50-3.

【0009】しかし、建物のリアリティーを高めるため
には、建物の側面350−1、350−2に、窓352
を表す凹みや、玄関354を表す凹み、さらには玄関3
54の上には廂356を表す凸部等を設ける必要があ
る。
However, in order to increase the reality of the building, windows 352 are provided on the side surfaces 350-1 and 350-2 of the building.
, A dent representing the entrance 354, and furthermore, the entrance 3
It is necessary to provide a convex portion or the like representing the refrigerator 356 on the top 54.

【0010】コンピュータグラフィックスでは、穴の開
いた図形は、これを穴の開いていない複数のポリゴンに
分割して対処し、また廂356のような凸部は、これを
複数のポリゴンに分割して対処する。従って、図11に
示すよう、窓、玄関、廂のある建物310を、リアリテ
ィーをもたして表現するためには、側面350−1、3
50−2をさらに多数のポリゴンに分割しなければなら
ない。例えば、図11に示すような3次元オブジェトを
表す場合には、2つの面350−1、350−2は約1
00個のポリゴンで表現されることになる。
In computer graphics, a figure with a hole is dealt with by dividing the figure into a plurality of polygons without a hole, and a convex portion such as a cell 356 is divided into a plurality of polygons. To deal with. Therefore, as shown in FIG. 11, in order to express the building 310 with windows, entrances and rooms with reality, it is necessary to use the side surfaces 350-1 and 350-3.
50-2 must be divided into a larger number of polygons. For example, when representing a three-dimensional object as shown in FIG. 11, the two surfaces 350-1 and 350-2 are approximately 1
It will be represented by 00 polygons.

【0011】しかし、コンピュータグラフィックスの技
術では、ポリゴンの演算はハードウェアに大きな負担を
与える演算である。1個当りの3次元オブジェクトを構
成するためのポリゴン数が増えれば増えるほど、ハード
ウェアの演算回数が増し、1フィールド当りに表示でき
るオブジェクト数が限られたものとなってしまうという
問題が生ずる。
However, in the computer graphics technology, the operation of polygons is an operation that places a heavy burden on hardware. As the number of polygons for forming one three-dimensional object increases, the number of hardware operations increases, and the number of objects that can be displayed per field is limited.

【0012】例えば、ディスプレイの1フィールド(6
0分の1秒)内に処理できるコンピュータのポリゴン数
が3000である場合には、図11に示すような建物
は、3000÷200=15個となり、1画面当り最大
15しか表示できない。しかし、実際のゲーム画面に
は、建物以外に道路や、他の車などといった複数のオブ
ジェクトを登場させなければならないため、ドライブゲ
ームで表示できる建物などは、精々4から5棟程度とな
ってしまい、変化に乏しいゲーム画面となってしまうと
いう問題があった。
For example, one field (6
When the number of polygons of the computer that can be processed within 1/0 second) is 3000, the number of buildings as shown in FIG. 11 is 3000/200 = 15, and only 15 at maximum can be displayed per screen. However, in an actual game screen, a plurality of objects such as roads and other vehicles must appear in addition to buildings, so that only four to five buildings can be displayed in a drive game. However, there has been a problem that the game screen has little change.

【0013】本発明は、このような従来の課題に鑑みな
されたものであり、その目的は、3次元オブジェクトの
凹凸のある面を少ないポリゴンの組み合わせで簡略化し
て表現し、しかも立体感のある高画質の画像を合成する
ことができるリアルタイム表示型画像合成装置及びこれ
を用いたゲーム装置を提供することにある。
SUMMARY OF THE INVENTION The present invention has been made in view of such conventional problems, and an object of the present invention is to simplify and express a three-dimensional object having uneven surfaces with a combination of a small number of polygons, and to provide a three-dimensional appearance. It is an object of the present invention to provide a real-time display type image synthesizing apparatus capable of synthesizing a high-quality image and a game apparatus using the same.

【0014】[0014]

【課題を解決するための手段】前記目的を達成するため
に、本発明は、仮想3次元空間内に配置された3次元オ
ブジェクトを、視点座標系の投影面に投影変換し表示画
像を形成する装置において前記3次元オブジェクトの
凹及び凸の少なくとも一方を含む面が簡易ポリゴンで表
された簡易3次元オブジェクト用に、前記3次元オブジ
ェクトを所定位置から斜めに見た画像がテクスチャ情報
として予め記憶されたテクスチャ情報記憶手段と、前記
簡易3次元オブジェクトに、対応する前記テクスチャ情
報をマッピングし前記表示画像を形成する画像形成手段
と、を含むことを特徴とする。請求項2の発明は、仮想
3次元空間内に配置された3次元オブジェクトを、移動
する視点座標系の投影面に投影変換し表示画像を形成す
る装置において前記3次元オブジェクトの凹及び凸の
少なくとも一方を含む面が簡易ポリゴンで表された簡易
3次元オブジェクト用に、前記視点座標系の移動経路に
沿った複数の代表的位置から、前記3次元オブジェクト
を斜めに見た複数の画像がテクスチャ情報として予め記
憶されたテクスチャ情報記憶手段と、前記簡易3次元オ
ブジェクトに、前記視点座標系と簡易3次元オブジェク
トとの相対位置に対応したテクスチャ情報をマッピング
前記表示画像を形成する画像形成手段と、を含むこと
を特徴とする。請求項3の発明は、プレーヤが操作する
プレーヤ操作手段と、前記プレーヤ操作手段からの入力
信号と、予め記憶されたゲームプログラムとに基づき、
仮想3次元ゲーム空間内に、3次元オブジェクトの凹及
び凸の少なくとも一方を含む面が簡易ポリゴンで表され
た簡易3次元オブジェクトが登場するゲーム演算を行う
とともに、前記簡易3次元オブジェクトを視点座標系の
投影面に投影変換し出力するゲーム空間演算手段と、
記簡易3次元オブジェクト用に、前記3次元オブジェク
トを所定位置から斜 めに見た画像がテクスチャ情報とし
て子め記憶されたテクスチャ情報記憶手段と、前記簡易
3次元オブジェクトに、対応する前記テクスチャ情報を
マッピングしゲーム画像を形成する画像形成手段と、を
含むことを特徴とする。請求項4の発明は、請求項3に
おいて、前記ゲーム空間演算手段は、前記視点座標系が
仮想3次元ゲーム空間内を移動するゲーム演算を行い、
前記テクスチャ情報記憶手段は、前記視点座標系の移勧
経路に沿った複数の代表的位置から、前記3次元オブジ
ェクトを斜めに見た複数の画像がテクスチャ情報として
予め記憶され、前記画像形成手段は、簡易3次元オブジ
ェクトに、前記視点座標系と簡易3次元オブジェクトと
の相対位置に対応したテクスチャ情報をマッピングし前
記ゲーム画像を形成することを特徴とする。請求項5の
発明は、請求項2において、前記テクスチャ情報記憶手
段は、前記視点座標系の移動経路に沿った少なくとも遠
距離、中距離、近距離の代表的位置から、前記3次元オ
ブジェクトを斜めに見た複数の画像がテクスチャ情報と
して予め記憶され、前記画像形成手段は、簡易3次元オ
ブジェクトに、前記視点座標系と簡易3次元オブジェク
トとの相対距離に対応するテクスチャ情報を前記テクス
チャ情報記憶手段から読み出しマッピングすることを特
徴とする。請求項6の発明は、請求項1,2,5のいず
れかにおいて、前記簡易3次元オブジェクトは、前記3
次元ゲーム空間内に固定的に配置されたことを特徴とす
る。請求項7の発明は、請求項1,2,5,6のいずれ
かにおいて、前記テクスチャ情報は、 前記3次元オブジ
ェクトを表す模型又は実物を所定位置から斜めに見た画
像として形成されたことを特徴とする。請求項8の発明
は、請求項4において、前記テクスチャ情報記憶手段
は、前記視点座標系の移動経路に沿った少なくとも遠距
離、中距離、近距離の代表的位置から、前記3次元オブ
ジェクトを斜めに見た複数の画像がテクスチャ情報とし
て予め記憶され、前記画像形成手段は、簡易3次元オブ
ジェクトに、前記視点座標系と簡易3次元オブジェクト
との相対距離に対応するテクスチャ情報を前記テクスチ
ヤ情報記憶手段から読み出しマッピングすることを特徴
とする。請求項9の発明は、請求項3,4,8のいずれ
かにおいて、前記簡易3次元オブジェクトは、前記3次
元ゲーム空間内に固定的に配置されたことを特徴とす
る。請求項10の発明は、請求項3,4,8,9のいず
れかにおいて、前記テクスチャ情報は、前記3次元オブ
ジェクトを表す模型又は実物を所定位置から斜めに見た
画像として形成されたことを特徴とする。
In order to achieve the above object, the present invention provides a three-dimensional camera arranged in a virtual three-dimensional space.
Projects the object onto the projection plane in the viewpoint coordinate system, and
An apparatus for forming an image , comprising:
A surface including at least one of concave and convex is represented by a simple polygon.
For the simplified simple three-dimensional object,
The image of the object viewed diagonally from the predetermined position is the texture information
A previously stored texture information storage means as the
Simplified three-dimensional object, an image forming means for forming the display image by mapping the texture information corresponding, to be characterized by containing Mukoto. According to a second aspect of the present invention, a three-dimensional object arranged in a virtual three-dimensional space is moved.
Projection transformation to the projection plane of the viewpoint coordinate system
Device , wherein the concave and convex of the three-dimensional object are
A simple polygon in which at least one surface is represented by a simple polygon
For a three-dimensional object, the plurality of representative positions along the movement path in the viewpoint coordinate system are used to calculate the three-dimensional object.
Are recorded in advance as texture information.
The stored texture information storage means and the simple three-dimensional
In the object, the viewpoint coordinate system and the simple 3D object
Texture information corresponding to the relative position
And an image forming means for forming the display image. The invention according to claim 3 is based on player operation means operated by a player, an input signal from the player operation means, and a game program stored in advance.
Indentation of 3D object in virtual 3D game space
A surface that includes at least one of
To perform game calculations involving simple 3D objects
With the simple 3D object in the viewpoint coordinate system.
A game space calculating means for outputting projected converts the projection surface, before
For the simple three-dimensional object, the three-dimensional object
Image seen Me obliquely the door from the predetermined position to the texture information
A texture information storage means stored Me child Te, the simple
The texture information corresponding to the three-dimensional object is
Image forming means for mapping to form a game image . According to a fourth aspect of the present invention, in the third aspect, the game space calculation means is configured such that the viewpoint coordinate system is
Performs game calculations to move in a virtual three-dimensional game space,
The texture information storage unit is configured to transfer the viewpoint coordinate system.
From a plurality of representative positions along the path, the three-dimensional object
Multiple images of the project viewed diagonally as texture information
The image forming means is stored in advance and the simple three-dimensional object
In the object, the viewpoint coordinate system and the simple three-dimensional object
Before mapping the texture information corresponding to the relative position of
The game image is formed . Claim 5
The invention according to claim 2, wherein the texture information storage means is used.
The step is at least far along the movement path of the viewpoint coordinate system.
From the representative positions of distance, middle distance, and short distance, the three-dimensional
Multiple images of the object viewed diagonally provide texture information and
And the image forming means is provided with a simple three-dimensional
In the object, the viewpoint coordinate system and the simple 3D object
Texture information corresponding to the relative distance to the text
It is special to read and map from the
Sign. The invention of claim 6 is based on any of claims 1, 2, and 5
In this case, the simplified three-dimensional object is
Characterized by being fixedly arranged in a three-dimensional game space
You. The invention of claim 7 is any of claims 1, 2, 5, and 6
In the above, the texture information includes the three-dimensional object.
Image of a model or real object representing a project obliquely viewed from a predetermined position
It is characterized by being formed as an image. The invention of claim 8
5. The texture information storage means according to claim 4,
Is at least a long distance along the movement path of the viewpoint coordinate system.
From the representative positions of separation, middle distance, and short distance,
Multiple images of a project viewed diagonally as texture information
The image forming means is a simple three-dimensional object.
Object, the viewpoint coordinate system and a simple 3D object
Texture information corresponding to the relative distance to the text
Read from the storage unit and perform mapping
And The invention of claim 9 is any of claims 3, 4, and 8
In the above, the simple three-dimensional object is
Characterized by being fixedly located in the original game space
You. The tenth aspect of the present invention includes any of the third, fourth, eighth, and ninth aspects.
In this case, the texture information may include the three-dimensional object.
A model or real object that represents a project is viewed obliquely from a predetermined position
It is characterized by being formed as an image.

【0015】[0015]

【0016】[0016]

【0017】[0017]

【0018】[0018]

【作用】請求項1の発明によれば、次元オブジェクト
を、所定の視点から斜め方向に見た時の像が、テクス
チャ情報として予め記憶されている。このように、3次
元オブジェクトを所定アングルから斜め方向に見た画像
は、それ自体が立体感をもっている。
SUMMARY OF] According to the present invention, the three-dimensional object, images when viewed in an oblique direction from a predetermined viewpoint is prestored as texture information. Thus, an image of a three-dimensional object viewed obliquely from a predetermined angle has a three-dimensional appearance.

【0019】従って、前記テクスチャ情報を、簡易3次
元オブジェクトにマッピングすることにより、各ポリゴ
ンをその凹凸に合せて複数に分割することなく、凹凸感
をもった高画質の画像を合成することができる。
Therefore, the texture information is converted into a simple tertiary
By mapping to the original object , it is possible to synthesize a high-quality image having a feeling of unevenness without dividing each polygon into a plurality according to the unevenness.

【0020】このようにして、本発明によれば、ハード
ウェアの負担を軽くしながら、立体感のある高画質の画
像を合成することができる。
As described above, according to the present invention, a high-quality image having a three-dimensional effect can be synthesized while reducing the load on hardware.

【0021】特に、本発明をリアルタイム表示型画像合
成装置に用いれば、簡易3次元オブジェクトをほぼ想定
された視点またはその近傍で見る限り、前記簡易3次元
オブジェクトの凹凸のある面を多数のポリゴンで作成し
た場合と同様な立体感のある複雑かつ緻密な画像として
リアルタイムで表示することができる。
[0021] In particular, the present invention be used in real-time display type image synthesizing apparatus, as far as almost supposed viewpoint or near the simple three-dimensional object, a surface with irregularities of the simple three-dimensional objects in a number of polygons It can be displayed in real time as a complex and precise image having a three-dimensional effect similar to the case where it is created.

【0022】また、請求項1の発明によれば、非リアル
タイムの画像合成を行う場合でも、簡易3次元オブジェ
クトの凹凸面を一つのテクスチャ情報を用いて形成する
ことができ、これにより、そのレンダリング作業に要す
る時間を大幅に短縮することができる。
According to the first aspect of the present invention, even when non-real-time image synthesis is performed, the uneven surface of a simple three-dimensional object can be formed using one piece of texture information. The time required for the operation can be greatly reduced.

【0023】さらに、請求項2の発明によれば、視点座
標系の移動経路に沿った代表的な複数アングルから、前
記3次元オブジェクトを斜め方向に見た像がテクスチ
ャ情報として予め記憶されている。このため、視点座標
系と簡易3次元オブジェクトとの相対位置に応じたテク
スチャ情報を簡易3次元オブジェクトマッピングする
ことにより、複数の視点位置に対してよりリアリティー
に富んだ高品質の画像をリアルタイムで合成することが
できる。
Further, according to the second aspect of the invention, a typical multiple angles along the path of movement of the viewpoint coordinate system, images viewed the three-dimensional object in an oblique direction is previously stored as texture information I have. For this reason, by mapping the texture information according to the relative position between the viewpoint coordinate system and the simple three-dimensional object to the simple three-dimensional object , a high-quality image richer in reality for a plurality of viewpoint positions can be obtained in real time. Can be synthesized.

【0024】さらに、請求項3の発明によれば、1個の
3次元オブジェクトを表示するために要するハードウェ
アの負担などを軽減しかつ高品質の画像を合成できるこ
とから、ゲーム画面内に多数のオブジュトを登場させ、
変化に富んだリアリティーの高いゲーム画面をリアルタ
イムで合成することができる。
Furthermore, according to the third aspect of the present invention, since a high-quality image can be synthesized while reducing the load on hardware required for displaying one three-dimensional object, a large number of images can be displayed on the game screen. Introduce Objut,
A variety of highly realistic game screens can be synthesized in real time.

【0025】[0025]

【実施例】次に本発明の好適な実施例を図面に基づき詳
細に説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Preferred embodiments of the present invention will be described in detail with reference to the drawings.

【0026】図2には、本発明に係るリアルタイム表示
型画像合成装置の好適な実施例が示されている。なお、
前記従来技術に対応する部材には同一符号を付しその説
明は省略する。
FIG. 2 shows a preferred embodiment of the real-time display type image synthesizing apparatus according to the present invention. In addition,
Members corresponding to the above-mentioned prior art are denoted by the same reference numerals, and description thereof is omitted.

【0027】実施例の画像合成装置は、仮想3次元空間
300内に複数ポリゴンを組合わせて表現された3次元
オブジェクト310を、視点座標系の所定透視投影面3
16上に透視投影変換し、表示画像318を合成するも
のである。
The image synthesizing apparatus of the embodiment converts a three-dimensional object 310 represented by combining a plurality of polygons in a virtual three-dimensional space 300 into a predetermined perspective projection plane 3 of a viewpoint coordinate system.
In this case, perspective projection transformation is performed on the image 16 and a display image 318 is synthesized.

【0028】この画像合成に際し、実施例の画像合成装
置は、テクスチャマッピングと呼ばれる手法を用いてい
る。すなわち、図3に示すよう、3次元オブジェクト3
10の画像情報を、3次元オブジェクト310を構成す
る各ポリゴン320−1,320−2,320−3……
の画像情報と、各ポリゴンに貼り付ける図形情報(以下
テクスチャ情報と言う)とに分離して記憶し、画像を出
力する際に、各ポリゴン320−1、320−2、32
0−3に、対応するテクスチャ情報340、342を貼
り付けることによって画像合成を行っている。
In synthesizing the image, the image synthesizing apparatus of the embodiment uses a technique called texture mapping. That is, as shown in FIG.
The ten pieces of image information are stored in the polygons 320-1, 320-2, 320-3,.
And the graphics information (hereinafter referred to as texture information) to be attached to each polygon are stored separately, and when outputting an image, each polygon 320-1, 320-2, 32
Image synthesis is performed by pasting the corresponding texture information 340 and 342 to 0-3.

【0029】このテクスチャマッピングの手法によれ
ば、処理するポリゴン数を増やすことなく、図形の模
様、色彩等をよりきめ細かなものとすることができる。
According to this texture mapping method, the pattern, color and the like of a figure can be made finer without increasing the number of polygons to be processed.

【0030】しかし、例えば図11に示すよう、凹部や
凸部を有する3次元オブジェクト310を表現する場合
には、オブジェクト310を構成する各面350−1、
350−2、350−3をその凹凸に合わせて多数のポ
リゴンに分割しなければならないことは、テクスチャマ
ッピングを用いた場合でも同様である。
However, when expressing a three-dimensional object 310 having a concave portion or a convex portion as shown in FIG.
The fact that 350-2 and 350-3 must be divided into a large number of polygons in accordance with the irregularities is the same even when texture mapping is used.

【0031】前述したように、3次元コンピュータグラ
フィックスシステムを用いてリアルタイム表示を行う場
合には、1秒間に表示できるポリゴン数に一定の限界が
ある。本実施例の特徴は、表示ポリゴン数に制限のある
リアルタイムコンピュータグラフィックスシステムにお
いて、極力少ないポリゴン数で、立体感を損うことな
く、複雑かつ緻密な画像を合成することにある。
As described above, when real-time display is performed using a three-dimensional computer graphics system, there is a certain limit to the number of polygons that can be displayed per second. A feature of the present embodiment is that in a real-time computer graphics system in which the number of display polygons is limited, a complicated and precise image is synthesized with a minimum number of polygons without impairing a three-dimensional effect.

【0032】図4には、本発明の画像合成原理が示され
ている。
FIG. 4 shows the principle of image composition according to the present invention.

【0033】まず、図4(A)に示すような家110を
3次元オブジェクト310として表現する場合には、リ
アルタイムでない別のコンピュータグラフィックスシス
テムによって、多くのポリゴンを使用して綿密にデータ
を作成する。この場合には、凹部を形成する窓、窓枠及
び玄関は、それぞれ複数のポリゴンの組合わせてとして
表現される。さらに、凸部を構成する廂も、複数のポリ
ゴンの組合わせとして表現される。
First, in the case where the house 110 as shown in FIG. 4A is represented as a three-dimensional object 310, data is carefully created using many polygons by another computer graphics system which is not real time. I do. In this case, the window, the window frame, and the entrance forming the recess are each represented as a combination of a plurality of polygons. Further, the refrigerator constituting the convex portion is also represented as a combination of a plurality of polygons.

【0034】このようにして構成された家110(3次
元オブジェクト310)を、所定の視点から、図4
(B)に示すよう斜め方向に見た図形をレンダリングに
より作成する。この場合にも、レンダリング処理は、リ
アルタイムでない別のコンピュータグラフィックスシス
テムによって行う。そして、レンダリングされた画像か
ら、その遠近のひずみを除去し、3次元オブジェクト3
10の各側面50−1、50−2を表す図形を図4
(C)、(D)に示すようなテクスチャ情報360−
1、360−2として作成し、後述するテクスチャ情報
記憶部42に予め記憶しておく。
The house 110 (three-dimensional object 310) thus constructed is viewed from a predetermined viewpoint in FIG.
As shown in (B), a figure viewed in an oblique direction is created by rendering. Also in this case, the rendering process is performed by another computer graphics system that is not real-time. Then, the perspective distortion is removed from the rendered image, and the three-dimensional object 3 is removed.
FIG. 4 shows a diagram representing each side surface 50-1, 50-2 of FIG.
Texture information 360- as shown in (C) and (D)
1, 360-2, and is stored in advance in a texture information storage unit 42 described later.

【0035】また、実施例の画像合成装置では、図4
(A)に示す3次元オブジェクト110の各側面10
0、200を、凹凸に関係なく図4(E)に示すようそ
れぞれ1つのポリゴンで簡略化して表現する。
In the image synthesizing apparatus according to the embodiment, FIG.
Each side 10 of the three-dimensional object 110 shown in FIG.
0 and 200 are simply represented by one polygon, as shown in FIG.

【0036】そして、図4(E)に示す各ポリゴンに、
それぞれ図4(C)、(D)に示すテクスチャ情報を貼
り付けるといういわゆるテクスチャマッピングを行うこ
とにより、図4(B)に示すものと同様な品質を持った
画像を形成することができる。
Then, for each polygon shown in FIG.
By performing the so-called texture mapping of pasting the texture information shown in FIGS. 4C and 4D, an image having the same quality as that shown in FIG. 4B can be formed.

【0037】すなわち、このような簡略化された手法を
採用する本発明のリアルタイムコンピュータグラフィッ
クスシステムは、ほぼ想定された視点付近で3次元オブ
ジェクト310を見る限り、凹凸のある面を多くのポリ
ゴンで作成した場合と変らない立体感をもつ画像として
表現することができる。
That is, the real-time computer graphics system of the present invention which employs such a simplified method, as long as the three-dimensional object 310 is viewed near the supposed viewpoint, the surface with irregularities is formed by many polygons. The image can be expressed as an image having a three-dimensional effect that is the same as when it is created.

【0038】特に、図4に示す具体例では、従来100
個のポリゴンで表されていた3次元オブジェクトを2個
のポリゴンで表現できる。従って、例えば、1秒間の表
示可能なポリゴン数が3000個のリアルタイム表示用
コンピュータグラフィックスシステムを用いた場合に
は、従来の技術では30個しか表現できなかったオブジ
ェクトを、1500個表現することができ、単純計算し
ても、1画面当り50倍のポリゴンを表示することがで
きる。
In particular, in the specific example shown in FIG.
A three-dimensional object represented by two polygons can be represented by two polygons. Therefore, for example, when a computer graphics system for real-time display in which the number of polygons that can be displayed per second is 3000 is used, 1500 objects that can be expressed only by 30 in the conventional technology can be expressed. It is possible to display 50 times the number of polygons per screen even with simple calculations.

【0039】図4(F)には、このようなテクスチャマ
ッピングの手法を用い、ディスプレイ上にリアルタイム
表示されるコンピュータグラフィックスの画像が示さ
れ、同図に示すよう、実施例のリアルタイム表示用の画
像合成装置では、複雑かつ変化に富んだリアリティーの
高い画像を、多くのオブジェクトを使用して表現するこ
とができる。
FIG. 4F shows an image of computer graphics displayed on a display in real time by using such a texture mapping method. As shown in FIG. The image synthesizing device can express a complex, varied, and highly realistic image using many objects.

【0040】なお、テクスチャ情報の作成は、これ以外
に、図4(A)の家の各面を所定アングルから見た図形
を、平行投影した後にひずみを除去して作成してもよ
く、また、絵を描く要領で各ドット毎に作成してもよ
い。
In addition, the texture information may be created by parallelly projecting the figure of each side of the house shown in FIG. 4 (A) from a predetermined angle and then removing the distortion. Alternatively, it may be created for each dot in the manner of drawing a picture.

【0041】さらには、模型または実物を所定アングル
から斜め方向に写真撮影し、必要な部分の画像を、スキ
ャナー等でドット画像情報としてとり込み、遠近のひず
みを除去して、テクスチャ情報とすることもできる。
Furthermore, a model or a real object is photographed obliquely from a predetermined angle, and an image of a necessary portion is taken in as dot image information by a scanner or the like, and distortion in the distance is removed to obtain texture information. Can also.

【0042】すなわち、テクスチャ情報の作成は、大別
して、ポリゴンを用いて作成した3次元オブジェクトを
用いる手法と、絵を描く要領で各ドット毎に画像を作成
していく手法と、写真から画像情報を取り込んで作成す
る手法のものとがある。そして、3次元ポリゴンを用い
た手法としては、前述したように図4(A)に示す3次
元オブジェクト310の各面を所定の視点から斜め方向
に見た図形をレンダリングにより作成し、レンダリング
された図形からその遠近のひずみを除去してテクスチャ
情報を作成する手法と、図4(A)の3次元オブジェク
ト310の各面を、所定アングルから見た図形を、平行
投影した後にひずみを除去してテクスチャ情報を作成す
る手法とがある。これらの手法を適宜選択して、前記テ
クスチャ情報を作成すればよい。
That is, the generation of texture information is roughly classified into a method using a three-dimensional object created using polygons, a method for creating an image for each dot in the manner of drawing a picture, and a method for creating image information from a photograph. There is a method of taking in and creating. As a method using the three-dimensional polygons, as described above, a figure in which each surface of the three-dimensional object 310 shown in FIG. 4A is viewed obliquely from a predetermined viewpoint is created by rendering and rendered. A method of removing texture distortion from a figure to create texture information, and removing a distortion after parallel projecting a figure of each surface of a three-dimensional object 310 shown in FIG. There is a method of creating texture information. The texture information may be created by appropriately selecting these methods.

【0043】また、図5には、本発明の手法を用いて得
られた3次元オブジェクトの画像の一例が示されてい
る。図6には、他の手法を用いて得られた3次元オブジ
ェクトの画像の一例が示されている。
FIG. 5 shows an example of an image of a three-dimensional object obtained by using the method of the present invention. FIG. 6 shows an example of an image of a three-dimensional object obtained by using another method.

【0044】図5に示す画像は、同図(A)に示すよ
う、3次元オブジェクトを斜め方向から見た状態でレン
ダリングし、凹凸を有する各側面のテクスチャ情報を予
め作成する。そして、このようにして得られたテクスチ
ャ情報を、3次元オブシェクトを構成する各側面のポリ
ゴンに貼り付けることにより、図5(B)に示すような
オブジェクトの画像合成を行うものである。
As shown in FIG. 5A, the image shown in FIG. 5 is rendered in a state where the three-dimensional object is viewed from an oblique direction, and texture information of each side surface having irregularities is created in advance. Then, the texture information obtained in this way is attached to the polygons on each side surface forming the three-dimensional object, thereby performing image composition of the object as shown in FIG. 5B.

【0045】これに対し図6(A)に示す手法は、3次
元オブジェクトの凹凸を有する各側面を、それぞれ正面
からレンダリングしてテクスチャ情報を作成しておく。
そして、3次元オブジェクトの各側面に、前記各テクス
チャ情報を貼り付け、画像を合成したものである。3次
元オブジェクト310の各側面を、正面からレンダリン
グした画像を、テクスチャマッピングに用いると、これ
により得られたオブジェクトの画像は、同図(B)に示
すよう、本来見えるはずのない窓枠が見えたり、廂の向
きが狂ったりして、その凹凸が不自然なものとなる。
On the other hand, in the method shown in FIG. 6A, texture information is created by rendering each side of the three-dimensional object having irregularities from the front.
The texture information is pasted on each side surface of the three-dimensional object, and an image is synthesized. When an image in which each side surface of the three-dimensional object 310 is rendered from the front is used for texture mapping, an image of the object obtained by this process has a window frame that should not be seen as shown in FIG. Or the direction of the refrigerator goes wrong, and the irregularities become unnatural.

【0046】移動する視点座標系から、3次元オブジェ
クトをみる場合、これを正面から見る場合より、斜め方
向から見る場合の方が圧倒的に多い。従って、図5に示
すよう、3次元オブジェクトの各面のテクスチャ情報を
斜め方向から見るようにして作成しておくことにより、
立体感のあるリアリティの高い画像を簡単に合成するこ
とができる。
When looking at a three-dimensional object from a moving viewpoint coordinate system, viewing it from an oblique direction is far more common than viewing it from the front. Therefore, as shown in FIG. 5, by creating the texture information of each surface of the three-dimensional object so as to be viewed from an oblique direction,
It is possible to easily compose an image with a high sense of reality with a three-dimensional effect.

【0047】図7、図8には本発明の手法を用いて形成
された建物110の表示画像を、視点座標系を移動させ
ながら表示する様子が示されている。
FIGS. 7 and 8 show a state in which a display image of the building 110 formed by using the method of the present invention is displayed while moving the viewpoint coordinate system.

【0048】まず、図7に示すよう、画像合成装置の3
次元仮想空間300内に、プレーヤの操縦するレーシン
グカー120と、このレーシングカー120が走行する
道路130と、この道路130に面して設置された建物
110とが3次元オブジェクトとして存在する場合を想
定する。ここにおいて、前記建物110は、図4に示す
テクスチャマッピングの手法により画像合成されるもの
とする。なお、図4(C),(D)のテクスチャ情報
は、建物110を図7の120Aの視点位置からみた状
態でレンダリングしたものを用いた。
First, as shown in FIG.
It is assumed that, in a three-dimensional virtual space 300, a racing car 120 controlled by a player, a road 130 on which the racing car 120 runs, and a building 110 installed facing the road 130 exist as three-dimensional objects. I do. Here, it is assumed that the image of the building 110 is synthesized by the texture mapping method shown in FIG. The texture information in FIGS. 4C and 4D is obtained by rendering the building 110 viewed from the viewpoint position 120A in FIG.

【0049】このようにして形成された仮想3次元空間
300内において、レーシングカー100からみた画像
をディスプレイ上に表示する場合には、その視点座標系
がレーシングカー100と共に仮想3次元空間300内
を移動する。
When an image viewed from the racing car 100 is displayed on the display in the virtual three-dimensional space 300 formed in this way, the viewpoint coordinate system together with the racing car 100 moves in the virtual three-dimensional space 300. Moving.

【0050】特に、ドライブゲーム等においては、レー
シングカー120は道路130に沿って移動するため、
この視点座標系の移動経路も、予め定まったものとな
る。
Particularly, in a driving game or the like, since the racing car 120 moves along the road 130,
The movement route of this viewpoint coordinate system is also predetermined.

【0051】建物110に対して視点座標系が、Aの領
域、Bの領域、Cの領域にある場合を想定すると、建物
110は、ディスプレイ上に図8に示すようにそれぞれ
表示されることになる。
Assuming that the viewpoint coordinate system for the building 110 is in the area A, the area B, and the area C, the building 110 is displayed on the display as shown in FIG. Become.

【0052】このように斜め方向から見た画像は、テク
スチャ情報作成時に設定された視点位置120Aよりあ
る程度偏位しても、その立体感が損われず、高いリアリ
ティーを有することとなる。
Even if the image viewed from the oblique direction is displaced to some extent from the viewpoint position 120A set at the time of creating the texture information, the stereoscopic effect is not impaired and the image has high reality.

【0053】とりわけ、レーシングカー100が、建物
110に近付くB,Aの領域では、本発明の効果が顕著
なものとなる。
In particular, the effects of the present invention become remarkable in the areas B and A where the racing car 100 approaches the building 110.

【0054】なお、本発明では、前述した建物110以
外に、各種の3次元オブジェクトを、前記と同様なテク
スチャマッピングの技術を用い、少ないポリゴン数で表
現することができる。
In the present invention, in addition to the above-described building 110, various three-dimensional objects can be represented by a small number of polygons by using the same texture mapping technique as described above.

【0055】例えば、図12(A)に示すような高層建
築を表現する場合には、同図(B)に示すよう、側面を
斜め方向からみたテクスチャ情報を予め形成しておけば
よい。また、図13に示すような高層建築を表現する場
合でも、同様な手法を用いてやればよい。
For example, when expressing a high-rise building as shown in FIG. 12 (A), as shown in FIG. 12 (B), it suffices to form in advance texture information in which the side surface is viewed obliquely. Further, even when expressing a high-rise building as shown in FIG. 13, a similar method may be used.

【0056】また、図14に示すよう、道路周辺施設を
画像合成する場合には、同図(B)に示すよう、例え
ば、土留用のブロックを同様の手法によりテクスチャ情
報として記憶しておけばよい。
As shown in FIG. 14, when an image of a facility around a road is synthesized as shown in FIG. 14, for example, as shown in FIG. Good.

【0057】さらに、図15(A)に示すようなトンネ
ル内の景色や、図16に示すようなガードレールの画像
を合成する場合には、図15(B)に示すよう、トンネ
ル内の配管等の各パーツや、図16(B)に示すような
ガードレールの各部をテクスチャ情報として同様に形成
しておくことにより、少ないポリゴンで立体感のある画
像を合成することができる。
Further, when the scene in the tunnel as shown in FIG. 15A or the image of the guardrail as shown in FIG. 16 is synthesized, as shown in FIG. By forming each part of the above and each part of the guardrail as shown in FIG. 16B as texture information in the same manner, it is possible to synthesize an image having a three-dimensional effect with a small number of polygons.

【0058】図1には、本発明が適用されたゲーム機用
画像合成装置のブロック図が示されている。
FIG. 1 is a block diagram showing an image synthesizing apparatus for a game machine to which the present invention is applied.

【0059】実施例の画像合成装置は、プレーヤ操作部
10と、ゲーム空間演算部20と、ソーティング処理部
30と、画像合成部40とを含み、合成した表示画像を
ディスプレイ46上に表示するよう形成されている。
The image synthesizing apparatus of the embodiment includes a player operation unit 10, a game space calculation unit 20, a sorting processing unit 30, and an image synthesizing unit 40, and displays a synthesized display image on a display 46. Is formed.

【0060】前記プレーヤ操作部10は、前述した操作
パネル314上等に設けられ、プレーヤ312が各種の
操作信号を入力できるよう形成されている。例えば、ド
ライブゲームを例にとると、前記プレーヤ操作部10
は、操作パネル314およびその付近に設けられたハン
ドル、ブレーキ、アクセル等から構成される。
The player operation section 10 is provided on the above-described operation panel 314 or the like, and is formed so that the player 312 can input various operation signals. For example, taking a drive game as an example, the player operation unit 10
Is composed of an operation panel 314 and a handle, a brake, an accelerator and the like provided in the vicinity thereof.

【0061】前記ゲーム空間演算部20は、前記プレー
ヤ操作部10からの入力信号と、予め記憶されたゲーム
プログラムとに基づき、仮想3次元ゲーム空間300内
に、ポリゴンの組合わせで表現された3次元オブジェク
ト310が登場するゲームの演算を行う。そして、前記
3次元オブジェクト310を、移動する視点座標系の透
視投影面316に透視投影変換し、その情報をソーティ
ング処理部30へ向け出力する。
The game space calculation unit 20 is based on an input signal from the player operation unit 10 and a game program stored in advance, and a three-dimensional space represented by a combination of polygons in a virtual three-dimensional game space 300. The game in which the dimensional object 310 appears is calculated. Then, the three-dimensional object 310 is perspective-projection-transformed onto the perspective projection plane 316 of the moving viewpoint coordinate system, and the information is output to the sorting processing unit 30.

【0062】このような演算を行うため、実施例のゲー
ム演算部20は、メインCPU22と、3次元演算部2
4と、3次元情報メモリ26とを含む。
To perform such calculations, the game calculation unit 20 of the embodiment includes a main CPU 22 and a three-dimensional calculation unit 2.
4 and a three-dimensional information memory 26.

【0063】図2、図4において、3次元オブジェクト
310に関する画像情報は、ポリゴンに分割された多面
体、例えば図2におけるポリゴン320−1,320−
2,320−3,…320−6(ポリゴン320−4〜
320−6は図示せず)に分割された多面体として表現
され、前記各ポリゴンの各頂点座標、各頂点に対する各
種の画像情報、付随データが3次元情報メモリ26内に
予め記憶されている。
In FIGS. 2 and 4, the image information on the three-dimensional object 310 is represented by a polygonal polygon, for example, polygons 320-1 and 320- in FIG.
2,320-3, ... 320-6 (polygons 320-4 ~
320-6 is expressed as a polyhedron divided into polygons, and the coordinates of each vertex of each polygon, various kinds of image information for each vertex, and accompanying data are stored in the three-dimensional information memory 26 in advance.

【0064】さらに、実施例の画像合成装置では、3次
元オブジェクト310の回転、並進、透視投影変換等の
座標変換およびクリッピング処理等を、各面を構成する
ポリゴン毎(具体的には各ポリゴンの頂点毎)に行い、
テクスチャ情報については、ポリゴンの処理と分割して
その処理を行っている。この場合のテクスチャ情報その
ものは、後述するテクスチャ情報記憶部42内に記憶し
ておく。そして、そのテクスチャ情報の指定は、各ポリ
ゴンの各頂点に対応して、頂点テクスチャ座標VTX 、
VTY からなる画像情報を与えることにより行う。例え
ば、図2に示すよう、ポリゴン320−1の各頂点に対
しては、(VTX0、VTY0)、(VTX1、VTY1)、
(VTX2、VTY2)、(VTX3、VTY3)の各頂点テク
スチャ座標を与えておく。これら、頂点テクスチャ座標
は、3次元情報メモリ26内に記憶されている。
Further, in the image synthesizing apparatus according to the embodiment, the coordinate conversion such as rotation, translation, perspective projection conversion, and the like of the three-dimensional object 310 and clipping processing are performed for each polygon constituting each surface (specifically, for each polygon). At each vertex)
For the texture information, the processing is performed separately from the polygon processing. The texture information itself in this case is stored in a texture information storage unit 42 described later. The specification of the texture information corresponds to the vertex texture coordinates VTX,
This is performed by giving image information consisting of VTY. For example, as shown in FIG. 2, for each vertex of the polygon 320-1, (VTX0, VTY0), (VTX1, VTY1),
Vertex texture coordinates of (VTX2, VTY2) and (VTX3, VTY3) are given. These vertex texture coordinates are stored in the three-dimensional information memory 26.

【0065】実施例のゲーム空間演算部20の構成をド
ライビングゲームを行うゲーム機を例にとりより詳細に
説明する。ゲームを構成する要素であるレーシングカ
ー、道路、建物等を表す3次元オブジェクト310の画
像情報は、3次元情報メモリ26内に記憶される。そし
て、実施例の装置では、この3次元オブジェクトの画像
情報に座標変換、回転、並進等の各種の画像演算処理を
行い、ドライビングゲーム空間300を形成するもので
ある。
The configuration of the game space calculation section 20 of the embodiment will be described in more detail by taking a game machine for playing a driving game as an example. Image information of the three-dimensional object 310 representing a racing car, a road, a building, and the like, which are components of the game, is stored in the three-dimensional information memory 26. In the apparatus according to the embodiment, the driving game space 300 is formed by performing various image calculation processes such as coordinate conversion, rotation, and translation on the image information of the three-dimensional object.

【0066】前記メインCPU22は、予め定められた
ゲームプログラムと、プレーヤ操作部10からの入力信
号とに基づき、各種のゲーム演算を行う。例えば、ドラ
イビングゲーム空間300を形成するためには、図7に
示すよう、ドライビングゲームを構成する要素であるレ
ーシングカー、道路や建物などの各種の3次元オブジェ
クト310を、仮想3次元ゲーム空間300上の所定位
置に配置しなければならない。したがって、どの3次元
オブジェクトを、どこに配置するかを表すオブジェクト
ナンバー、位置情報が必要となる。これらのオブジェク
トナンバー、位置情報は、メインCPU22にて演算さ
れ、3次元演算部24へ向け出力される。
The main CPU 22 performs various game calculations based on a predetermined game program and an input signal from the player operation section 10. For example, in order to form the driving game space 300, as shown in FIG. 7, various three-dimensional objects 310 such as a racing car, roads, and buildings, which are components of the driving game, are placed on the virtual three-dimensional game space 300. Must be placed in a predetermined position. Therefore, an object number and position information indicating which three-dimensional object is to be arranged and where is needed. These object numbers and position information are calculated by the main CPU 22 and output to the three-dimensional calculation unit 24.

【0067】3次元演算部24は、前述したオブジェク
トナンバーをアドレスとして、3次元情報メモリ26か
ら対応する3次元オブジェクトの画像情報の読み出しを
行う。例えばオブジェクトナンバーが図4に示す建物1
10を指定するものである場合には、この建物110の
画像情報が3次元情報メモリ26から読み出される。3
次元情報メモリ26には、建物などの画像情報が複数枚
のポリゴンの集合(図4に示す建物110は2個のポリ
ゴンの集合)として表現され、格納されている。3次元
情報演算部24は、3次元情報メモリ26から読み出し
たデータからオブジェクトデータおよびポリゴンデータ
といわれるデータを形成する。
The three-dimensional operation unit 24 reads out the image information of the corresponding three-dimensional object from the three-dimensional information memory 26 using the object number as an address. For example, building 1 whose object number is shown in FIG.
In the case of designating 10, the image information of the building 110 is read from the three-dimensional information memory 26. 3
In the dimension information memory 26, image information such as a building is represented and stored as a set of a plurality of polygons (the building 110 shown in FIG. 4 is a set of two polygons). The three-dimensional information calculation unit 24 forms data called object data and polygon data from the data read from the three-dimensional information memory 26.

【0068】ここで、オブジェクトデータとは、3次元
オブジェクトである建物等の位置情報、回転情報その他
の付随データで構成されるデータをいう。また、ポリゴ
ンデータとは、前記建物等の画像情報をポリゴンに分割
したデータであり、ポリゴン頂点座標、頂点テクスチャ
座標、輝度情報その他の付随データで構成されるデータ
をいう。これらのデータは、所定のフォーマットのデー
タとして形成される。
Here, the object data is data composed of position information, rotation information, and other accompanying data of a three-dimensional object such as a building. The polygon data is data obtained by dividing the image information of the building or the like into polygons, and is data composed of polygon vertex coordinates, vertex texture coordinates, luminance information, and other accompanying data. These data are formed as data of a predetermined format.

【0069】そして、3次元演算部24は、メインCP
U22から入力されるプレーヤの視点情報と、前記オブ
ジェクトデータを元にポリゴンデータに対して各種の座
標変換を行う。即ち、ポリゴンデータに対するローカル
座標系への回転、ワールド座標系への平行移動、視点座
標系への回転が行われる。
Then, the three-dimensional operation unit 24 outputs the main CP
Various coordinate transformations are performed on polygon data based on the viewpoint information of the player input from U22 and the object data. That is, rotation of the polygon data to the local coordinate system, translation to the world coordinate system, and rotation to the viewpoint coordinate system are performed.

【0070】そして、これらの座標変換が終了したポリ
ゴンデータに対してクリッピング処理が行われ、クリッ
ピング処理が終了したデータは、次段のソーティング処
理部30へ向け出力される。
Then, clipping processing is performed on the polygon data on which the coordinate conversion has been completed, and the data on which the clipping processing has been completed is output to the sorting processing unit 30 in the next stage.

【0071】前記ソーティング処理部30は、このよう
にして入力されたデータおよびソーティング処理用のデ
ータ等を用いて、次段の画像合成部40において処理す
るポリゴンの画像情報の順序を決定し、その順序にした
がって、各ポリゴンの画像情報を画像合成部40へ向け
出力する。
The sorting processing unit 30 determines the order of the image information of the polygons to be processed in the next-stage image synthesizing unit 40 using the data input in this way, the data for sorting processing, and the like. The image information of each polygon is output to the image synthesizing unit 40 according to the order.

【0072】前記画像合成部40は、各ポリゴンに対す
るテクスチャ情報が記憶されたテクスチャ情報記憶部4
2と、透視投影変換された前記3次元オブジェクトのポ
リゴンに、前記テクスチャ情報記憶部42に記憶された
対応するテクスチャ情報をマッピングし、表示画像を形
成する画像形成部44とを含む。
The image synthesizing section 40 includes a texture information storage section 4 in which texture information for each polygon is stored.
2, and an image forming unit 44 that maps the corresponding texture information stored in the texture information storage unit 42 to the perspective projection-transformed polygon of the three-dimensional object to form a display image.

【0073】図9には、前記テクスチャ情報記憶部42
のテクスチャ記憶平面が概略的に示されている。実施例
のテクスチャ記憶平面は、複数ブロックに分割され、各
ブロックは、256×256のキャラクタに分割されて
いる。各キャラクタは、16×16ドットの画素に分割
され、各キャラクタには、テクスチャ記憶平面を構成す
るための絵素が記憶されている。
FIG. 9 shows the texture information storage section 42.
Are schematically illustrated. The texture storage plane of the embodiment is divided into a plurality of blocks, and each block is divided into 256 × 256 characters. Each character is divided into 16 × 16 dot pixels, and each character stores a picture element for forming a texture storage plane.

【0074】そして、各ポリゴンへのテクスチャリング
は、ポリゴンに貼り付けたい各テクスチャ情報の座標T
X ,TY を指定することにより行われる。ただし、ブロ
ック間にまたがるポリゴンを指定することは出来ない。
The texturing for each polygon is performed by using the coordinates T of each piece of texture information to be pasted on the polygon.
This is performed by designating X and TY. However, it is not possible to specify a polygon that extends between blocks.

【0075】このように構成されたテクスチャ情報記憶
部42は、ポリゴンを正面から見て形成された通常のテ
クスチャ情報と、視点座標系の移動経路に沿った代表的
なアングルから、3次元オブジェクトを斜め方向に見て
形成された各ポリゴンのテクスチャ情報とが記憶されて
いる。後者のテクスチャ情報としては、例えば、図4
(C),(D)に示すようなテクスチャ情報がある。
The texture information storage unit 42 configured as described above stores a three-dimensional object from normal texture information formed when a polygon is viewed from the front and a representative angle along the movement path of the viewpoint coordinate system. The texture information of each polygon formed as viewed obliquely is stored. As the latter texture information, for example, FIG.
There is texture information as shown in (C) and (D).

【0076】そして、前記画像形成部44では、ソーテ
ィング処理部30を介して3次元演算部24から入力さ
れるポリゴンの各頂点画像情報から、ポリゴンの輪郭線
および内部の画像情報が演算される。即ち、前述した3
次元演算部24、ソーティング処理部30では、回転、
並進等の座標変換、透視投影変換、クリッピング処理、
ソーティング処理等の複雑な演算処理を行わなくてはな
らないため、ハードウエアの負担を軽減すべく、これら
の処理を全て各ポリゴン毎および各頂点毎に行う。そし
て、実際に画像表示をするのに必要なポリゴンの輪郭線
や、ポリゴン内部の画像情報を、この画像形成部44で
形成する。
The image forming section 44 calculates the polygon outline and the internal image information from each vertex image information of the polygon input from the three-dimensional operation section 24 via the sorting processing section 30. That is, 3
In the dimension calculation unit 24 and the sorting processing unit 30, rotation,
Coordinate transformation such as translation, perspective projection transformation, clipping processing,
Since complicated arithmetic processing such as sorting processing must be performed, all of these processing is performed for each polygon and each vertex in order to reduce the load on hardware. Then, the image forming unit 44 forms the outlines of the polygons necessary for actually displaying an image and the image information inside the polygons.

【0077】このとき、画像形成部44では、入力され
るポリゴンの各頂点テクスチャ座標VTX 、VTY か
ら、ポリゴン内の全てのドットについて、テクスチャ情
報読み出しアドレスとして用いるテクスチャ座標TX 、
TY を求める。そして、このテクスチャ座標TX 、TY
をアドレスとして、テクスチャ情報記憶部42から対応
するテクスチャ情報の読み出しを行い、前記テクスチャ
情報がマッピングされた3次元オブジェクトを画像合成
して、ディスプレイ46上に表示する。このようなテク
スチャマッピングの画像合成技術の詳細は、本出願人に
より、特願平4−252139として既に提案されてい
る。
At this time, the image forming unit 44 determines, from the vertex texture coordinates VTX, VTY of the input polygon, the texture coordinates TX, used as the texture information read address, for all the dots in the polygon.
Find TY. Then, the texture coordinates TX, TY
The corresponding texture information is read from the texture information storage unit 42 using the address as an address, and the three-dimensional object to which the texture information is mapped is synthesized and displayed on the display 46. The details of such a texture mapping image synthesizing technique have already been proposed by the present applicant as Japanese Patent Application No. 4-252139.

【0078】実施例の画像合成装置では、図4(B)に
示すよう、3次元オブジェクト310を斜めからみた画
像は、少ないポリゴン(ここでは2つのポリゴン)で簡
略的に表現し、これに図4(C),(D)に示すような
テクスチャ情報をマッピングすることにより表示できる
ため、1個当たりの3次元オブジェクトを表示するため
に必要とされるデータ量および演算量を大幅に低減し、
1画面内に高品質の3次元オブジェクトを多数表示する
ことができる。
In the image synthesizing apparatus according to the embodiment, as shown in FIG. 4B, an image of the three-dimensional object 310 viewed obliquely is simply represented by a small number of polygons (here, two polygons). 4 (C) and 4 (D) can be displayed by mapping the texture information, so that the amount of data and the amount of calculation required to display a three-dimensional object per one are greatly reduced,
Many high-quality three-dimensional objects can be displayed in one screen.

【0079】さらに、実施例の画像合成装置によれば、
例えば図13〜図16に示す3次元オブジェクトを所定
アングルで形成されたテクスチャ情報を、あらかじめテ
クスチャ情報記憶部42に記憶しておくことにより、同
図に示す3次元オブジェクトを立体感を損なわず簡略化
して表示することができ、従来のゲーム機に比べ、ゲー
ム画面の品質を格段に高めることができる。
Further, according to the image synthesizing apparatus of the embodiment,
For example, by storing in advance the texture information of the three-dimensional object shown in FIGS. 13 to 16 at a predetermined angle in the texture information storage unit 42, the three-dimensional object shown in FIG. 13 can be simplified without impairing the three-dimensional effect. The game screen can be displayed in a different form, and the quality of the game screen can be remarkably improved as compared with a conventional game machine.

【0080】なお、本発明は前記実施例に限定されるも
のではなく、本発明の要旨の範囲内で各種の変形実施が
可能である。
The present invention is not limited to the above embodiment, and various modifications can be made within the scope of the present invention.

【0081】例えば、前記実施例では本発明をゲーム用
の画像合成装置に適用した場合を例にとり説明したが、
本発明はこれに限らず、これ以外の各種用途、例えば、
各種の3次元画像生成用シミュレータおよびその他の用
途に用いることができる。
For example, in the above embodiment, the case where the present invention is applied to an image synthesizing apparatus for a game has been described as an example.
The present invention is not limited to this, and various other uses, for example,
It can be used for various three-dimensional image generation simulators and other applications.

【0082】また、ポリゴンへのテクスチャ情報のマッ
ピングは、前記実施例に限定されるものではなく、必要
に応じ、各種のマッピング手法を用いることができる。
The mapping of texture information to polygons is not limited to the above embodiment, and various mapping methods can be used as needed.

【0083】また、前記実施例では、図7に示すよう、
3次元オブジェクト120を形成する各ポリゴンに貼り
付けるテクスチャ情報を、視点(レーシングカー120
の位置)の位置に係わりなく共通なものを用いたが、本
発明はこれに限らず、例えば、各ポリゴンのテクスチャ
情報を、視点位置を変えて複数種類用意し、各ポリゴン
に対する所定位置に応じて最適なテクスチャ情報を選択
し、マッピングするように形成してもよい。これによ
り、よりリアリティに富んだ画像を形成することができ
る。
In the above embodiment, as shown in FIG.
The texture information to be attached to each polygon forming the three-dimensional object 120 is obtained from the viewpoint (the racing car 120).
However, the present invention is not limited to this. For example, a plurality of types of texture information of each polygon are prepared by changing the viewpoint position, and the texture information is prepared according to a predetermined position for each polygon. In this case, the most suitable texture information may be selected and mapped. This makes it possible to form an image with higher reality.

【0084】また、レーシングカー120が建物110
に120Bのように接近した場合や、建物110の近く
に設けられた駐車スペースに侵入する場合には、建物1
10を図4(B)に示す簡易ポリゴンで形成するのでは
なく、図4(A)に示すような詳細なポリゴンで形成し
たものに切り替えて用いるようにしてもよい。このよう
にしても、レーシングカー120が建物110に接近す
るまでは、建物110を簡易ポリゴンにより少ない演算
で表示できるため、その分多くの3次元オブジェクトを
表示することができる。
The racing car 120 is located on the building 110
120B or approaching a parking space provided near the building 110, the building 1
Instead of being formed by the simple polygons shown in FIG. 4B, 10 may be switched to those formed by detailed polygons as shown in FIG. 4A. Even in this case, since the building 110 can be displayed with a smaller number of calculations using simple polygons until the racing car 120 approaches the building 110, more three-dimensional objects can be displayed accordingly.

【0085】[0085]

【発明の効果】以上説明したように、本発明によれば、
3次元オブジェクトの凹凸のある面を少ないポリゴンの
組合わせで表現し、しかも高画質で立体感のある画像を
合成することができる画像合成装置およびこれを用いた
ゲーム装置を提供できるという効果がある。
As described above, according to the present invention,
There is an effect that an image synthesizing apparatus capable of expressing an uneven surface of a three-dimensional object with a combination of a small number of polygons and synthesizing an image with high image quality and a three-dimensional effect and a game apparatus using the same can be provided. .

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の画像合成装置の好適な実施例を示すブ
ロック図である。
FIG. 1 is a block diagram showing a preferred embodiment of an image synthesizing apparatus according to the present invention.

【図2】実施例の画像合成装置の原理を示す概略説明図
である。
FIG. 2 is a schematic explanatory view showing the principle of the image synthesizing apparatus according to the embodiment.

【図3】実施例の画像合成装置のテクスチャマッピング
の原理を示す説明図である。
FIG. 3 is an explanatory diagram illustrating the principle of texture mapping of the image synthesizing apparatus according to the embodiment.

【図4】テクスチャマッピングの手法を用いて行われる
本発明の画像合成原理の説明図である。
FIG. 4 is an explanatory diagram of an image synthesis principle of the present invention performed using a texture mapping technique.

【図5】本発明において用いられるテクスチャ情報およ
びそのテクスチャ情報を用いて形成される3次元オブジ
ェクトの画像の説明図である。
FIG. 5 is an explanatory diagram of texture information used in the present invention and an image of a three-dimensional object formed using the texture information.

【図6】通常の手法を用いて形成されたテクスチャ情報
およびこれを用いて形成された3次元オブジェクトの表
示画像の説明図である。
FIG. 6 is an explanatory diagram of texture information formed using a normal technique and a display image of a three-dimensional object formed using the texture information.

【図7】仮想3次元空間内に設定された3次元オブジェ
クトと移動する視点座標系との関係の一例を示す説明図
である。
FIG. 7 is an explanatory diagram showing an example of a relationship between a three-dimensional object set in a virtual three-dimensional space and a moving viewpoint coordinate system.

【図8】図7に示す移動する視点座標系からみた3次元
オブジェクトの画像の概略説明図である。
8 is a schematic explanatory diagram of an image of a three-dimensional object viewed from a moving viewpoint coordinate system shown in FIG. 7;

【図9】図1に示す回路のテクスチャ情報記憶部の説明
図である。
9 is an explanatory diagram of a texture information storage unit of the circuit shown in FIG.

【図10】一般的な画像合成装置の原理を示す説明図で
ある。
FIG. 10 is an explanatory diagram showing the principle of a general image synthesizing apparatus.

【図11】従来、3次元オブジェクトを表示するために
用いるポリゴンの説明図である。
FIG. 11 is an explanatory diagram of a polygon conventionally used for displaying a three-dimensional object.

【図12】本発明の方法により高層ビルを画像合成する
場合の説明図である。
FIG. 12 is an explanatory diagram of a case where an image of a high-rise building is synthesized by the method of the present invention.

【図13】本発明の方法により他の高層ビルを画像合成
する場合の説明図である。
FIG. 13 is an explanatory diagram of a case where an image of another high-rise building is synthesized by the method of the present invention.

【図14】本発明の方法により道路周辺施設を画像合成
する場合の説明図である。
FIG. 14 is an explanatory diagram of a case where images of road peripheral facilities are synthesized by the method of the present invention.

【図15】本発明の手法によりトンネル内の景色を画像
合成する場合の説明図である。
FIG. 15 is an explanatory diagram of a case where an image of a scene in a tunnel is synthesized by the method of the present invention.

【図16】本発明の手法によりガードレールを画像合成
する場合の説明図である。
FIG. 16 is an explanatory diagram of a case where an image of a guardrail is synthesized by the method of the present invention.

【符号の説明】[Explanation of symbols]

10 プレーヤ操作部 20 ゲーム空間演算部 22 メインCPU 24 3次元演算部 26 3次元情報記憶部 30 ソーティング処理部 40 画像合成部 42 テクスチャ情報記憶部 44 画像形成部 46 ディスプレイ 110 建物 300 仮想3次元空間 310 3次元オブジェクト 312 プレーヤ 316 透視投影面 Reference Signs List 10 player operation unit 20 game space calculation unit 22 main CPU 24 three-dimensional calculation unit 26 three-dimensional information storage unit 30 sorting processing unit 40 image synthesis unit 42 texture information storage unit 44 image formation unit 46 display 110 building 300 virtual three-dimensional space 310 3D object 312 player 316 perspective projection plane

───────────────────────────────────────────────────── フロントページの続き (56)参考文献 特公 平1−54748(JP,B2) DEBEVEC Pほか”Model ing and Rendering Architecture from Photographs:A hybr id geomertry and i mage−based approac h”,SIGGRAPH Conf P roc,1996年,Vol.1996.p.11 −20 http://alberti.c s.berkeley.edu/ ̄de bevec/Research/(”M odeling and Render ing from Photograp hs”:1999年1月8日確認) (58)調査した分野(Int.Cl.6,DB名) G06T 15/00 - 17/50 JICSTファイル(JOIS)──────────────────────────────────────────────────続 き Continuation of the front page (56) References JP 1-54748 (JP, B2) DEBEVEC P, et al. Proc, 1996, Vol. 1996. p. 11-20 http: // alberti. cs. berkley. edu /  ̄de bevec / Research / ("Modeling and Rendering from Photographs": confirmed on January 8, 1999) (58) Fields investigated (Int. Cl. 6 , DB name) G06T 15/00-17 / 50 JICST file (JOIS)

Claims (10)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 仮想3次元空間内に配置された3次元オ
ブジェクトを、視点座標系の投影面に投影変換し表示画
像を形成する装置において、 前記3次元オブジェクトの凹及び凸の少なくとも一方を
含む面が簡易ポリゴンで表された簡易3次元オブジェク
ト用に、前記3次元オブジェクトを所定位置から斜めに
見た画像がテクスチャ情報として予め記憶されたテクス
チャ情報記憶手段と、視点位置から斜めに見える 前記簡易3次元オブジェクト
に、対応する前記テクスチャ情報をマッピングし前記表
示画像を形成する画像形成手段と、 を含むことを特徴とする画像合成装置。
1. An apparatus for forming a display image by projecting a three-dimensional object arranged in a virtual three-dimensional space onto a projection plane of a viewpoint coordinate system, comprising at least one of a concave part and a convex part of the three-dimensional object. surface in the for simple three-dimensional object represented by a simple polygon, a previously stored texture information storage means image viewed obliquely the three-dimensional object from a predetermined position as the texture information, the simple visible obliquely from the viewpoint position An image forming unit that maps the corresponding texture information to a three-dimensional object to form the display image.
【請求項2】 仮想3次元空間内に配置された3次元オ
ブジェクトを、移動する視点座標系の投影面に投影変換
し表示画像を形成する装置において、 前記3次元オブジェクトの凹及び凸の少なくとも一方を
含む面が簡易ポリゴンで表された簡易3次元オブジェク
ト用に、前記視点座標系の移動経路に沿った複数の代表
的位置から、前記3次元オブジェクトを斜めに見た複数
の画像がテクスチャ情報として予め記憶されたテクスチ
ャ情報記憶手段と、視点位置から斜めに見える 前記簡易3次元オブジェクト
に、前記視点座標系と簡易3次元オブジェクトとの相対
位置に対応したテクスチャ情報をマッピングし前記表示
画像を形成する画像形成手段と、 を含むことを特徴とする画像合成装置。
2. An apparatus for projecting a three-dimensional object arranged in a virtual three-dimensional space onto a projection plane of a moving viewpoint coordinate system to form a display image, wherein at least one of a concave and a convex of the three-dimensional object is provided. For a simple three-dimensional object whose surface including is represented by a simple polygon, a plurality of images obtained by obliquely viewing the three-dimensional object from a plurality of representative positions along the movement path of the viewpoint coordinate system are used as texture information. The texture information corresponding to the relative position between the viewpoint coordinate system and the simple three-dimensional object is mapped to the previously stored texture information storage means and the simple three-dimensional object obliquely viewed from the viewpoint position to form the display image. An image forming apparatus, comprising: an image forming unit.
【請求項3】 プレーヤが操作するプレーヤ操作手段
と、 前記プレーヤ操作手段からの入力信号と、予め記憶され
たゲームプログラムとに基づき、仮想3次元ゲーム空間
内に、3次元オブジェクトの凹及び凸の少なくとも一方
を含む面が簡易ポリゴンで表された簡易3次元オブジェ
クトが登場するゲーム演算を行うとともに、前記簡易3
次元オブジェクトを視点座標系の投影面に投影変換し出
力するゲーム空間演算手段と、 前記簡易3次元オブジェクト用に、前記3次元オブジェ
クトを所定位置から斜めに見た画像がテクスチャ情報と
して予め記憶されたテクスチャ情報記憶手段と、視点位置から斜めに見える 前記簡易3次元オブジェクト
に、対応する前記テクスチャ情報をマッピングしゲーム
画像を形成する画像形成手段と、 を含むことを特徴とするゲーム装置。
3. A three-dimensional object having concave and convex portions in a virtual three-dimensional game space based on player operation means operated by a player, an input signal from the player operation means, and a game program stored in advance. In addition to performing a game calculation in which a simple three-dimensional object whose surface including at least one is represented by a simple polygon appears,
A game space calculation means for projecting and transforming the three-dimensional object onto a projection plane in a viewpoint coordinate system, and for the simple three-dimensional object, an image of the three-dimensional object obliquely viewed from a predetermined position is stored in advance as texture information. A game apparatus, comprising: texture information storage means; and image forming means for forming a game image by mapping the corresponding texture information to the simple three-dimensional object obliquely viewed from a viewpoint position .
【請求項4】 請求項3において、 前記ゲーム空間演算手段は、 前記視点座標系が仮想3次元ゲーム空間内を移動するゲ
ーム演算を行い、 前記テクスチャ情報記憶手段は、 前記視点座標系の移動経路に沿った複数の代表的位置か
ら、前記3次元オブジェクトを斜めに見た複数の画像が
テクスチャ情報として予め記憶され、 前記画像形成手段は、 簡易3次元オブジェクトに、前記視点座標系と簡易3次
元オブジェクトとの相対位置に対応したテクスチャ情報
をマッピングし前記ゲーム画像を形成することを特徴と
するゲーム装置。
4. The game space calculation unit according to claim 3, wherein the viewpoint coordinate system performs a game calculation in which the viewpoint coordinate system moves in a virtual three-dimensional game space, and the texture information storage unit includes a movement path of the viewpoint coordinate system. A plurality of images obtained by obliquely viewing the three-dimensional object from a plurality of representative positions along are stored in advance as texture information, and the image forming means stores the viewpoint coordinate system and the simple three-dimensional object in a simple three-dimensional object. A game device, wherein texture information corresponding to a relative position with respect to an object is mapped to form the game image.
【請求項5】 仮想3次元空間内に配置された3次元オ
ブジェクトを、移動する視点座標系の投影面に投影変換
し表示画像を形成する装置において、 前記3次元オブジェクトの凹及び凸の少なくとも一方を
含む面が簡易ポリゴンで表された簡易3次元オブジェク
ト用に、前記視点座標系の移動経路に沿った複数の代表
的位置から、前記3次元オブジェクトを斜めに見た複数
の画像がテクスチャ情報として予め記憶されたテクスチ
ャ情報記憶手段と、 前記簡易3次元オブジェクトに、前記視点座標系と簡易
3次元オブジェクトとの相対位置に対応したテクスチャ
情報をマッピングし前記表示画像を形成する画像形成手
段と、 を含み、 前記テクスチャ情報記憶手段は、 前記視点座標系の移動経路に沿った少なくとも遠距離、
中距離、近距離の代表的位置から、前記3次元オブジェ
クトを斜めに見た複数の画像がテクスチャ情報として予
め記憶され、 前記画像形成手段は、 簡易3次元オブジェクトに、前記視点座標系と簡易3次
元オブジェクトとの相対距離に対応するテクスチャ情報
を前記テクスチャ情報記憶手段から読み出しマッピング
することを特徴とする画像合成装置。
5. A three-dimensional camera arranged in a virtual three-dimensional space.
Projection transformation of the projection onto the projection plane of the moving viewpoint coordinate system
In a device for forming a display image , at least one of concave and convex of the three-dimensional object is
Simple 3D object whose surface is represented by a simple polygon
A plurality of representatives along the movement path of the viewpoint coordinate system for
A plurality of the three-dimensional objects viewed diagonally from the target position
Is stored in advance as texture information.
Key information storage means and the viewpoint coordinate system and the simplified three-dimensional object
Texture corresponding to relative position with 3D object
Image forming means for mapping information to form the display image
And a step , wherein the texture information storage means includes at least a long distance along a movement path of the viewpoint coordinate system,
A plurality of images obtained by obliquely viewing the three-dimensional object from representative positions at a medium distance and a short distance are stored in advance as texture information. An image synthesizing apparatus, wherein texture information corresponding to a relative distance to a dimensional object is read from the texture information storage means and mapped.
【請求項6】 請求項1,2,5のいずれかにおいて、 前記簡易3次元オブジェクトは、 前記3次元ゲーム空間内に固定的に配置されたことを特
徴とする画像合成装置。
6. The image synthesizing apparatus according to claim 1, wherein the simple three-dimensional object is fixedly arranged in the three-dimensional game space.
【請求項7】 請求項1,2,5,6のいずれかにおい
て、 前記テクスチャ情報は、 前記3次元オブジェクトを表す模型又は実物を所定位置
から斜めに見た画像として形成されたことを特徴とする
画像合成装置。
7. The texture information according to claim 1, wherein the texture information is formed as an image of a model or a real object representing the three-dimensional object viewed obliquely from a predetermined position. Image synthesizing device.
【請求項8】 プレーヤが操作するプレーヤ操作手段
と、 前記プレーヤ操作手段からの入力信号と、予め記憶され
たゲームプログラムとに基づき、仮想3次元ゲーム空間
内に、3次元オブジェクトの凹及び凸の少なくとも一方
を含む面が簡易ポリゴンで表された簡易3次元オブジェ
クトが登場するゲーム演算を行うとともに、前記簡易3
次元オブジェクトを視点座標系の投影面に投影変換し出
力するゲーム空間演算手段と、 前記簡易3次元オブジェクト用に、前記3次元オブジェ
クトを所定位置から斜めに見た画像がテクスチャ情報と
して予め記憶されたテクスチャ情報記憶手段と、 前記簡易3次元オブジェクトに、対応する前記テクスチ
ャ情報をマッピングしゲーム画像を形成する画像形成手
段と、 を含み、 前記ゲーム空間演算手段は、 前記視点座標系が仮想3次元ゲーム空間内を移動するゲ
ーム演算を行い、 前記テクスチャ情報記憶手段は、 前記視点座標系の移動経路に沿った少なくとも遠距離、
中距離、近距離の代表的位置から、前記3次元オブジェ
クトを斜めに見た複数の画像がテクスチャ情報として予
め記憶され、 前記画像形成手段は、 簡易3次元オブジェクトに、前記視点座標系と簡易3次
元オブジェクトとの相対距離に対応するテクスチャ情報
を前記テクスチャ情報記憶手段から読み出しマッピング
することを特徴とするゲーム装置。
8. Player operation means operated by a player
And an input signal from the player operation means,
Virtual 3D game space based on
Inside, at least one of concave and convex of the three-dimensional object
Simple three-dimensional object whose surface including
In addition to performing game calculations in which
Projects a 3D object onto the projection plane in the viewpoint coordinate system.
Game space computing means for powering, and the three-dimensional object for the simple three-dimensional object.
The image of the object viewed diagonally from the predetermined position is the texture information and
Texture information storage means stored in advance, and the texture corresponding to the simple three-dimensional object.
Image forming hands that map gamer information to form game images
And a step , wherein the game space calculation means includes a game space coordinate system that moves in the virtual three-dimensional game space.
The texture information storage means, at least a long distance along the movement path of the viewpoint coordinate system,
A plurality of images obtained by obliquely viewing the three-dimensional object from representative positions at a medium distance and a short distance are stored in advance as texture information, and the image forming means stores the viewpoint coordinate system and the simple three-dimensional object in a simple three-dimensional object. A game apparatus wherein texture information corresponding to a relative distance to a dimensional object is read from the texture information storage means and mapped.
【請求項9】 請求項3,4,8のいずれかにおいて、 前記簡易3次元オブジェクトは、 前記3次元ゲーム空間内に固定的に配置されたことを特
徴とするゲーム装置。
9. The game device according to claim 3, wherein the simple three-dimensional object is fixedly arranged in the three-dimensional game space.
【請求項10】 請求項3,4,8,9のいずれかにお
いて、 前記テクスチャ情報は、 前記3次元オブジェクトを表す模型又は実物を所定位置
から斜めに見た画像として形成されたことを特徴とする
ゲーム装置。
10. The texture information according to any one of claims 3, 4, 8, and 9, wherein the texture information is formed as an image of a model or a real object representing the three-dimensional object viewed obliquely from a predetermined position. Game device.
JP5166494A 1993-06-10 1993-06-10 Image synthesis device and game device using the same Expired - Lifetime JP2883514B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5166494A JP2883514B2 (en) 1993-06-10 1993-06-10 Image synthesis device and game device using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5166494A JP2883514B2 (en) 1993-06-10 1993-06-10 Image synthesis device and game device using the same

Publications (2)

Publication Number Publication Date
JPH06348860A JPH06348860A (en) 1994-12-22
JP2883514B2 true JP2883514B2 (en) 1999-04-19

Family

ID=15832416

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5166494A Expired - Lifetime JP2883514B2 (en) 1993-06-10 1993-06-10 Image synthesis device and game device using the same

Country Status (1)

Country Link
JP (1) JP2883514B2 (en)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10198822A (en) * 1997-01-10 1998-07-31 Sharp Corp Image compositing device
JP2937937B2 (en) * 1997-04-21 1999-08-23 核燃料サイクル開発機構 3D object data processing method
JP3294149B2 (en) * 1997-04-23 2002-06-24 シャープ株式会社 Three-dimensional texture mapping processing device and three-dimensional image generation device using the same
JPH11232480A (en) * 1998-02-09 1999-08-27 Cec:Kk High-speed plotting method
JP3002666B2 (en) * 1998-05-21 2000-01-24 ニチハ株式会社 House coordination support system and recording medium
JP3310257B2 (en) * 2000-03-24 2002-08-05 株式会社コナミコンピュータエンタテインメントジャパン Game system and computer-readable recording medium recording game program
DE60126387D1 (en) 2000-10-27 2007-03-22 Canon Kk Image forming method and image forming apparatus
GB2377870B (en) 2001-05-18 2005-06-29 Canon Kk Method and apparatus for generating confidence data
JP4088169B2 (en) * 2003-02-07 2008-05-21 株式会社バンダイナムコゲームス Image generating apparatus and information storage medium
JP4463597B2 (en) * 2004-03-24 2010-05-19 富士通株式会社 3D drawing model generation method and program thereof
JP3961525B2 (en) * 2004-09-22 2007-08-22 株式会社コナミデジタルエンタテインメント Image processing apparatus, image processing method, and program
JP4984257B2 (en) * 2008-02-28 2012-07-25 大日本印刷株式会社 Venue setting simulation device, program, medium, simple image deformation synthesis method
JP5552808B2 (en) * 2009-12-25 2014-07-16 株式会社三洋物産 Game machine
JP5987863B2 (en) * 2014-05-29 2016-09-07 株式会社三洋物産 Game machine
JP2016198575A (en) * 2016-08-04 2016-12-01 株式会社三洋物産 Game machine
JP7323751B2 (en) * 2018-12-28 2023-08-09 株式会社バンダイナムコエンターテインメント game system and program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA1206260A (en) * 1982-07-30 1986-06-17 Karl M. Fant Image processing system

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
DEBEVEC Pほか"Modeling and Rendering Architecture from Photographs:A hybrid geomertry and image−based approach",SIGGRAPH Conf Proc,1996年,Vol.1996.p.11−20
http://alberti.cs.berkeley.edu/ ̄debevec/Research/("Modeling and Rendering from Photographs":1999年1月8日確認)

Also Published As

Publication number Publication date
JPH06348860A (en) 1994-12-22

Similar Documents

Publication Publication Date Title
US5577960A (en) Image synthesizing system and game playing apparatus using the same
JP2883514B2 (en) Image synthesis device and game device using the same
US5630043A (en) Animated texture map apparatus and method for 3-D image displays
JP2807608B2 (en) Sorting processing apparatus, image synthesizing apparatus using the same, and sorting processing method
US7277571B2 (en) Effective image processing, apparatus and method in virtual three-dimensional space
JP3638637B2 (en) Polygon data conversion device and three-dimensional simulator device
JPH10198822A (en) Image compositing device
JP3420870B2 (en) Image composition method, image composition device, and game device
JP4804122B2 (en) Program, texture data structure, information storage medium, and image generation system
JP3538393B2 (en) GAME SYSTEM, PROGRAM, AND INFORMATION STORAGE MEDIUM
JP3748451B1 (en) Program, information storage medium, and image generation system
JP3280355B2 (en) Image generation system and information storage medium
AU5652700A (en) Method and apparatus for providing non-photorealistic cartoon outlining within a 3D vodeographic system
JP3538394B2 (en) GAME SYSTEM, PROGRAM, AND INFORMATION STORAGE MEDIUM
GB2284526A (en) Image synthesizer and apparatus for playing game using the image synthesizer
JP4073031B2 (en) Program, information storage medium, and image generation system
EP1041515B1 (en) Game apparatus
US7245298B2 (en) Game system, image drawing method for game system, and computer-readable storage medium storing game program
JP4913399B2 (en) Program, information storage medium, and image generation system
JP3364456B2 (en) 3D simulator apparatus and image composition method
JP4577968B2 (en) GAME SYSTEM AND INFORMATION STORAGE MEDIUM
JP2005141647A (en) Program, information storage medium and image generating system
EP1249791B1 (en) 3-D game image processing method and device for drawing border lines
JP4592087B2 (en) Image generation system, program, and information storage medium
JP3452512B2 (en) GAME DEVICE AND GAME IMAGE GENERATION METHOD

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 19990119

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080205

Year of fee payment: 9

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090205

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090205

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100205

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100205

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100205

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110205

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110205

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120205

Year of fee payment: 13

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120205

Year of fee payment: 13

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120205

Year of fee payment: 13

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130205

Year of fee payment: 14

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130205

Year of fee payment: 14

EXPY Cancellation because of completion of term