JP3364456B2 - 3D simulator apparatus and image composition method - Google Patents

3D simulator apparatus and image composition method

Info

Publication number
JP3364456B2
JP3364456B2 JP29231199A JP29231199A JP3364456B2 JP 3364456 B2 JP3364456 B2 JP 3364456B2 JP 29231199 A JP29231199 A JP 29231199A JP 29231199 A JP29231199 A JP 29231199A JP 3364456 B2 JP3364456 B2 JP 3364456B2
Authority
JP
Japan
Prior art keywords
virtual
texture
dimensional space
image
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP29231199A
Other languages
Japanese (ja)
Other versions
JP2000105533A (en
Inventor
高弘 柿沢
孝 矢野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Namco Ltd
Original Assignee
Namco Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Ltd filed Critical Namco Ltd
Priority to JP29231199A priority Critical patent/JP3364456B2/en
Publication of JP2000105533A publication Critical patent/JP2000105533A/en
Application granted granted Critical
Publication of JP3364456B2 publication Critical patent/JP3364456B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、仮想3次元空間を
シミュレートできる3次元シミュレータ装置及び画像合
成方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a three-dimensional simulator device and image synthesizing method capable of simulating a virtual three-dimensional space.

【0002】[0002]

【背景技術及び発明が解決しようとする課題】従来、例
えば3次元ゲームあるいは飛行機及び各種乗物の操縦シ
ュミレ―タ等に使用される3次元シミュレータ装置とし
て種々のものが知られている。このような3次元シミュ
レータ装置では、図25(A)に示す3次元物体300
に関する画像情報が、あらかじめ装置に記憶されてい
る。ここで、この3次元物体300は、プレーヤ302
がスクリーン306を介して見ることができる風景等を
表すものである。そして、この風景等を表す3次元物体
300の画像情報をスクリーン306上に透視投影変換
することにより疑似3次元画像308をスクリーン30
6上に画像表示している。この装置では、プレーヤ30
2が、操作パネル304により回転、並進等の操作を行
うと、この操作信号に基づいて所定の3次元演算処理が
行われる。具体的には、まず、操作信号によりプレーヤ
302の視点位置、視線方向あるいはプレーヤ302の
搭乗する移動体の位置、方向等がどのように変化するか
を求める演算処理が行われる。次に、この視点位置、視
線方向等の変化に伴い、3次元物体300の画像がスク
リーン306上でどのように見えるかを求める演算処理
が行われる。そして、以上の演算処理はプレーヤ302
の操作に追従してリアルタイムで行われる。これにより
プレーヤ302は、自身の視点位置、視線方向の変化あ
るいは自身の搭乗する移動体の位置、方向の変化に伴う
風景等の変化を疑似3次元画像としてリアルタイムに見
ることが可能となり、仮想的な3次元空間を疑似体験で
きることとなる。
2. Description of the Related Art Conventionally, various types of three-dimensional simulator devices are known, which are used for, for example, a three-dimensional game or a simulator for controlling airplanes and various vehicles. In such a three-dimensional simulator device, the three-dimensional object 300 shown in FIG.
Image information relating to is stored in advance in the device. Here, the three-dimensional object 300 is the player 302.
Represents a landscape or the like that can be seen through the screen 306. Then, the pseudo three-dimensional image 308 is displayed on the screen 30 by performing perspective projection conversion of the image information of the three-dimensional object 300 representing the landscape or the like on the screen 306.
The image is displayed on top of 6. In this device, the player 30
When 2 performs an operation such as rotation and translation on the operation panel 304, a predetermined three-dimensional calculation process is performed based on the operation signal. Specifically, first, a calculation process is performed to determine how the position of the viewpoint of the player 302, the direction of the line of sight, the position, the direction of the moving body on which the player 302 is boarding, etc. change according to the operation signal. Next, a calculation process is performed to find what the image of the three-dimensional object 300 looks like on the screen 306 according to the change in the viewpoint position, the line-of-sight direction, and the like. Then, the above arithmetic processing is performed by the player 302.
It is performed in real time following the operation of. As a result, the player 302 can see in real time, as a pseudo three-dimensional image, a change in the viewpoint position of the player, a change in the line-of-sight direction, or the position of the moving body on which the player rides, a change in the scenery, etc., in a pseudo-three-dimensional image. You will be able to experience a virtual three-dimensional space.

【0003】図25(B)には、以上のような3次元シ
ミュレータ装置により形成される表示画面の一例が示さ
れる。
FIG. 25B shows an example of a display screen formed by the above three-dimensional simulator device.

【0004】さて、ドライビングゲーム、ドライビング
シミュレータ等において、図25(B)に示す表示画面
(メイン画面)上にバックミラー、サイドミラー等のサ
ブ画面を形成できれば、ゲームあるいはシミュレーショ
ンのリアル性を高めることができる。
Now, in driving games, driving simulators, etc., if sub screens such as rearview mirrors and side mirrors can be formed on the display screen (main screen) shown in FIG. 25B, the realism of the game or simulation will be improved. You can

【0005】この場合、ゲーム等のリアル性をより高め
るためには、バックミラー等のサブ画面にも、メイン画
面と同様にリアルな疑似3次元画像を表示することが望
ましい。
In this case, in order to enhance the realism of the game or the like, it is desirable to display a realistic pseudo three-dimensional image on the sub-screen such as the rearview mirror as well as the main screen.

【0006】しかし、このようにサブ画面に対してもメ
イン画面と同様にリアルな疑似3次元画像を表示しよう
とすると、サブ画面を形成するための演算処理も必要に
なる。ところが、このようなシミュレータ装置には、1
フレーム内、例えば1/60秒内に画像合成のための演
算処理を完了しなければならないという制約がある。従
って、上述のようにサブ画面についても疑似3次元画像
の画像合成を行わなければならないとすると、演算処理
が間に合わなくなり、メイン画面に表示すべきデータが
欠落する等の事態が生じ、画像の品質が劣化するという
問題が生じる。
However, when it is attempted to display a realistic three-dimensional image on the sub-screen as well as the main screen, it is necessary to perform arithmetic processing for forming the sub-screen. However, in such a simulator device, 1
There is a constraint that the arithmetic processing for image composition must be completed within a frame, for example, within 1/60 seconds. Therefore, if the pseudo-three-dimensional image synthesis should be performed on the sub-screen as described above, the calculation process may not be in time, and the data to be displayed on the main screen may be lost. Is deteriorated.

【0007】[0007]

【0008】[0008]

【課題を解決するための手段】上記課題を解決するため
に本発明に係る3次元シミュレータ装置は、仮想3次元
空間を構成する複数の表示物の位置あるいは位置及び方
向を設定することで仮想3次元空間の形成演算を行う仮
想3次元空間演算手段と、表示物を構成するポリゴンに
対してテクスチャを施すための演算を行うテクスチャ演
算手段と、該テクスチャ演算手段において施されるテク
スチャの情報を記憶するテクスチャ情報記憶手段と、前
記仮想3次元空間演算手段からの演算結果に基づいて前
記仮想3次元空間における任意の視点からの視界画像を
合成する画像合成手段とを含み、前記仮想3次元空間演
算手段が、前記表示物の位置あるいは位置及び方向が同
一であり表示物を構成するポリゴンの数が異なる複数の
仮想3次元空間を形成する演算を行い、前記テクスチャ
演算手段が、前記異なる仮想3次元空間において位置あ
るいは位置及び方向が同一の前記表示物の一部又は全部
に対して前記テクスチャ情報記憶手段に記憶されるテク
スチャ情報を共通に使用する手段を含むことを特徴とす
る。
In order to solve the above-mentioned problems, a three-dimensional simulator apparatus according to the present invention sets a position of a plurality of display objects forming a virtual three-dimensional space or a position and a direction of a virtual object to display a virtual image. A virtual three-dimensional space calculating means for performing a forming operation of a three-dimensional space, a texture calculating means for performing a calculation for applying a texture to polygons forming a display object, and a texture information applied by the texture calculating means is stored. It includes a texture information storing means for, and image synthesis means for synthesizing the visual images from any viewpoint in the virtual three-dimensional space according to the result from the virtual three-dimensional space calculation means, the virtual 3-dimensional space Starring
The calculating means has the same position or the same position and direction.
And the number of polygons that make up the display object is different
The texture is calculated by performing an operation to form a virtual three-dimensional space.
The calculating means calculates the position in the different virtual three-dimensional space.
Part or all of the display object with the same position and direction
The texture stored in the texture information storage means for
It is characterized by including means for commonly using the steward information.
It

【0009】[0009]

【0010】[0010]

【0011】[0011]

【0012】[0012]

【0013】[0013]

【0014】[0014]

【0015】[0015]

【0016】[0016]

【0017】[0017]

【0018】また本発明に係る3次元シミュレータ装置
は、仮想3次元空間を構成する複数の表示物の位置ある
いは位置及び方向を設定することで仮想3次元空間の形
成演算を行う仮想3次元空間演算手段と、該仮想3次元
空間演算手段からの演算結果に基づいて前記仮想3次元
空間における任意の視点からの視界画像を合成する画像
合成手段とを含み、前記仮想3次元空間演算手段が、前
記表示物の位置あるいは位置及び方向が同一であり表示
物を構成するポリゴンの数が異なる複数の仮想3次元空
間を形成する手段を含み、前記画像合成手段が、メイン
の画面に表示する画像として、前記複数の仮想3次元空
間の中で表示物のポリゴン数が多い仮想3次元空間にお
ける視界画像を合成する手段と、1又は複数のサブの画
面に表示する画像として、表示物のポリゴン数が少ない
他の仮想3次元空間における視界画像を合成する手段と
を含むことを特徴とする。
Further, the three-dimensional simulator apparatus according to the present invention is a virtual three-dimensional space operation for forming a virtual three-dimensional space by setting the positions or positions and directions of a plurality of display objects forming the virtual three-dimensional space. Means and image synthesizing means for synthesizing a view field image from an arbitrary viewpoint in the virtual three-dimensional space based on a calculation result from the virtual three-dimensional space calculating means, wherein the virtual three-dimensional space calculating means is The image combining means includes means for forming a plurality of virtual three-dimensional spaces in which the positions or positions and directions of the display objects are the same and the number of polygons forming the display objects are different, and the image synthesizing means displays images on the main screen as A means for synthesizing a view image in a virtual three-dimensional space in which the number of polygons of a display object is large among the plurality of virtual three-dimensional spaces, and an image displayed on one or a plurality of sub screens And characterized in that it comprises a means for combining the visual image in the other virtual three-dimensional space is small number of polygons displayed objects.

【0019】本発明によれば、表示物の位置あるいは位
置及び方向が同一であり表示物を構成するポリゴンの数
が異なる複数の仮想3次元空間、例えば第1、第2の仮
想3次元空間が形成される。そして、例えば第2の仮想
3次元空間では、第1の仮想3次元空間の表示物よりも
ポリゴン数の少ない表示物が、第1の仮想3次元空間の
表示物と同一位置、同一方向(位置のみが指定される表
示物では位置のみが同一)に配置される。そして、この
場合には、表示物のポリゴン数の多い第1の仮想3次元
空間における視界画像がメイン画面に表示され、表示物
のポリゴン数の少ない第2の仮想3次元空間における視
界画像がサブ画面に表示されることになる。このように
本発明によれば、メイン画面に映し出される画像の品質
をあまり低下させることなく、サブ画面の形成において
もメイン画面の形成と同様に仮想3次元空間を形成し該
仮想3次元空間における視界画像を合成することがで
き、限られた演算処理能力の中でリアル感の高いメイン
画面とサブ画面の両方を表示できる。これにより、リア
ルタイムに高品質の画像を生成できる3次元シミュレー
タ装置を提供できる。また、例えばメイン画面上にリア
ル感溢れるバックミラー、サイドミラー、あるいは移動
体を上方から見た画像等を映し出すことが可能となる。
なお、サブ画面をバックミラー、サイドミラーに適用す
る場合には、操作者の後ろ向き方向の視界画像を求め、
この視界画像を左右反転する演算処理を行うことにな
る。
According to the present invention, a plurality of virtual three-dimensional spaces, for example, first and second virtual three-dimensional spaces, having the same position or position and direction of the display object and different numbers of polygons forming the display object are provided. It is formed. Then, for example, in the second virtual three-dimensional space, the display object having the smaller number of polygons than the display object in the first virtual three-dimensional space has the same position and direction (position) as the display object in the first virtual three-dimensional space. Only the specified position is the same for display objects that are specified only). Then, in this case, the view field image in the first virtual three-dimensional space in which the number of polygons of the display object is large is displayed on the main screen, and the view field image in the second virtual three-dimensional space in which the number of polygons of the display object is small is displayed. It will be displayed on the screen. As described above, according to the present invention, a virtual three-dimensional space is formed in the formation of the sub-screen in the same manner as the formation of the main screen without significantly deteriorating the quality of the image displayed on the main screen. The view image can be combined, and both the main screen and the sub screen, which have a high sense of realism, can be displayed with limited arithmetic processing capability. This makes it possible to provide a three-dimensional simulator device that can generate a high-quality image in real time. Further, for example, it becomes possible to display a realistic rear view mirror, a side mirror, or an image of the moving body viewed from above on the main screen.
When applying the sub-screen to the rear-view mirror and side-view mirror, the rearward view image of the operator is obtained,
This visual field image is left-right inverted.

【0020】また、本発明は、表示物を構成するポリゴ
ンに対してテクスチャを施すための演算を行うテクスチ
ャ演算手段と、該テクスチャ演算手段において施される
テクスチャの情報を記憶するテクスチャ情報記憶手段と
を含み、前記テクスチャ演算手段が、前記異なる仮想3
次元空間において位置あるいは位置及び方向が同一であ
る前記表示物の一部又は全部に対して、前記テクスチャ
情報記憶手段に記憶されるテクスチャ情報を共通に使用
する手段を含むことを特徴とする。
Further, according to the present invention, there is provided texture calculation means for performing a calculation for applying a texture to the polygons constituting the display object, and texture information storage means for storing information on the texture applied by the texture calculation means. And the texture computing means includes the different virtual 3
It is characterized in that it includes means for commonly using the texture information stored in the texture information storage means for a part or all of the display objects having the same position or the same position and direction in the dimensional space.

【0021】本発明によれば、異なる仮想3次元空間に
おける表示物の各々に対してテクスチャ情報を別に用意
する必要がなくなり、テクスチャ情報記憶手段に必要と
される記憶容量を節約できる。これにより装置の低コス
ト化を図ることができる。しかも、本発明によれば、共
通のテクスチャ情報によりサブ画面用の表示物に対して
もテクスチャマッピングが行われるため、サブ画面に表
示される画像のリアル感もメイン画面と同様に高めるこ
とができる。これにより従来にない映像効果を生み出す
ことができ、ゲームの面白味を高めることができる。な
お、本発明では、表示物の全部についてテクスチャ情報
を共通に使用する必要はなく、共通に使用することによ
りひずみ等が大きくなるものについては別のテクスチャ
情報を用意してもかまわない。
According to the present invention, it is not necessary to separately prepare texture information for each display object in different virtual three-dimensional spaces, and the storage capacity required for the texture information storage means can be saved. As a result, the cost of the device can be reduced. Moreover, according to the present invention, since the texture mapping is also performed on the display object for the sub screen by the common texture information, the realism of the image displayed on the sub screen can be enhanced similarly to the main screen. . This makes it possible to create unprecedented video effects and enhance the fun of the game. Note that, in the present invention, it is not necessary to commonly use the texture information for all the display objects, and different texture information may be prepared for those in which the distortion and the like increase due to the common use.

【0022】また本発明に係る3次元シミュレータ装置
は、仮想3次元空間を構成する複数の表示物のオブジェ
クトナンバー及び位置情報あるいはオブジェクトナンバ
ー及び位置情報及び方向情報を含む表示物情報の設定を
行うことで仮想3次元空間の形成演算を行う仮想3次元
空間演算手段と、前記オブジェクトナンバーにより指定
されるオブジェクトの画像情報を記憶する画像情報記憶
手段と、前記表示物情報と、前記画像情報記憶手段から
前記オブジェクトナンバーに基づき読み出される前記画
像情報とに基づいて、仮想3次元空間における任意の視
点からの視界画像を合成する画像合成手段とを含み、前
記仮想3次元空間演算手段が、位置情報あるいは位置情
報及び方向情報が同一で、オブジェクトナンバーが異な
る複数の表示物情報を形成する手段を含み、前記画像情
報記憶手段には、前記異なるオブジェクトナンバーによ
り指定されるオブジェクトについてはオブジェクトを構
成するポリゴンの数が異なるように前記画像情報が記憶
され、前記画像合成手段が、ポリゴン数が多いオブジェ
クトの画像情報に基づいて、メイン画面に表示される視
界画像を合成する手段と、ポリゴン数が少ないオブジェ
クトの画像情報に基づいて、1又は複数のサブ画面に表
示される視界画像を合成する手段とを含むことを特徴と
する。
Further, the three-dimensional simulator device according to the present invention sets the object number and position information of a plurality of display objects forming the virtual three-dimensional space or the display object information including the object number, position information and direction information. From the virtual three-dimensional space calculating means for performing the formation calculation of the virtual three-dimensional space, the image information storing means for storing the image information of the object designated by the object number, the display object information, and the image information storing means. Image synthesizing means for synthesizing a field-of-view image from an arbitrary viewpoint in the virtual three-dimensional space based on the image information read out based on the object number, and the virtual three-dimensional space computing means includes position information or position information. Information that has the same information and direction information but different object numbers The image information storage means stores the image information in the image information storage means so that, for objects designated by the different object numbers, the number of polygons forming the object is different, and the image composition means, Means for synthesizing the visual field image displayed on the main screen based on the image information of the object having a large number of polygons, and visual field image displayed on one or a plurality of sub-screens based on the image information of the object having a small number of polygons And means for synthesizing

【0023】本発明によれば、位置情報等が同一でオブ
ジェクトナンバーが異なる複数の表示物情報、例えば第
1、第2の表示物情報が形成される。そして、例えば第
1の表示物情報のオブジェクトナンバーにより指定され
るオブジェクトについてはポリゴン数が多いように画像
情報が形成される。一方、第2の表示物情報のオブジェ
クトナンバーにより指定されるオブジェクトについては
ポリゴン数が少ないように画像情報が形成される。そし
て、第1の表示物情報のオブジェクトナンバーにより読
み出された画像情報に基づいてメイン画面に表示される
視界画像が合成され、第2の表示物情報のオブジェクト
ナンバーにより読み出された画像情報に基づいてサブ画
面に表示される視界画像が合成される。以上により、メ
イン画面を多くのポリゴンで構成されるオブジェクトに
より表現できるとともに、サブ画面を少ないポリゴン数
で構成されるオブジェクトにより表現できることにな
る。これにより、メイン画面に映し出されるの画像の品
質をあまり低下させることなく、サブ画面形成のために
必要なポリゴン数を少なくすることができ、画像処理の
リアルタイム性を維持することができる。しかも、サブ
画面の形成も、メイン画面の形成と同様に、表示物情報
とオブジェクト画像情報とを用いて仮想3次元空間にお
ける任意の視点からの視界画像を合成することで行われ
るため、サブ画面に表示される画像のリアル感も高める
ことができる。
According to the present invention, a plurality of pieces of display object information having the same position information and different object numbers, for example, first and second display object information are formed. Then, for example, for the object designated by the object number of the first display object information, the image information is formed so that the number of polygons is large. On the other hand, for the object designated by the object number of the second display object information, the image information is formed so that the number of polygons is small. Then, the visual field image displayed on the main screen is synthesized based on the image information read by the object number of the first display object information, and the image information read by the object number of the second display object information is combined. The visual field image displayed on the sub-screen is combined based on the above. As described above, the main screen can be represented by an object composed of many polygons, and the sub screen can be represented by an object composed of a small number of polygons. As a result, the number of polygons required for forming the sub-screen can be reduced without significantly deteriorating the quality of the image displayed on the main screen, and real-time image processing can be maintained. Moreover, since the sub-screen is formed by synthesizing the field-of-view image from an arbitrary viewpoint in the virtual three-dimensional space using the display object information and the object image information, the sub-screen is formed as in the case of forming the main screen. It is possible to enhance the realism of the image displayed on.

【0024】また本発明は、前記画像情報記憶手段に
は、ポリゴン数が異なる複数のオブジェクトの画像情報
が記憶され、前記画像合成手段が、前記複数のオブジェ
クトの中から所与の選択範囲で選択されたオブジェクト
の画像情報に基づいて視界画像を合成する手段を含み、
メイン画面の視界画像を合成するための前記オブジェク
トの前記選択範囲が、サブ画面の視界画像を合成するた
めの前記オブジェクトの前記選択範囲よりもポリゴン数
の多いオブジェクトをより多く含む選択範囲となってい
ることを特徴とする。
According to the present invention, the image information storage means stores image information of a plurality of objects having different polygon numbers, and the image synthesizing means selects from the plurality of objects in a given selection range. A means for synthesizing a view image based on the image information of the object,
The selection range of the object for synthesizing the field-of-view image of the main screen is a selection range including more objects having a larger number of polygons than the selection range of the object for synthesizing the field-of-view image of the sub-screen. It is characterized by being

【0025】本発明によれば、位置情報等が共通でポリ
ゴン数が異なる複数のオブジェクトの画像情報、例えば
第1、第2、第3のオブジェクトの画像情報が用意され
る。ここでは、例えば第1のオブジェクトのポリゴン数
が最も多く、第3のオブジェクトのポリゴン数が最も少
ない。そして、メイン画面の視界画像を合成する場合に
は、第1、第2、第3のオブジェクトの画像情報に基づ
いて視界画像が合成される。一方、サブ画面の視界画像
を合成する場合には、第1、第2、第3のオブジェクト
から例えば第2、第3のオブジェクトが選択され、第
2、第3のオブジェクトの画像情報に基づいて視界画像
が合成される。これにより、例えばメイン画面において
遠距離用、中距離用、近距離用のオブジェクトを距離に
応じて使い分けるとともに、サブ画面においては中距離
用、近距離用のオブジェクトを距離に応じて使い分ける
というような処理が可能となる。これにより、サブ画面
の形成に必要なポリゴン数を、全体としてメイン画面形
成に必要なポリゴン数よりも減らすことが可能となる。
この結果、メイン画面の画像合成処理にあまり影響を与
えることなくサブ画面にリアルな画像を表示することが
可能となる。
According to the present invention, the image information of a plurality of objects having the same position information and different numbers of polygons, for example, the image information of the first, second and third objects is prepared. Here, for example, the first object has the largest number of polygons, and the third object has the smallest number of polygons. Then, when synthesizing the visual field images of the main screen, the visual field images are synthesized based on the image information of the first, second, and third objects. On the other hand, when synthesizing the view image of the sub-screen, for example, the second and third objects are selected from the first, second, and third objects, and based on the image information of the second and third objects. The view image is synthesized. With this, for example, in the main screen, objects for long distance, medium distance, and short distance are selectively used according to the distance, and in the sub screen, objects for medium distance and short distance are selectively used according to the distance. Processing becomes possible. This makes it possible to reduce the number of polygons required to form the sub screen as compared with the number of polygons required to form the main screen as a whole.
As a result, it is possible to display a realistic image on the sub screen without significantly affecting the image combining process on the main screen.

【0026】また本発明は、前記仮想3次元空間演算手
段が、表示物の一部については前記複数の表示物情報の
形成を省略する手段を含み、メイン画面に表示される表
示物の一部については、サブ画面への表示が省略される
ことを特徴とする。
Further, according to the present invention, the virtual three-dimensional space computing means includes means for omitting the formation of the plurality of display object information for a part of the display object, and a part of the display object displayed on the main screen. Is characterized in that the display on the sub-screen is omitted.

【0027】本発明によれば、例えば、メイン画面にお
いて表示されるビル等のオブジェクトが、サブ画面では
表示が省略される。サブ画面はメイン画面よりも画面サ
イズが小さくなることが通常であるため、このように一
部のオブジェクトの表示を省略しても、プレーヤ等に気
づかれることがない。一方、このように一部のオブジェ
クトについてサブ画面への表示を省略することで、サブ
画面形成に必要なポリゴン数を減らすことが可能とな
る。
According to the present invention, for example, an object such as a building displayed on the main screen is omitted from the sub screen. Since the screen size of the sub screen is usually smaller than that of the main screen, even if the display of some objects is omitted in this way, the player or the like does not notice. On the other hand, by omitting the display of some objects on the sub-screen in this way, it is possible to reduce the number of polygons required for forming the sub-screen.

【0028】また本発明は、仮想3次元空間を構成する
マップが所定数に分割され、該分割されたマップにマッ
プオブジェクトを配置することでマップの表示を行う手
段を含み、前記メイン画面に表示されるマップの分割数
が前記サブ画面に表示されるマップの分割数よりも多い
ことを特徴とする。
Further, the present invention includes means for displaying a map by dividing a map forming a virtual three-dimensional space into a predetermined number and arranging map objects on the divided map, and displaying the map on the main screen. The map is divided into a larger number of divisions than the map displayed on the sub-screen.

【0029】本発明によれば、メイン画面に対しては精
密に表現されたマップを表示することができるととも
に、サブ画面に対しては簡略化されて表現されたマップ
を表示することが可能となる。この結果、サブ画面形成
に必要なポリゴン数を減らすことができ、メイン画面の
画像合成処理にあまり影響を与えることなくサブ画面に
リアルな画像を表示することができる。
According to the present invention, a precisely expressed map can be displayed on the main screen and a simplified expressed map can be displayed on the sub screen. Become. As a result, it is possible to reduce the number of polygons required for forming the sub-screen, and it is possible to display a realistic image on the sub-screen without significantly affecting the image combining processing on the main screen.

【0030】また本発明は、オブジェクトを構成するポ
リゴンに対してテクスチャを施すための演算を行うテク
スチャ演算手段と、該テクスチャ演算手段において施さ
れるテクスチャの情報を記憶するテクスチャ情報記憶手
段とを含み、前記画像情報記憶手段には、前記テクスチ
ャ情報記憶手段において前記テクスチャ情報を指定する
ための頂点テクスチャ座標が、前記画像情報の一部とし
て記憶され、前記テクスチャ演算手段が、メイン画面に
表示するオブジェクトのポリゴンにテクスチャを施すた
めに使用する前記頂点テクスチャ座標の一部を、サブ画
面に表示するオブジェクトのポリゴンにテクスチャを施
す場合に共通に使用する手段を含むことを特徴とする。
Further, the present invention includes a texture calculation means for performing a calculation for applying a texture to the polygons forming the object, and a texture information storage means for storing the information of the texture applied by the texture calculation means. , The image information storage means stores vertex texture coordinates for designating the texture information in the texture information storage means as a part of the image information, and the texture calculation means displays an object displayed on the main screen. It is characterized in that it includes means for commonly using a part of the vertex texture coordinates used for applying the texture to the polygon of the above when applying the texture to the polygon of the object displayed on the sub-screen.

【0031】本発明によれば、メイン画面用とサブ画面
用とで、テクスチャ情報を別に用意する必要がなくな
り、テクスチャ情報記憶手段に必要とされる記憶容量を
節約できる。これにより装置の低コスト化を図ることが
できる。しかも、本発明によれば、サブ画面用の表示物
に対してもテクスチャマッピングが行われるため、サブ
画面に表示される画像のリアル性もメイン画面と同様に
高めることができる。なお、本発明によれば、頂点テク
スチャ座標のみならず頂点輝度情報についても共通に使
用することが可能である。
According to the present invention, it is not necessary to separately prepare texture information for the main screen and the sub screen, and the storage capacity required for the texture information storage means can be saved. As a result, the cost of the device can be reduced. Moreover, according to the present invention, since the texture mapping is performed also on the display object for the sub screen, the realism of the image displayed on the sub screen can be enhanced as in the case of the main screen. According to the present invention, not only vertex texture coordinates but also vertex luminance information can be commonly used.

【0032】[0032]

【発明の実施の形態】1.ゲームの概要 まず、本3次元シミュレータ装置で実現される3次元ゲ
ームの一例について簡単に説明する。
BEST MODE FOR CARRYING OUT THE INVENTION 1. Outline of Game First, an example of a three-dimensional game realized by the present three-dimensional simulator device will be briefly described.

【0033】本3次元シミュレータ装置により実現され
る3次元ゲームは、移動体、例えばプレーヤレーシング
カーにてマップ上に形成されたコース上を走行し、他の
プレーヤ操作する相手レーシングカー、コンピュータが
操作するコンピュータカーと順位を競い合うレーシング
カーゲームである。図2には、本3次元シミュレータ装
置の外観図の一例が示される。同図に示すようにこの3
次元シミュレータ装置は、実際のレーシングカーの運転
席と同様に形成されている。そして、プレーヤは、シー
ト18に着座し、CRT(ディスプレイ)10に映し出
されたゲーム画面(レーシングカーの運転席から見える
風景の疑似3次元画像)を見ながら、操作部12に設け
られたハンドル14、アクセル15、シフトレバー16
等を操作して架空のレーシングカーを運転してゲームを
行う。
A three-dimensional game realized by the present three-dimensional simulator device runs on a course formed on a map by a moving body such as a player racing car, and is operated by an opponent racing car or a computer operated by another player. It is a racing car game in which you compete with a computer car for ranking. FIG. 2 shows an example of an external view of the present three-dimensional simulator device. This 3
The dimensional simulator device is formed similarly to the driver's seat of an actual racing car. Then, the player sits on the seat 18 and looks at the game screen (pseudo three-dimensional image of the scenery seen from the driver's seat of the racing car) displayed on the CRT (display) 10 while operating the steering wheel 14 provided on the operation unit 12. , Accelerator 15, shift lever 16
Play a game by driving a fictitious racing car by operating the etc.

【0034】図3には、本3次元ゲームにおける仮想3
次元空間の一例が示される。このように、本3次元ゲー
ムにおける仮想3次元空間には、3次元的に形成された
コース20が配置されている。そして、コース20の周
辺には、ビル60、トンネル62、山64、崖66、壁
68等の3次元オブジェクトが配置されている。プレー
ヤはこれらのコース等が映し出されたCRT10を見な
がらレーシングカーを操作する。そして、スタートポイ
ント70からスタートして、コース20を周回し、所定
回数コースを周回するとゴールとなり、プレーヤの順位
が決定される。
FIG. 3 shows a virtual 3 in this three-dimensional game.
An example of a dimensional space is shown. In this way, the three-dimensionally formed courses 20 are arranged in the virtual three-dimensional space in this three-dimensional game. Then, around the course 20, three-dimensional objects such as buildings 60, tunnels 62, mountains 64, cliffs 66, and walls 68 are arranged. The player operates the racing car while watching the CRT 10 showing these courses and the like. Then, starting from the start point 70, orbiting the course 20 and orbiting the course a predetermined number of times, the goal is reached, and the player's ranking is determined.

【0035】図4には、本3次元ゲームにおいてCRT
10上に映し出されるゲーム画面の一例が示される。図
4に示すようにメイン画面1には例えば相手レーシング
カー52が映し出されており、プレーヤはメイン画面1
を見ながら、この相手レーシングカー52と競争を行う
ことになる。図4に示すように、メイン画面1には、相
手レーシングカー52の他に、路面21、トンネルの壁
22等が映し出されている。そして、メイン画面1上に
は、更にバックミラー(サブ画面)2が表示されてお
り、このバックミラー2を見ることによりプレーヤは、
コンピュータ−カー54が後ろから追いかけてくるとい
うことを認識できる。これにより、ゲームの臨場感、面
白味を非常に高めることができる。更に、バックミラー
2には、メイン画面と同様に路面23、壁24が映し出
されている。そして、バックミラー2に映る路面23に
は、メイン画面1の路面21と同様に、アスファルト状
の模様が施されており、また、センターライン26等も
描かれている。このように、本3次元ゲームによれば、
バックミラー2に映る画像もメイン画面1と同様にリア
リティに溢れるものとなる。一方、図4に示すように、
メイン画面1上の相手レーシングカー52については、
テールランプ等が詳細に描かれており、また、相手レー
シングカー52の形も実写に近いように精密に描かれて
いる。これに対して、バックミラー2に映るコンピュー
ターカー54は、相手レーシングカー52に比べると、
より簡略化されて描かれている。
FIG. 4 shows a CRT in this three-dimensional game.
An example of the game screen displayed on 10 is shown. As shown in FIG. 4, for example, the opponent racing car 52 is displayed on the main screen 1, and the player is on the main screen 1.
While watching, you will compete with this opponent racing car 52. As shown in FIG. 4, in addition to the opponent racing car 52, the road surface 21, the wall 22 of the tunnel, and the like are displayed on the main screen 1. Then, a rear-view mirror (sub-screen) 2 is further displayed on the main screen 1, and by looking at this rear-view mirror 2, the player can
It can be recognized that the computer car 54 is chasing from behind. As a result, it is possible to greatly enhance the realism and interest of the game. Further, the road surface 23 and the wall 24 are projected on the rear-view mirror 2 as in the case of the main screen. As with the road surface 21 of the main screen 1, an asphalt-like pattern is applied to the road surface 23 reflected on the rearview mirror 2, and a center line 26 and the like are also drawn. Thus, according to this 3D game,
The image displayed on the rear-view mirror 2 is as realistic as the main screen 1. On the other hand, as shown in FIG.
For the opponent racing car 52 on the main screen 1,
Tail lamps and the like are drawn in detail, and the shape of the opponent racing car 52 is also drawn precisely so as to be close to a live-action image. On the other hand, the computer car 54 reflected in the rearview mirror 2 is
It is drawn in a more simplified form.

【0036】本実施例では、後述するように、メイン画
面1を描くための仮想3次元空間と、バックミラー(サ
ブ画面)2を描くための仮想3次元空間とを別に用意
し、これにより、図4に示すようにバックミラー2にも
メイン画面1と同様にリアル感のある映像を映し出すこ
とに成功している。一方、バックミラー2はメイン画面
1に比べ表示範囲が小さく、ある程度表示物の精密度を
下げてもプレーヤに気づかれることはない。そこで、バ
ックミラー2における表示物を構成するポリゴンについ
ては、メイン画面1における表示物よりもポリゴン数を
減らしている。これにより、リアル感をある程度維持し
ながらも、演算処理を行わなければならないポリゴンの
総数を減らすことが可能となり、例えばメイン画面1の
映像データが欠落する等の事態が生じるのを有効に防止
している。
In the present embodiment, as will be described later, a virtual three-dimensional space for drawing the main screen 1 and a virtual three-dimensional space for drawing the rearview mirror (sub-screen) 2 are separately prepared, whereby As shown in FIG. 4, it has succeeded in projecting a realistic image on the rearview mirror 2 as well as the main screen 1. On the other hand, the rearview mirror 2 has a display range smaller than that of the main screen 1, and is not noticed by the player even if the precision of the display object is lowered to some extent. Therefore, the number of polygons forming the display object on the rearview mirror 2 is smaller than that on the main screen 1. As a result, it is possible to reduce the total number of polygons that need to be calculated while maintaining a sense of realism, and effectively prevent a situation in which video data on the main screen 1 is lost, for example. ing.

【0037】なお、以上の説明は、1人あるいは2人の
プレーヤによるゲームの場合についいて述べたが、本発
明はこれに限らず、3人以上のマルチプレーヤ型のゲー
ムにも当然適用できる。
It should be noted that although the above description has been made with reference to the case of a game by one or two players, the present invention is not limited to this and can naturally be applied to a multi-player type game of three or more players.

【0038】2.装置全体の説明 図1には、本発明に係る3次元シミュレータ装置の実施
例のブロック図が示される。
2. Description of Entire Device FIG. 1 shows a block diagram of an embodiment of a three-dimensional simulator device according to the present invention.

【0039】図1に示すように、本3次元シミュレータ
装置は、プレーヤが操作信号を入力する操作部12、所
定のゲームプログラムにより仮想3次元空間設定のため
の演算を行う仮想3次元空間演算部100、プレーヤの
視点位置における疑似3次元画像を形成する画像合成部
200、及びこの疑似3次元画像を画像出力するCRT
(ディスプレイ)10を含んでいる。
As shown in FIG. 1, the present three-dimensional simulator apparatus has an operation unit 12 for a player to input an operation signal, and a virtual three-dimensional space operation unit for performing an operation for setting a virtual three-dimensional space by a predetermined game program. 100, an image composition unit 200 that forms a pseudo three-dimensional image at the player's viewpoint position, and a CRT that outputs the pseudo three-dimensional image
(Display) 10 is included.

【0040】操作部12には、例えば本3次元シミュレ
ータ装置をレーシングカーゲームに適用した場合には、
レーシングカーを運転するためのハンドル14、アクセ
ル15等が接続され、これにより操作信号が入力され
る。
For example, when the present three-dimensional simulator device is applied to a racing car game,
A steering wheel 14, an accelerator 15, etc. for driving a racing car are connected, and an operation signal is input thereby.

【0041】仮想3次元空間演算部100では、図3に
示す仮想3次元空間における複数の表示物、例えばコー
ス20、ビル60、トンネル62、山64、壁66〜6
8、プレーヤレーシングカー、相手レーシングカー、コ
ンピューターカー等の位置あるいは位置及び方向を設定
する演算が行われる。この演算は、操作部12からの操
作信号やあらかじめ設定記憶されているマップ情報等に
基づいて行われる。
In the virtual three-dimensional space calculation unit 100, a plurality of display objects in the virtual three-dimensional space shown in FIG. 3, such as the course 20, the building 60, the tunnel 62, the mountain 64, and the walls 66 to 6 are displayed.
8. Calculation for setting the position or position and direction of the player racing car, opponent racing car, computer car, etc. is performed. This calculation is performed based on an operation signal from the operation unit 12, map information set and stored in advance, and the like.

【0042】そして、画像合成部200では、仮想3次
元空間演算部100からの演算結果に基づいて仮想3次
元空間における任意の視点からの視界画像を合成する演
算が行われる。そして、合成された視界画像はCRT1
0より出力される。
Then, the image synthesizing unit 200 performs a computation for synthesizing a view image from an arbitrary viewpoint in the virtual three-dimensional space based on the computation result from the virtual three-dimensional space computing unit 100. Then, the synthesized view image is CRT1.
It is output from 0.

【0043】さて、本実施例では、仮想3次元空間演算
部100の演算により、表示物の位置あるいは位置及び
方向が同一であり表示物を構成するポリゴンの数が異な
る第1、第2の仮想3次元空間が形成される。即ち、図
3に示すような仮想3次元空間が2つ用意される。但
し、この2つの仮想3次元空間の間では表示物を構成す
るポリゴン数が異なっており、第1の仮想3次元空間に
おける表示物のポリゴン数の方が多くなるように設定さ
れる。そして、画像合成部200では、メインの画面に
表示される画像として第1の仮想3次元空間における視
界画像が合成される。一方、サブの画面に表示される画
像として第2の仮想3次元空間における視界画像が合成
されることになる。これにより、図4に示すようなゲー
ム画面を形成することが可能となる。なお、サブ画面を
バックミラー2として使用する場合には以下のようにな
る。即ち第1の仮想3次元空間では、視点位置がプレー
ヤカーの位置で視線方向を前向きとした場合の視界画像
が形成される。これに対して、第2の仮想3次元空間で
は、視線方向を後ろ向きとした場合の視界画像が形成さ
れる。そして、第2の仮想3次元空間において演算され
た視界画像は左右反転され、バックミラー2に映し出さ
れる。
In the present embodiment, the virtual three-dimensional space calculation unit 100 performs the calculations to obtain the first and second virtual images in which the positions or positions and directions of the display objects are the same and the number of polygons forming the display objects is different. A three-dimensional space is formed. That is, two virtual three-dimensional spaces as shown in FIG. 3 are prepared. However, the number of polygons forming the display object is different between the two virtual three-dimensional spaces, and the number of polygons of the display object in the first virtual three-dimensional space is set to be larger. Then, in the image synthesizing unit 200, the view image in the first virtual three-dimensional space is synthesized as an image displayed on the main screen. On the other hand, the visual field image in the second virtual three-dimensional space is combined as the image displayed on the sub screen. This makes it possible to form a game screen as shown in FIG. Note that when the sub screen is used as the rearview mirror 2, it is as follows. That is, in the first virtual three-dimensional space, a view field image is formed when the viewpoint position is the position of the player car and the line-of-sight direction is forward. On the other hand, in the second virtual three-dimensional space, a field-of-view image is formed when the line-of-sight direction is backward. Then, the visual field image calculated in the second virtual three-dimensional space is laterally inverted and displayed on the rearview mirror 2.

【0044】次に、仮想3次元空間演算部100、画像
合成部200の具体的構成について説明する。図5に
は、仮想3次元空間演算部100のブロック図の一例が
示され、図15、図18には画像合成部200内の画像
供給部210、画像形成部228のブロック図の一例が
示される。
Next, the specific configurations of the virtual three-dimensional space computing unit 100 and the image synthesizing unit 200 will be described. FIG. 5 shows an example of a block diagram of the virtual three-dimensional space calculation unit 100, and FIGS. 15 and 18 show examples of block diagrams of the image supply unit 210 and the image forming unit 228 in the image combining unit 200. Be done.

【0045】3.仮想3次元空間演算部についての説明 図5に示すように、仮想3次元空間演算部100は、処
理部102、仮想3次元空間設定部104、移動情報演
算部106、表示物情報記憶部(オブジェクト情報記憶
部)108を含んでいる。
3. Description of Virtual Three-Dimensional Space Operation Unit As shown in FIG. 5, the virtual three-dimensional space operation unit 100 includes a processing unit 102, a virtual three-dimensional space setting unit 104, a movement information operation unit 106, a display object information storage unit (object). The information storage unit) 108 is included.

【0046】ここで、処理部102では、3次元シミュ
レータ装置全体の制御が行われる。また、処理部102
内に設けられた記憶部には、所定のゲームプログラムが
記憶されている。仮想3次元空間演算部100は、この
ゲームプログラム及び操作部12からの操作信号にした
がって仮想3次元空間設定の演算を行うことになる。
Here, the processing unit 102 controls the entire three-dimensional simulator apparatus. In addition, the processing unit 102
A predetermined game program is stored in the storage unit provided inside. The virtual three-dimensional space calculation unit 100 calculates the virtual three-dimensional space according to the game program and the operation signal from the operation unit 12.

【0047】移動情報演算部106では、操作部12か
らの操作信号及び処理部102からの指示等にしたがっ
て、レーシングカーの移動情報が演算される。
The movement information calculation unit 106 calculates the movement information of the racing car according to the operation signal from the operation unit 12, the instruction from the processing unit 102, and the like.

【0048】表示物情報記憶部108には、仮想3次元
空間を構成する表示物の位置情報・方向情報及びこの位
置に表示すべきオブジェクトのオブジェクトナンバーが
記憶されている(以下、この記憶された位置情報・方向
情報及びオブジェクトナンバーを表示物情報(オブジェ
クト情報)と呼ぶ)。図6には、表示物情報記憶部10
8に記憶される表示物情報の一例が示される。また、図
7には、これらの表示物情報に含まれる位置情報、方向
情報(Xm、Ym、Zm、θm、φm、ρm)と絶対座
標系(Xw、Yw、Zw)の関係が示される。
The display object information storage unit 108 stores the position information / direction information of the display object forming the virtual three-dimensional space and the object number of the object to be displayed at this position (hereinafter, this stored information). The position information / direction information and the object number are referred to as display object information (object information)). In FIG. 6, the display object information storage unit 10 is shown.
An example of the display object information stored in 8 is shown. Further, FIG. 7 shows the relationship between the position information and direction information (Xm, Ym, Zm, θm, φm, ρm) included in these display object information and the absolute coordinate system (Xw, Yw, Zw).

【0049】ここで、オブジェクトにはレーシングカー
等を表現する移動体オブジェクト、及び、コース等を表
現するマップオブジェクトがあり、これらのオブジェク
トは図7に示すように多角形のポリゴンの集合で表現さ
れている。
Here, the object includes a moving object representing a racing car and the like, and a map object representing a course and the like, and these objects are represented by a set of polygonal polygons as shown in FIG. ing.

【0050】表示物情報記憶部108に記憶されている
表示物情報は、仮想3次元空間設定部104により読み
出される。この場合、表示物情報記憶部108には、当
該フレームの1つ前のフレームにおける表示物情報が記
憶されている。そして、仮想3次元空間設定部104で
は、読み出された表示物情報と、移動情報演算部106
で演算された移動情報とに基づいて、当該フレームにお
ける表示物情報(位置情報、方向情報)が求められる。
The display object information stored in the display object information storage unit 108 is read by the virtual three-dimensional space setting unit 104. In this case, the display object information storage unit 108 stores the display object information in the frame immediately preceding the frame. Then, in the virtual three-dimensional space setting unit 104, the read display object information and the movement information calculation unit 106.
The display object information (position information, direction information) in the frame is obtained based on the movement information calculated in.

【0051】このようにして、仮想3次元空間設定部1
04では、当該フレームにおける仮想3次元空間を構成
する全ての表示物の表示物情報が設定されることにな
る。
In this way, the virtual three-dimensional space setting unit 1
In 04, the display object information of all the display objects forming the virtual three-dimensional space in the frame is set.

【0052】なお、上記のように表示物情報がゲーム進
行に伴い1フレーム毎に更新されるのは、表示物がレー
シングカー等の移動体である場合であり、マップの表示
物情報は通常は固定値となる。但し、宇宙ゲームにおけ
る隕石等を表すマップでは、ゲーム進行に伴い回転情報
等を変化させてもよい。また、マップによっては、位置
情報は有するが方向情報は有しないようなものも考えら
れる。また、後述するようにマップを複数の分割マップ
に分割し、この分割マップにマップオブジェクトを設定
するような構成とする場合には、図5に示すように仮想
3次元空間設定部104内にマップ設定部110を設
け、このマップ設定部110によりマップ設定を行うこ
とになる。
The display object information is updated frame by frame as the game progresses as described above when the display object is a moving body such as a racing car, and the display object information on the map is usually It is a fixed value. However, in the map showing meteorites and the like in the space game, the rotation information and the like may be changed as the game progresses. Further, some maps may have position information but not direction information. Further, when the map is divided into a plurality of divided maps and a map object is set in this divided map as described later, the map is stored in the virtual three-dimensional space setting unit 104 as shown in FIG. The setting unit 110 is provided, and the map setting unit 110 sets the map.

【0053】さて、本実施例では、仮想3次元空間設定
部104が所定の演算処理を行うことにより、図6に示
す表示物情報から、位置情報及び方向情報が同一(方向
情報を有しない表示物情報では位置情報が同一)であ
り、オブジェクトナンバーが異なる表示物情報を複数形
成している。具体的には、仮想3次元空間設定部104
が表示物情報記憶部108に記憶された図6に示す表示
物情報を読み出し、オブジェクトナンバーのみを変更す
ることで複数の表示物情報を形成している。そして、こ
の形成された複数の表示物情報を、画像合成部200に
出力している。
In the present embodiment, the virtual three-dimensional space setting unit 104 performs a predetermined calculation process so that the position information and the direction information are the same (display without direction information) from the display object information shown in FIG. In the object information, the positional information is the same), and a plurality of pieces of display object information having different object numbers are formed. Specifically, the virtual three-dimensional space setting unit 104
6 reads the display object information shown in FIG. 6 stored in the display object information storage unit 108 and changes only the object number to form a plurality of display object information. Then, the plurality of pieces of display object information thus formed are output to the image combining unit 200.

【0054】図8(A)、(B)には、このようにして
形成された複数の表示物情報の一例が示される。図8
(A)に示す表示物情報は、図6に示す表示物情報と同
一のものである。これに対して、図8(B)に示す表示
物情報は、図8(A)に示す表示物情報とオブジェクト
ナンバーのみが異なっている。例えば、図8(A)のO
B0と、図8(B)のOBi+1とでは、位置情報、方向情
報(X0、Y0、Z0、θ0、φ0、ρ0)が同一となってい
るが、オブジェクトナンバーが異なっている。このよう
に位置情報及び方向情報が同一でありオブジェクトナン
バーが異なる表示物情報を形成することで、図9に示す
ようなポリゴン数の異なるレーシングカー48A、48
B、48Cを表現することが可能となる。即ち、レーシ
ングカー48A、48B、48Cでは、位置情報、方向
情報は同一となっているが、オブジェクトナンバーはO
Bi、OBj、OBkと異なっている。レーシングカー
48A、48B、48Cのオブジェクト画像情報(オブ
ジェクト画像情報によりポリゴン数、ポリゴン情報等が
表される)は、図5において表示物情報記憶部212に
格納されており、オブジェクトナンバーを指定すること
により、これらのオブジェクト画像情報を読み出すこと
ができる。従って、異なるオブジェクトナンバーを指定
することで、図9に示すようなポリゴン数の異なるレー
シングカー48A、48B、48Cを読み出すことがで
きるわけである。そして、これらのレーシングカー48
A、48B、48Cは、第1、第2の仮想3次元空間に
おいて同一位置、同一方向で配置される。このように、
仮想3次元空間を構成するオブジェクトをポリゴン数を
異ならせて同一位置、同一方向で配置することで、表示
物のポリゴン数が異なる2つの仮想3次元空間を表現す
ることが可能となる。
FIGS. 8A and 8B show an example of a plurality of pieces of display object information thus formed. Figure 8
The display object information shown in (A) is the same as the display object information shown in FIG. On the other hand, the display object information shown in FIG. 8B differs from the display object information shown in FIG. 8A only in the object number. For example, O in FIG.
B0 and OBi + 1 in FIG. 8B have the same position information and direction information (X0, Y0, Z0, θ0, φ0, ρ0), but different object numbers. By thus forming the display object information having the same position information and direction information and different object numbers, the racing cars 48A, 48 having different polygon numbers as shown in FIG.
It becomes possible to express B and 48C. That is, the position information and the direction information are the same in the racing cars 48A, 48B, and 48C, but the object number is O.
It is different from Bi, OBj, and OBk. Object image information of the racing cars 48A, 48B, and 48C (the number of polygons, polygon information, and the like are represented by the object image information) is stored in the display object information storage unit 212 in FIG. 5, and the object number must be designated. Thus, the object image information can be read out. Therefore, by designating different object numbers, it is possible to read racing cars 48A, 48B and 48C having different polygon numbers as shown in FIG. And these racing cars 48
A, 48B, and 48C are arranged at the same position and in the same direction in the first and second virtual three-dimensional spaces. in this way,
By arranging the objects forming the virtual three-dimensional space at the same position and in the same direction with different polygon numbers, it is possible to represent two virtual three-dimensional spaces with different polygon numbers of the display object.

【0055】図10、図11には、ポリゴン数の異なる
コースオブジェクト30A、30B(マップオブジェク
ト)が示される。コースオブジェクト30Aは、多くの
ポリゴンにより精密に描かれている。これに対して、コ
ースオブジェクト30Bは、少ないポリゴンにより簡略
化されて描かれている。図3に示すコース20は、この
ようなコースオブジェクトを並べることで構成される。
そして、本実施例では、ポリゴン数の多いコースオブジ
ェクトで構成されたコースと、ポリゴン数の少ないコー
スオブジェクトで構成されたコースとが2つ用意される
ことになる。この場合も、上記のレーシングカーの場合
と同様に、図6に示す表示物情報の中のオブジェクトナ
ンバーのみを変更することにより、コース(マップ)に
関する複数の表示物情報が形成されることになる。
10 and 11 show course objects 30A and 30B (map objects) having different polygon numbers. The course object 30A is accurately drawn by many polygons. On the other hand, the course object 30B is simplified and drawn with a small number of polygons. The course 20 shown in FIG. 3 is configured by arranging such course objects.
Then, in this embodiment, two courses, which are composed of course objects having a large number of polygons and two courses which are composed of course objects having a small number of polygons, are prepared. Also in this case, as in the case of the above-mentioned racing car, by changing only the object number in the display object information shown in FIG. 6, a plurality of display object information regarding the course (map) is formed. .

【0056】以上のようにして、ポリゴン数の異なるオ
ブジェクトを同一位置、同一方向に配置できる複数の表
示物情報を形成することで、2つの仮想3次元空間を表
現することが可能となる。そして、ポリゴン数の多いオ
ブジェクトで構成される第1の仮想3次元空間での視界
画像はメイン画面へと表示され、ポリゴン数の少ないオ
ブジェクトで構成される第2の仮想3次元空間での表示
画像はサブ画面へと表示される。これにより、サブ画面
を形成するのに必要とされるポリゴン数を減らすことが
できる。
As described above, two virtual three-dimensional spaces can be represented by forming a plurality of pieces of display object information in which objects having different polygon numbers can be arranged at the same position and in the same direction. Then, the view image in the first virtual three-dimensional space composed of objects having a large number of polygons is displayed on the main screen, and the display image in the second virtual three-dimensional space composed of objects having a small number of polygons. Is displayed on the sub-screen. As a result, the number of polygons required to form the sub screen can be reduced.

【0057】なお、仮想3次元空間演算部100から画
像合成部200に複数の表示物情報を出力する際には、
プレーヤの視点位置、視線方向により決定される所定範
囲に配置されるオブジェクトの表示物情報のみを出力す
ることが望ましい。例えば、プレーヤの視点位置から遠
く離れプレーヤから見ることができない移動体オブジェ
クト、マップオブジェクトについては画像合成処理を行
う必要がない。従って、当該オブジェクトの表示物情報
については画像合成部200への出力を省略することが
望ましい。また、例えば、メイン画面に表示するオブジ
ェクトについては、プレーヤの正面方向の一定範囲にあ
るオブジェクトの表示物情報のみを出力するようにす
る。一方、サブ画面に表示するオブジェクトについて
は、プレーヤの後方方向の一定範囲にあるオブジェクト
の表示物情報のみを出力するようにする。これにより、
画像合成部200における演算処理を軽減することが可
能となる。
When outputting a plurality of display object information from the virtual three-dimensional space computing section 100 to the image synthesizing section 200,
It is desirable to output only the display object information of the objects arranged in the predetermined range determined by the viewpoint position and the line-of-sight direction of the player. For example, it is not necessary to perform image composition processing on a moving object or a map object that is far from the player's viewpoint position and cannot be seen by the player. Therefore, it is desirable to omit the output of the display object information of the object to the image combining unit 200. Further, for example, regarding the objects displayed on the main screen, only the display object information of the objects within a certain range in the front direction of the player is output. On the other hand, regarding the objects displayed on the sub-screen, only the display object information of the objects within a certain range in the backward direction of the player is output. This allows
It is possible to reduce the calculation processing in the image composition unit 200.

【0058】さて、メイン画面、サブ画面の形成に必要
とされるポリゴン数を減らすためには、更に、以下の手
法を用いることもできる。
By the way, in order to reduce the number of polygons required for forming the main screen and the sub screen, the following method can be further used.

【0059】例えば、図9に示すレーシングカー48
A、48B、48Cを、第1の仮想3次元空間において
は、各々、近距離用、中距離用、遠距離用のレーシング
カーとして用いる。即ち、プレーヤーカーとレーシング
カーとの距離が近い場合には、近距離用のレーシングカ
ー48Aをメイン画面上に表示し、プレーヤカーとの距
離が中ぐらいの場合、遠い場合には、各々、中距離用、
遠距離用のレーシングカー48B、48Cをメイン画面
上に表示する。これにより、メイン画面を形成するため
のポリゴン数を表示画像のリアル感を失わせることなく
減らすことができる。そして、第2の仮想3次元空間に
おいては、近距離用のレーシングカーとしてレーシング
カー48Bを用い、遠距離用のレーシングカーとしてレ
ーシングカー48Cを用い、プレーヤカーとの距離に応
じて使い分ける。これにより、サブ画面を形成するのに
必要なポリゴン数を、メイン画面を形成するのに必要な
ポリゴン数よりも少なくすることが可能となる。そし
て、サブ画面内でも近距離用、遠距離用のレーシングカ
ーを使い分けることにより、サブ画面形成に必要なポリ
ゴン数を更に減らすことが可能となる。
For example, a racing car 48 shown in FIG.
In the first virtual three-dimensional space, A, 48B, and 48C are used as short-distance, medium-distance, and long-distance racing cars, respectively. That is, when the distance between the player car and the racing car is short, the short-distance racing car 48A is displayed on the main screen, and when the distance between the player car and the player car is medium or far, the distance is medium. For distance,
Display the long distance racing cars 48B and 48C on the main screen. As a result, the number of polygons for forming the main screen can be reduced without losing the realism of the displayed image. Then, in the second virtual three-dimensional space, a racing car 48B is used as a short-distance racing car, and a racing car 48C is used as a long-distance racing car, which is used depending on the distance to the player car. This makes it possible to reduce the number of polygons required to form the sub-screen to be smaller than the number of polygons required to form the main screen. Then, by properly using the short distance and long distance racing cars even in the sub screen, it is possible to further reduce the number of polygons required for forming the sub screen.

【0060】また、例えば、第1の仮想3次元空間では
図3におけるビル60を配置させる一方、第2の仮想3
次元空間ではビル60の配置を省略するという手法を用
いることもできる。具体的には、図6、図8において、
第2の仮想3次元空間用のビル60については表示物情
報を形成しない。これにより、サブ画面形成に必要なポ
リゴン数を更に減らすことが可能となる。
Further, for example, in the first virtual three-dimensional space, the building 60 in FIG. 3 is arranged, while the second virtual three-dimensional space is arranged.
In the dimensional space, it is also possible to use a method of omitting the building 60. Specifically, in FIG. 6 and FIG.
Display object information is not formed for the building 60 for the second virtual three-dimensional space. This makes it possible to further reduce the number of polygons required to form the sub screen.

【0061】また、例えば図12に示すように、仮想3
次元空間を形成するマップを所定数のマップブロックに
分割し、これらのマップブロックにマップオブジェクト
を配置することでマップを表現する場合には、以下のよ
うな手法を用いることができる。即ち、この場合には、
例えば、図13において、ポリゴン数の多い山40aを
第1の仮想3次元空間に配置する。そして、ポリゴン数
の少ない山40b、40cを第2、第3の仮想3次元空
間に配置する。これにより、サブ画面形成に必要なポリ
ゴン数を減らすことができる。
Further, for example, as shown in FIG.
When a map forming a dimensional space is divided into a predetermined number of map blocks and map objects are arranged in these map blocks to represent the map, the following method can be used. That is, in this case,
For example, in FIG. 13, a mountain 40a having a large number of polygons is arranged in the first virtual three-dimensional space. Then, the mountains 40b and 40c having a small number of polygons are arranged in the second and third virtual three-dimensional spaces. As a result, the number of polygons required to form the sub screen can be reduced.

【0062】また、図14に示すように、分割数の異な
る第1、第2、第3のマップブロック31、32、33
を用意する。そして、第1のマップブロック31を、第
1の仮想3次元空間のマップ分割のために用いる。そし
て、第2のマップブロック32、あるいは、第3のマッ
プブロック33を第2の仮想3次元空間のマップ分割の
ために用いる。このようにして、各ブロックに配置され
るマップオブジェクトのポリゴン数が同一程度になるよ
うにマップオブジェクトを形成すれば、マップを構成す
るのに必要なポリゴンの総数を第1の仮想3次元空間よ
りも第2の仮想3次元空間の方が少なくなるように設定
できる。これにより、サブ画面形成に必要なポリゴン数
を減らすことができる。そして、このように分割数の異
なるマップブロックを使い分ける手法は、例えば戦闘機
ゲーム、フライトシミュレータ等のように、仮想3次元
空間上のマップのほとんどがプレーヤから見ることがで
きるような場合に特に有効である。
Further, as shown in FIG. 14, first, second and third map blocks 31, 32 and 33 having different numbers of divisions.
To prepare. Then, the first map block 31 is used for map division of the first virtual three-dimensional space. Then, the second map block 32 or the third map block 33 is used for map division of the second virtual three-dimensional space. In this way, if the map objects are formed so that the number of polygons of the map objects arranged in each block is about the same, the total number of polygons required to form the map is calculated from the first virtual three-dimensional space. Can also be set so that the second virtual three-dimensional space is smaller. As a result, the number of polygons required to form the sub screen can be reduced. The method of using map blocks having different numbers of divisions in this way is particularly effective when most of the maps in the virtual three-dimensional space can be seen by the player, such as in a fighter game and a flight simulator. Is.

【0063】なお、この場合、上述の遠距離用、中距離
用、短距離用のレーシングカーの場合と同様に、第1の
仮想3次元空間においては自機と分割マップとの距離に
応じて第1、第2、第3のマップブロックを使い分け、
第2の仮想3次元空間においては、上記距離に応じて第
2、第3のマップブロック数を使い分けるような手法を
採用することもできる。このようにすれば、サブ画面の
みならずメイン画面のポリゴン数も減らすことができ
る。
In this case, as in the case of the long-distance, medium-distance, and short-distance racing cars described above, in the first virtual three-dimensional space, according to the distance between the player and the division map. Use the first, second and third map blocks properly,
In the second virtual three-dimensional space, it is also possible to adopt a method of properly using the second and third map block numbers according to the distance. In this way, the number of polygons on the main screen as well as the sub screen can be reduced.

【0064】また、以上に説明した、マップを所定数の
ブロックに分割してマップオブジェクトを配置する演算
は、例えばマップ設定部110により行われる。
The operation for dividing the map into a predetermined number of blocks and arranging the map objects as described above is performed by the map setting unit 110, for example.

【0065】4.画像供給部についての説明 画像供給部210は、図15に示すように、オブジェク
ト画像情報記憶部212、処理部215、座標変換部2
18、クリッピング処理部220、ポリゴンデータ変換
部224、ソーティング処理部226を含んでいる。ま
た、クリッピング処理部220は、透視投影変換部22
2を含んでいる。
4. Description of Image Supply Unit As shown in FIG. 15, the image supply unit 210 includes an object image information storage unit 212, a processing unit 215, and a coordinate conversion unit 2.
18, a clipping processing unit 220, a polygon data conversion unit 224, and a sorting processing unit 226. In addition, the clipping processing unit 220 uses the perspective projection conversion unit 22.
Includes 2.

【0066】画像供給部210では、仮想3次元空間演
算部100により設定された仮想3次元空間の設定情報
にしたがって、各種の座標変換処理、3次元演算処理が
行われる。
The image supply section 210 performs various coordinate conversion processing and three-dimensional calculation processing according to the virtual three-dimensional space setting information set by the virtual three-dimensional space calculation section 100.

【0067】即ち、まず、図16に示すように、レーシ
ングカー、コース等を表すオブジェクト300、33
3、334について、それを構成するポリゴンを絶対座
標(ワールド座標)系(XW、YW、ZW)で表現される
仮想3次元空間上に配置するための演算処理が行われ
る。次に、これらの各オブジェクトについて、それを構
成するポリゴンをプレーヤ302の視点を基準とした視
点座標系(Xv、Yv、Zv)へ座標変換する処理が行
われる。その後、いわゆるクリッピング処理が行われ、
次に、スクリーン座標系(XS、YS)への透視投影変換
処理が行われる。次に、出力フォーマットの変換が行わ
れ、最後に、ソーティング処理が行われる。
That is, first, as shown in FIG. 16, objects 300, 33 representing a racing car, a course, etc.
For 3, 334, arithmetic processing for arranging the polygons forming the polygons in a virtual three-dimensional space represented by an absolute coordinate (world coordinate) system (XW, YW, ZW) is performed. Next, for each of these objects, a process of converting the polygons forming the object into a viewpoint coordinate system (Xv, Yv, Zv) based on the viewpoint of the player 302 is performed. After that, so-called clipping processing is performed,
Next, a perspective projection conversion process to the screen coordinate system (XS, YS) is performed. Next, output format conversion is performed, and finally, sorting processing is performed.

【0068】次に、画像供給部210の動作の詳細につ
いて説明する。
Next, details of the operation of the image supply unit 210 will be described.

【0069】(1)初期設定 まず、初期設定時に、レーシングカー、コース等を表す
オブジェクトの画像情報が、オブジェクト画像情報記憶
部212に書き込まれる。但し、オブジェクト画像情報
記憶部212がROMである場合は、この書き込みは必
要とされない。
(1) Initial Setting First, at the time of initial setting, image information of an object representing a racing car, a course, etc. is written in the object image information storage section 212. However, if the object image information storage unit 212 is a ROM, this writing is not necessary.

【0070】(2)フレームデータの転送 全てのオブジェクトに共通する視点情報、即ちプレーヤ
の視点位置・角度・視野角の情報、モニタの情報等は、
1フィールド毎、例えば(1/60)秒毎に更新され、
仮想3次元空間演算部100から処理部215を介して
座標変換部218に転送される。座標変換部218で
は、このデータを基に各種の座標変換が行われる。ま
た、モニタの角度・大きさ等の情報もクリッピング処理
用のデータとしてクリッピング処理部220に転送され
る。これらの転送されるデータはフレームデータと呼ば
れる。
(2) Transfer of frame data The viewpoint information common to all objects, that is, the viewpoint position / angle / viewing angle information of the player, monitor information, etc.
Updated every 1 field, for example, every (1/60) seconds,
It is transferred from the virtual three-dimensional space calculation unit 100 to the coordinate conversion unit 218 via the processing unit 215. The coordinate conversion unit 218 performs various coordinate conversions based on this data. Further, information such as the angle and size of the monitor is also transferred to the clipping processing unit 220 as data for clipping processing. These transferred data are called frame data.

【0071】(3)オブジェクトデータ及びポリゴンデ
ータの形成 オブジェクトの位置情報、方向情報、オブジェクトナン
バーを含む表示物情報が、仮想3次元空間演算部100
から処理部215へと転送される。
(3) Formation of Object Data and Polygon Data Display object information including position information, direction information, and object number of the object is displayed in the virtual three-dimensional space computing unit 100.
Is transferred to the processing unit 215.

【0072】次に、前記のオブジェクトナンバーをアド
レスとして、オブジェクト画像情報記憶部212から対
応するオブジェクトの画像情報が読み出される。即ち、
例えばオブジェクトナンバーがレーシングカーを指定す
るものである場合は、このレーシングカーの画像情報が
オブジェクト画像情報記憶部212から読み出される。
オブジェクト画像情報記憶部212には、レーシングカ
ー等の画像情報が複数枚のポリゴンの集合(多面体)と
して表現され格納されている。処理部215は、データ
フォーマット形成部217により、この読み出されたデ
ータからオブジェクトデータ及びポリゴンデータを組に
したデータを形成して、座標変換部218以下へと順次
転送する。
Next, the image information of the corresponding object is read from the object image information storage section 212 using the object number as an address. That is,
For example, when the object number specifies a racing car, the image information of this racing car is read from the object image information storage unit 212.
In the object image information storage unit 212, image information of a racing car or the like is expressed and stored as a set (polyhedron) of a plurality of polygons. In the processing unit 215, the data format forming unit 217 forms data that is a set of object data and polygon data from the read data, and sequentially transfers the data to the coordinate conversion unit 218 and the subsequent units.

【0073】ここで、オブジェクトデータとは、オブジ
ェクトの位置情報、回転情報、その他の付属データ等で
構成されるデータをいう。また、ポリゴンデータとは、
オブジェクトを構成するポリゴンについての画像情報で
あり、ポリゴンの頂点座標、頂点テクスチャ座標、頂点
輝度情報、その他の付属データで構成されるデータをい
う。
Here, the object data refers to data composed of object position information, rotation information, other attached data, and the like. What is polygon data?
This is image information about polygons that form an object, and is data that is composed of polygon vertex coordinates, vertex texture coordinates, vertex brightness information, and other attached data.

【0074】これらのデータは、データフォーマット形
成部217により、図17(A)、(B)に示すような
データフォーマットに変換される。
The data format forming section 217 converts these data into data formats as shown in FIGS. 17 (A) and 17 (B).

【0075】(4)座標変換部等での動作 座標変換部218では、処理部215から転送されたプ
レーヤの視点情報と、処理部215から転送されたレー
シングカ−位置情報、回転情報からなるオブジェクトデ
ータをもとに、ポリゴンデータに対して各種の座標変換
が行われる。即ち、ポリゴンデータに対するローカル座
標系での回転、ワールド座標系への平行移動、視点座標
系への回転等が行われる。
(4) The motion coordinate conversion unit 218 in the coordinate conversion unit or the like is an object consisting of the viewpoint information of the player transferred from the processing unit 215, the racing car position information transferred from the processing unit 215, and the rotation information. Various coordinate conversions are performed on the polygon data based on the data. That is, the rotation of the polygon data in the local coordinate system, the parallel movement to the world coordinate system, the rotation to the viewpoint coordinate system, and the like are performed.

【0076】クリッピング処理部220では、これらの
座標変換が終了したポリゴンデータに対してクリッピン
グ処理が行われる。次に、クリッピング処理部220内
の透視投影変換部222において、スクリーン座標系へ
の透視投影変換が行われる。なお、本実施例では、この
クリッピング処理と透視投影変換処理とを同一のハード
ウェアを用いて行っている。
The clipping processing section 220 performs clipping processing on the polygon data for which the coordinate conversion has been completed. Next, the perspective projection conversion unit 222 in the clipping processing unit 220 performs perspective projection conversion to the screen coordinate system. In this embodiment, the clipping processing and the perspective projection conversion processing are performed using the same hardware.

【0077】ポリゴンデータ変換部224では、クリッ
ピング処理により四角形以外の多角形に変形してしまっ
たポリゴンのデータを四角形のポリゴンのデータに変換
する処理が行われる。変換されたポリゴンデータは、次
段のソーティング処理部226に出力される。具体的に
は、例えばクリッピング処理によりポリゴンが三角形に
変形してしまった場合には、この三角形のポリゴンが擬
似的に四角形のポリゴンとなるように変換処理が行われ
る。即ち、元の三角形のポリゴンの頂点の番号を1、
2、3とした場合には、変換後の四角形ポリゴンの頂点
に対して元のポリゴンの頂点番号1、2、3、1を割り
当てる。そして、この割り当てられた頂点番号により元
のポリゴンの頂点座標、頂点テクスチャ座標、頂点輝度
情報等を指定することで、四角形のポリゴンデータへの
変換処理が行われる。また、例えばクリッピング処理に
よりポリゴンが五角形に変形してしまった場合には、該
ポリゴンを四角形のポリゴンと擬似的な四角形のポリゴ
ン(上記と同様に三角形のポリゴンを擬似的に四角形の
ポリゴンとみなしたもの)に分割する。そして、例えば
元の五角形のポリゴンの頂点の番号を1、2、3、4、
5とした場合には、分割された2つの四角形ポリゴンの
頂点に対して、各々、元のポリゴンの頂点番号1、2、
3、4及び1、4、5、1を割り当てる。そして、この
割り当てられた頂点番号により元のポリゴンの頂点座
標、頂点テクスチャ座標、頂点輝度情報等を指定するこ
とで、四角形のポリゴンデータへの変換処理が行われる
ことになる。また、クリッピング処理によりポリゴンが
六角形に変形してしまった場合には、2つの四角形ポリ
ゴンに分割して上記と同様の処理を行う。
The polygon data conversion unit 224 performs processing for converting polygon data that has been transformed into a polygon other than a quadrangle by clipping processing into quadrangular polygon data. The converted polygon data is output to the sorting processing unit 226 at the next stage. Specifically, for example, when the polygon is transformed into a triangle by clipping processing, the conversion processing is performed so that the polygon of the triangle becomes a pseudo quadrangular polygon. That is, the vertex number of the original triangular polygon is 1,
In the case of 2, 3, the vertex numbers 1, 2, 3, 1 of the original polygon are assigned to the vertices of the converted quadrilateral polygon. Then, by designating the vertex coordinates, vertex texture coordinates, vertex brightness information, etc. of the original polygon by the assigned vertex numbers, conversion processing into quadrangular polygon data is performed. Further, for example, when the polygon is transformed into a pentagon due to clipping processing, the polygon is a quadrilateral polygon and a pseudo quadrilateral polygon (triangular polygons are regarded as pseudo quadrilateral polygons in the same manner as above. Stuff). Then, for example, the numbers of the vertices of the original pentagonal polygon are 1, 2, 3, 4,
In the case of 5, vertex numbers 1 and 2 of the original polygon are respectively assigned to the vertices of the two divided quadrangular polygons.
Assign 3, 4 and 1, 4, 5, 1. Then, by designating the vertex coordinates, vertex texture coordinates, vertex brightness information, etc. of the original polygon by the assigned vertex number, the conversion processing to the quadrangular polygon data is performed. When the polygon is transformed into a hexagon by the clipping process, it is divided into two quadrilateral polygons and the same process as above is performed.

【0078】なお、本実施例においてバックミラーの画
像形成を行う場合に、画像の左右反転処理により裏とな
ったポリゴンについては、ポリゴンデータ変換部224
により表ポリゴンへの変換処理が行われる。例えば、頂
点番号が1、2、3、4のポリゴンが左右反転された場
合には、変換後のポリゴンの頂点に対する頂点番号の割
り当てを1、4、3、2に入れ替え、この入れ替えられ
た頂点番号により元のポリゴンの頂点座標等を指定す
る。これにより、左右反転処理により裏となったポリゴ
ンを表ポリゴンとして出力することが可能となる。ま
た、例えば、上記のようにクリッピング処理により五角
形となったポリゴンを左右反転処理する場合には、これ
を四角形ポリゴンと擬似的な四角形ポリゴンに分割する
とともに、これらの四角形ポリゴンへの頂点番号の割り
振りを、各々、1、4、3、2及び1、5、4、1とす
る。これにより、ポリゴンの分割処理と、左右反転によ
り裏となったポリゴンの表ポリゴンへの変換を同時に行
うことが可能となる。
In the present embodiment, when the image is formed on the rear-view mirror, the polygon data conversion unit 224 is applied to the polygons which are the back side due to the left-right inversion processing of the image.
By this, conversion processing to a table polygon is performed. For example, when the polygons with vertex numbers 1, 2, 3, and 4 are horizontally reversed, the assignment of the vertex numbers to the vertices of the converted polygon is replaced with 1, 4, 3, and 2, and the replaced vertexes are replaced. The vertex coordinates of the original polygon are specified by numbers. As a result, it becomes possible to output the polygon which is the back side by the left-right inversion processing as the front polygon. Further, for example, in the case where the polygon that has become a pentagon by the clipping processing as described above is subjected to the left-right inversion processing, it is divided into a quadrilateral polygon and a pseudo quadrilateral polygon, and the vertex numbers are allocated to these quadrilateral polygons. Are 1, 4, 3, 2 and 1, 5, 4, 1, respectively. As a result, it becomes possible to simultaneously perform the polygon division processing and the conversion of the polygon that is the back side by the left-right reversal into the front polygon.

【0079】さて、本実施例では、図17(A)に示す
ように、データフォーマット形成部217により、メイ
ン画面用データと、サブ画面用データとが形成され、こ
れらのデータが1フレーム内に処理すべきデータとし
て、座標変換部218等に転送される。ここで、メイン
画面用データでは、フレームデータを先頭に、オブジェ
クト1A、2A、3A等のデータが連なっている。即
ち、当該フレームにおいてメイン画面に表示すべき全て
のオブジェクトに関するデータが連なっている。そし
て、例えばオブジェクト1Aのオブジェクトデータの後
ろには当該オブジェクトを構成する全てのポリゴンのポ
リゴンデータが連なっている。これらのポリゴンデータ
は、例えば図17(B)に示すようなフォーマットとな
っておりポリゴンの頂点座標情報等を含んでいる。同様
に、オブジェクト2Aのオブジェクトデータの後ろにも
当該オブジェクトを構成する全てのポリゴンのポリゴン
データが連なっている。
In the present embodiment, as shown in FIG. 17A, the data format forming section 217 forms main screen data and sub screen data, and these data are stored in one frame. The data to be processed is transferred to the coordinate conversion unit 218 and the like. Here, in the data for the main screen, the data of the objects 1A, 2A, 3A, etc. are arranged in succession starting from the frame data. That is, data relating to all objects to be displayed on the main screen in the frame are linked. Then, for example, after the object data of the object 1A, polygon data of all polygons forming the object is connected. These polygon data have a format as shown in FIG. 17B, for example, and include polygon vertex coordinate information and the like. Similarly, after the object data of the object 2A, the polygon data of all the polygons forming the object is linked.

【0080】サブ画面用データについても、メイン画面
用データと全く同様のデータフォーマット形式となって
いる。但し、オブジェクト1Aとオブジェクト1Bとで
は、オブジェクトの配置位置、方向は同一であるが、オ
ブジェクトデータに連なるポリゴンデータの数が異なっ
ている。オブジェクト2Aとオブジェクト2Bとの相違
も同様である。本実施例では、データフォーマット形成
部217により、このようなフォーマットのデータを形
成することで、メイン画面とサブ画面とで表示されるオ
ブジェクトのポリゴン数を異ならせることが可能となっ
ている。更に、メイン画面用データとサブ画面用データ
とで、視点位置、視点方向等を異ならせることもでき
る。これには、メイン画面用データ、サブ画面用データ
の先頭に置かれるフレームデータの内容を異ならせれば
よい。例えば、メイン画面用データのフレームデータで
は、視線方向が正面向きであるように設定し、サブ画面
用データのフレームデータでは、視線方向が後向きであ
るように設定すれば、正面画像であるメイン画面上にバ
ックミラーを形成することが可能となる。但し、この場
合には、画像を左右反転して表示する必要があるが、こ
の左右反転処理は上記のように本実施例においてはポリ
ゴンデータ変換部224において行われる。
The data for the sub screen has the same data format as the data for the main screen. However, the object 1A and the object 1B have the same arrangement position and direction of the object, but have different numbers of polygon data connected to the object data. The difference between the object 2A and the object 2B is the same. In this embodiment, the data format forming unit 217 forms the data in such a format, so that the number of polygons of the object displayed on the main screen and the number of polygons on the sub screen can be made different. Furthermore, the viewpoint position, the viewpoint direction, and the like can be made different between the main screen data and the sub screen data. For this purpose, the contents of the frame data placed at the beginning of the main screen data and the sub screen data may be different. For example, in the frame data of the main screen data, the line-of-sight direction is set to face forward, and in the frame data of the sub-screen data, the line-of-sight direction is set to face backward. It is possible to form a rearview mirror on top. However, in this case, although it is necessary to display the image by horizontally reversing it, this horizontal reversing process is performed in the polygon data conversion unit 224 in the present embodiment as described above.

【0081】5.画像形成部についての説明 画像形成部228は、このポリゴンの各頂点ごとに与え
られた頂点画像情報に基づいてポリゴン内部の画像情報
を演算して、これをCRT10に出力するものであり、
図18に示すように、プロセッサ部(テクスチャ演算手
段)230、テクスチャ情報記憶部242、パレット&
ミキサ回路244とを含む。
5. Description of Image Forming Unit The image forming unit 228 calculates image information inside the polygon based on the vertex image information given to each vertex of the polygon, and outputs this to the CRT 10.
As shown in FIG. 18, a processor unit (texture calculation means) 230, a texture information storage unit 242, a palette &
And a mixer circuit 244.

【0082】さて、本実施例では、より高品質の画像を
より効率よく画像合成すべく、テクスチャマッピング手
法及びグーローシェーディング手法と呼ぶ手法により画
像合成を行っている。以下、これらの手法の概念につい
て簡単に説明する。
In the present embodiment, image synthesis is performed by a technique called a texture mapping technique and a Gouraud shading technique in order to synthesize a higher quality image more efficiently. The concept of these methods will be briefly described below.

【0083】図19には、テクスチャマッピング手法の
概念について示される。
FIG. 19 shows the concept of the texture mapping method.

【0084】図19に示すようなオブジェクト332の
各面に例えば格子状、縞状の模様等が施されたものを画
像合成する場合には、従来は、オブジェクトをポリゴン
(1)〜(80)(ポリゴン(41)〜(80)については図示せず)
に分割し、これらの全てのポリゴンに対して画像処理を
行っていた。その理由は、従来の画像合成装置では、1
つのポリゴン内の色の塗りつぶしは、指定された一つの
色でしか行えなかったためである。この結果、複雑な模
様等が施された高品質な画像を合成する場合には、ポリ
ゴン数が非常に増加してしまうため、実質的に、このよ
うな高品質の画像を合成することは不可能であった。
When an object 332 as shown in FIG. 19 is image-synthesized on each surface with, for example, a grid pattern or a striped pattern, conventionally, the object is a polygon.
(1) ~ (80) (Polygons (41) ~ (80) are not shown)
Image processing was performed on all of these polygons. The reason is that in the conventional image synthesizing device,
This is because the color of each polygon can be filled with only one designated color. As a result, when synthesizing a high-quality image with a complicated pattern or the like, the number of polygons greatly increases, and thus it is practically impossible to synthesize such a high-quality image. It was possible.

【0085】そこで、本実施例では、オブジェクト33
2の回転、並進、透視投影変換等の座標変換及びクリッ
ピング等の処理を、各面を構成するポリゴンA、B、C
ごとに行い(具体的には各ポリゴンの頂点ごと)、格子
状、縞状の模様については、テクスチャとして取り扱
い、ポリゴンの処理と分割して処理を行っている。即
ち、図18に示すように画像形成部228内にはテクス
チャ情報記憶部242が設けられ、この中には各3次元
ポリゴンにはり付けるべきテクスチャ情報、つまり格子
状、縞状の模様等の画像情報が記憶されている。
Therefore, in this embodiment, the object 33
Polygons A, B, and C forming each surface are subjected to processing such as rotation, translation of 2 and coordinate conversion such as perspective projection conversion and clipping.
This is performed for each (specifically, for each vertex of each polygon), and the grid-like and striped patterns are treated as textures and divided into polygons and processed. That is, as shown in FIG. 18, a texture information storage unit 242 is provided in the image forming unit 228, in which texture information to be attached to each three-dimensional polygon, that is, an image of a grid pattern, a striped pattern, or the like. Information is stored.

【0086】そして、このテクスチャ情報を指定するテ
クスチャ情報記憶部242のアドレスを、各3次元ポリ
ゴンの頂点テクスチャ座標VTX、VTYとして与えてお
く。具体的には、図19に示すように、ポリゴンAの各
頂点に対しては、(VTX0、VTY0)、(VTX1、VT
Y1)、(VTX2、VTY2)、(VTX3、VTY3)の頂点
テクスチャ座標が設定される。
The addresses of the texture information storage section 242 for designating this texture information are given as the vertex texture coordinates VTX and VTY of each three-dimensional polygon. Specifically, as shown in FIG. 19, for each vertex of the polygon A, (VTX0, VTY0), (VTX1, VT
Y1), (VTX2, VTY2), and (VTX3, VTY3) vertex texture coordinates are set.

【0087】画像形成部228内のプロセッサ部230
では、この頂点テクスチャ座標VTX、VTYから、ポリ
ゴン内の全てのドットについてのテクスチャ座標TX、
TYが求められる。そして、求められたテクスチャ座標
TX、TYにより、テクスチャ情報記憶部242から対応
するテクスチャ情報が読み出され、パレット&ミキサ回
路244に出力される。これにより、図19に示すよう
な、格子状、縞状等のテクスチャが施された3次元オブ
ジェクトを画像合成することが可能となる。
The processor section 230 in the image forming section 228
Then, from the vertex texture coordinates VTX, VTY, the texture coordinates TX for all the dots in the polygon,
TY is required. Then, according to the obtained texture coordinates TX and TY, the corresponding texture information is read from the texture information storage unit 242 and output to the palette & mixer circuit 244. As a result, it becomes possible to perform image composition of a three-dimensional object having a texture such as a lattice or stripe as shown in FIG.

【0088】また、本実施例では前記したようにオブジ
ェクト332をポリゴンの固まりとして表現している。
従って、各3ポリゴンの境界における輝度情報の連続性
が問題となる。例えば複数のポリゴンを用いて球を表現
しようとする場合、ポリゴン内の全ドットが全て同じ輝
度に設定されると、実際は「丸み」を表現したいのに、
各ポリゴンの境界が「丸み」として表現されない事態が
生じる。そこで、本実施例では、グーローシェーディン
グと呼ばれる手法によりこれを回避している。この手法
では、前記したテクスチャマッピング手法と同様に、3
次元ポリゴンの各頂点に図19に示すように頂点輝度情
報VBRI0〜VBRI3を与えておき、画像形成部22
8で最終的に画像表示する際に、この頂点輝度情報VB
RI0〜VBRI3より3次元ポリゴン内の全てのドット
についての輝度情報を補間により求めている。
Further, in this embodiment, the object 332 is expressed as a mass of polygons as described above.
Therefore, the continuity of the brightness information at the boundary of each three polygons becomes a problem. For example, when trying to represent a sphere using multiple polygons, if all the dots in the polygon are all set to the same brightness, you actually want to represent "roundness," but
There occurs a situation where the boundary of each polygon is not expressed as "roundness". Therefore, in this embodiment, this is avoided by a method called Gouraud shading. In this method, similar to the texture mapping method described above, 3
The vertex luminance information VBRI0 to VBRI3 is given to each vertex of the three-dimensional polygon as shown in FIG.
When the image is finally displayed in 8, the vertex brightness information VB
From RI0 to VBRI3, the brightness information about all the dots in the three-dimensional polygon is obtained by interpolation.

【0089】さて、図20(A)〜(K)には、テクス
チャマッピングについての演算処理の流れが視覚的に示
されている。既に述べたように、画像形成部228で
は、ポリゴンの頂点画像情報に基づいて、ポリゴン内の
全ての画像情報を形成する演算処理が行われる。この場
合、ポリゴンにはり付けるべきテクスチャ情報は、テク
スチャ情報記憶部342に記憶されており、このテクス
チャ情報を読み出すために、テクスチャ座標TX、TYが
必要となる。そして、図20(F)、(G)、(H)、
(I)には、ポリゴン内の全ての透視変換テクスチャ座
標TX*、TY*を求める演算処理の様子が視覚的に示され
ている。また、図20(B)、(C)、(D)、(E)
には、テクスチャ情報を表示すべき座標である透視変換
表示座標X *、Y*を求める演算処理の様子が視覚的に示
されている。以上の演算はプロセッサ部230により行
われる。そして、図20(J)に示すように、演算され
た透視変換テクスチャ座標TX*、TY*はテクスチャ座標
TX、TYに逆透視投影変換され、この逆透視投影変換さ
れたテクスチャ座標TX、TYにより、テクスチャ情報記
憶部242からテクスチャ情報が読み出される。最後
に、図20(K)に示すように、演算されたX*、Y*
座標位置に、読み出されたテクスチャ情報を対応づける
ことで、画像合成が行われることになる。
Now, in FIGS. 20A to 20K, the textures are
Visually shows the flow of arithmetic processing for char mapping
Has been done. As described above, the image forming unit 228
Based on the vertex image information of the polygon,
Arithmetic processing is performed to form all image information. This place
If the texture information to be attached to the polygon is
This texture is stored in the posture information storage unit 342.
Texture coordinates TX and TY are
Will be needed. 20 (F), (G), (H),
(I) shows all perspective transformation textures in the polygon.
Standard TX*, TY*The state of the arithmetic processing for obtaining
ing. 20 (B), (C), (D), (E)
Is the perspective transformation that is the coordinates at which the texture information should be displayed.
Display coordinate X *, Y*A visual representation of the calculation process for calculating
Has been done. The above calculation is performed by the processor unit 230.
Be seen. Then, as shown in FIG.
Perspective transformation texture coordinate TX*, TY*Is the texture coordinate
Inverse perspective projection conversion into TX and TY, and this inverse perspective projection conversion
The texture information is recorded by the texture coordinates TX and TY
The texture information is read from the storage unit 242. last
Then, as shown in FIG.*, Y*of
Associate the read texture information with the coordinate position
As a result, image composition is performed.

【0090】図21(A)、(B)には、レーシングカ
ーのオブジェクトにテクスチャマッピングを施した様子
が視覚的に示される。テクスチャ情報記憶部242に
は、図21(A)に示すようなテクスチャ情報902〜
916が記憶されており、これらをレーシングカーのオ
ブジェクトにマッピングすることで、図21(B)に示
すようなリアル感溢れるレーシングカーを表現すること
が可能となる。
FIGS. 21A and 21B visually show a state in which texture mapping is applied to an object of a racing car. The texture information storage unit 242 stores texture information 902 as shown in FIG.
916 is stored, and by mapping these to a racing car object, it is possible to express a realistic racing car as shown in FIG. 21 (B).

【0091】図22には、テクスチャ情報記憶部242
により構成されるテクスチャ記憶平面の一例が示され
る。図22に示すように、ポリゴンへのテクスチャリン
グは、ポリゴンにマッピングしたいテクスチャのテクス
チャ座標TX、TYを指定することにより行われることに
なる。
In FIG. 22, the texture information storage unit 242 is shown.
An example of a texture storage plane constructed by As shown in FIG. 22, the texturing to the polygon is performed by designating the texture coordinates TX and TY of the texture to be mapped to the polygon.

【0092】さて、本実施例では、メイン画面における
表示物のみならず、サブ画面における表示物に対しても
テクスチャマッピングを行っている。例えば、図4にお
いて、メイン画面1に映る路面21のみならず、バック
ミラー(サブ画面)2に映る路面23にもアスファルト
状の模様、センターライン26からなるテクスチャが施
されている。これにより、サブ画面に映る画像のリアル
感を高めている。そして、この場合、本実施例では、第
1の仮想3次元空間における表示物と、これと同一位
置、同一方向で第2の仮想3次元空間に配置される表示
物とで、テクスチャ情報記憶部242に記憶されるテク
スチャ情報が共通に使用される。
In the present embodiment, texture mapping is performed not only on the display object on the main screen but also on the display object on the sub screen. For example, in FIG. 4, not only the road surface 21 reflected on the main screen 1 but also the road surface 23 reflected on the rearview mirror (sub screen) 2 is provided with an asphalt-like pattern and a texture composed of a center line 26. This enhances the realism of the image displayed on the sub screen. Then, in this case, in the present embodiment, the texture information storage unit includes the display object in the first virtual three-dimensional space and the display object arranged in the second virtual three-dimensional space at the same position and in the same direction as the display object. The texture information stored in 242 is commonly used.

【0093】例えば、図23(A)には、第1の仮想3
次元空間に配置されるマップオブジェクトの一例が示さ
れる。このマップオブジェクトは同図に示すように、ポ
リゴンa1〜a5、b1、b2、c1、c2、d1〜d
3により構成される。一方、図23(B)には、第2の
仮想3次元空間に配置されるマップオブジェクトの一例
が示される。このマップオブジェクトは図23(A)に
示すマップオブジェクトを簡略化して表現したものであ
り、ポリゴンa、b、c、dにより構成される。これら
のマップオブジェクトは、各々の仮想3次元空間におい
て同一位置、同一方向に配置されるものである。図23
(C)には、これらのマップオブジェクトにはり付ける
テクスチャ情報及びこのテクスチャ情報が格納されるテ
クスチャ平面の一例が示される。このテクスチャ情報は
アスファルト状の模様及びセンターラインから構成され
る。
For example, in FIG. 23A, the first virtual 3
An example of a map object arranged in a dimensional space is shown. This map object has polygons a1 to a5, b1, b2, c1, c2, d1 to d as shown in FIG.
It is composed of 3. On the other hand, FIG. 23 (B) shows an example of the map object arranged in the second virtual three-dimensional space. This map object is a simplified representation of the map object shown in FIG. 23 (A), and is composed of polygons a, b, c, d. These map objects are arranged at the same position and in the same direction in each virtual three-dimensional space. FIG. 23
(C) shows an example of texture information to be attached to these map objects and a texture plane in which this texture information is stored. This texture information is composed of an asphalt pattern and a center line.

【0094】このテクスチャを図23(A)に示すマッ
プオブジェクトにマッピングする場合は以下のようにす
る。例えば、頂点A、B、K、Lからなるポリゴンa1
にテクスチャマッピングを行う場合を考える。この場合
には、ポリゴンa1の頂点テクスチャ座標として、図2
3(C)に示す(VTXA、VTYA)、(VTXB、VTY
B)、(VTXK、VTYK)、(VTXL、VTYL)を与え
る。すると、プロセッサ部230により、図20(A)
〜(K)に示した処理により、ポリゴンa1内の全ての
ドット(ピクセル)におけるテクスチャ座標TX、TYが
得られる。そして、この得られたTX、TYによりテクス
チャ情報記憶部242からテクスチャ情報を読み出すこ
とで、ポリゴンa1に対するテクスチャマッピングが完
了する。ポリゴンa2、a3、a4、a5に対するテク
スチャマッピングも同様にして行うことができる。
When this texture is mapped to the map object shown in FIG. 23A, the following is done. For example, a polygon a1 having vertices A, B, K and L
Consider the case where texture mapping is performed on. In this case, the vertex texture coordinates of the polygon a1 are set as shown in FIG.
3 (C) (VTXA, VTYA), (VTXB, VTY
B), (VTXK, VTYK), (VTXL, VTYL) are given. Then, the processor unit 230 causes the processor unit 230 shown in FIG.
The texture coordinates TX and TY at all the dots (pixels) in the polygon a1 are obtained by the processing shown in (K) to (K). Then, the texture information is read from the texture information storage unit 242 with the obtained TX and TY, and the texture mapping for the polygon a1 is completed. Texture mapping for the polygons a2, a3, a4, a5 can be performed in the same manner.

【0095】一方、図23(B)に示す簡略化されたマ
ップオブジェクトに対しては、本実施例では以下のよう
にしてテクスチャマッピングを行っている。例えば頂点
A’、F’、G’、L’からなるポリゴンaにテクスチ
ャマッピングを行う場合を考える。この場合には、ポリ
ゴンaの頂点テクスチャ座標として、図23(C)に示
す(VTXA、VTYA)、(VTXF、VTYF)、(VTX
G、VTYG)、(VTXL、VTYL)を与えておく。即
ち、図23(A)のA、F、G、L点に与えられる頂点
テクスチャ座標と同じ頂点テクスチャ座標を与えてお
く。すると、プロセッサ部230の処理により、ポリゴ
ンa1内の全てのドットにおけるテクスチャ座標TX、
TYが得られる。そして、この得られたTX、TYにより
テクスチャ情報記憶部242からテクスチャ情報を読み
出すことで、ポリゴンaに対するテクスチャマッピング
が完了する。
On the other hand, texture mapping is performed on the simplified map object shown in FIG. 23B in the following manner in this embodiment. For example, consider the case where texture mapping is performed on a polygon a having vertices A ′, F ′, G ′, and L ′. In this case, the vertex texture coordinates of polygon a are (VTXA, VTYA), (VTXF, VTYF), (VTX) shown in FIG.
G, VTYG) and (VTXL, VTYL) are given. That is, the same vertex texture coordinates as the vertex texture coordinates given to points A, F, G, and L in FIG. Then, by the processing of the processor unit 230, the texture coordinates TX for all the dots in the polygon a1,
TY is obtained. Then, by reading the texture information from the texture information storage unit 242 using the obtained TX and TY, the texture mapping for the polygon a is completed.

【0096】このように、本実施例では、精密なオブジ
ェクトと、これに対応する簡略化されたオブジェクトと
の間でテクスチャ情報を共有して使用している。そし
て、各ポリゴンには頂点テクスチャ座標だけが与えられ
ており、ポリゴン内のドットにおけるテクスチャ座標は
図20(A)〜(K)に示す補間処理により得られる。
従って、このようにテクスチャ情報を共有して使用して
も、図23(A)、図23(B)に示すマップオブジェ
クトに対して図23(C)に示すようなテクスチャを同
様にマッピングすることが可能となる。そして、このよ
うにテクスチャ情報を共有して使用することにより、テ
クスチャ情報記憶部242を精密なオブジェクト用、簡
略化されたオブジェクト用に2種類設ける必要がなくな
るため、テクスチャ情報記憶部242に必要な記憶容量
を小さくすることができ、ハードウェアの小規模化を図
ることが可能となる。
As described above, in this embodiment, the texture information is shared between the precise object and the corresponding simplified object. Then, only the vertex texture coordinates are given to each polygon, and the texture coordinates at the dots in the polygon are obtained by the interpolation processing shown in FIGS.
Therefore, even if the texture information is shared and used as described above, it is possible to similarly map the texture shown in FIG. 23C to the map object shown in FIGS. 23A and 23B. Is possible. By sharing and using the texture information in this way, it is not necessary to provide two types of the texture information storage unit 242 for the precise object and the simplified object. Therefore, it is necessary for the texture information storage unit 242. The storage capacity can be reduced, and the hardware can be downsized.

【0097】なお、ポリゴンに与えられる頂点テクスチ
ャ座標は、オブジェクト画像情報記憶部212に画像情
報の一部として記憶されている(図17(B)参照)。
従って、図23(B)のポリゴンaの頂点A’、F’、
G’、L’に対して、図23(A)の頂点A、F、G、
Lと共通の頂点テクスチャ座標を与え、画像情報記憶部
212に記憶することになる。また、本実施例では、頂
点輝度情報VBRIについても、A’、F’、G’、
L’とA、F、G、Lとの間で共通に与えている。これ
により、グーローシェーディング手法による輝度演算も
ポリゴンaとポリゴンa1〜a5とで同様に行われるこ
とになる。
The vertex texture coordinates given to the polygon are stored in the object image information storage section 212 as part of the image information (see FIG. 17B).
Therefore, the vertices A ′, F ′ of the polygon a in FIG.
With respect to G ′ and L ′, the vertices A, F, G, in FIG.
The vertex texture coordinates common to L are given and stored in the image information storage unit 212. Further, in this embodiment, the vertex luminance information VBRI is also A ′, F ′, G ′,
It is commonly given to L ′ and A, F, G, and L. As a result, the brightness calculation by the Gouraud shading method is similarly performed for the polygon a and the polygons a1 to a5.

【0098】なお、本発明は上記実施例に限定されるも
のではなく、本発明の要旨の範囲内で種々の変形実施が
可能である。
The present invention is not limited to the above embodiment, and various modifications can be made within the scope of the gist of the present invention.

【0099】例えば本実施例では、レーシングカーゲー
ムを例にとり説明したが、本発明はこれに限らず、あら
ゆる種類の3次元ゲームに適用でき、例えば3次元的に
マップが形成された宇宙船ゲーム等にも適用できる。
For example, although the present embodiment has been described by taking a racing car game as an example, the present invention is not limited to this and can be applied to all kinds of three-dimensional games. For example, a spaceship game in which a three-dimensional map is formed. Etc. can also be applied.

【0100】また、本発明は、業務用の3次元ゲームの
みならず、例えば、家庭用のゲーム装置、フライトシミ
ュレータ、教習所等で使用されるドライビングシミュレ
ータ等にも適用することができる。
Further, the present invention can be applied not only to a three-dimensional game for business use but also to, for example, a home-use game machine, a flight simulator, a driving simulator used in a school and the like.

【0101】また、仮想3次元空間演算部等における演
算処理は、専用の画像処理用デバイスにより処理するこ
ともできるし、マイクロコンピュータ等を利用して処理
することも可能である。
Further, the calculation processing in the virtual three-dimensional space calculation section or the like can be processed by a dedicated image processing device, or can be processed by using a microcomputer or the like.

【0102】更に、画像合成部等で行われる演算処理も
本実施例で説明したものに限定されるものではなく、例
えばテクスチャマッピングの手法も上記に説明したもの
に限られない。
Further, the arithmetic processing performed by the image synthesizing unit or the like is not limited to that described in the present embodiment, and the texture mapping method is not limited to that described above.

【0103】また、本発明におけるサブ画面は、本実施
例で説明したバックミラーに限らず種々のものに適用で
きる。例えば、サイドミラーに適用することも可能であ
る。また、例えば図24に示す未来戦車ゲームでは、サ
ブ画面801には、プレーヤの操縦する未来戦車820
を上から見た画像が映し出される。また、サブ画面80
1に、例えば未来戦車820が発射したミサイル898
の先端に取り付けられたカメラから見える画像を映し出
してもよい。
The sub-screen in the present invention can be applied not only to the rearview mirror described in this embodiment but also to various other ones. For example, it can be applied to a side mirror. Further, for example, in the future tank game shown in FIG. 24, the sub-screen 801 has a future tank 820 operated by the player.
The image seen from above is displayed. Also, the sub screen 80
1, the missile 898 fired by the future tank 820, for example.
You may project the image seen from the camera attached to the tip of the.

【0104】また、本発明では、サブ画面に映し出され
る表示物のポリゴン数を少ないものとし簡略化して表現
することとしたが、逆に、サブ画面に映し出される表示
物のポリゴン数を多いものとし精密に表現することも可
能である。このようにすることで、例えばメイン画面上
に物を拡大して見ることができる虫眼鏡のようなサブ画
面を表示することが可能となる。
Further, in the present invention, the number of polygons of the display object displayed on the sub-screen is set to be small to simplify the expression, but conversely, the number of polygons of the display object displayed on the sub-screen is set to be large. It is also possible to express precisely. By doing so, it becomes possible to display, for example, a sub-screen such as a magnifying glass on the main screen in which an object can be magnified and viewed.

【0105】また、本発明により画像合成された疑似3
次元画像は、CRT10のようなディスプレイのみなら
ずヘッドマウントディスプレイ(HMD)と呼ばれるデ
ィスプレイにも当然に表示できる。
Further, the pseudo 3 image-synthesized by the present invention is used.
The three-dimensional image can be naturally displayed not only on a display such as the CRT 10 but also on a display called a head mounted display (HMD).

【図面の簡単な説明】[Brief description of drawings]

【図1】図1は、本発明に係る実施例の一例を示すブロ
ック図である
FIG. 1 is a block diagram showing an example of an embodiment according to the present invention.

【図2】図2は、本3次元シミュレータ装置の外観の一
例を示す概略図である。
FIG. 2 is a schematic diagram showing an example of an external appearance of the present three-dimensional simulator device.

【図3】図3は、仮想3次元空間の一例を示す概略図で
ある。
FIG. 3 is a schematic diagram showing an example of a virtual three-dimensional space.

【図4】図4は、本3次元シミュレータ装置により画像
合成されたゲーム画面(疑似3次元画像)を示す概略図
である。
FIG. 4 is a schematic diagram showing a game screen (pseudo three-dimensional image) image-synthesized by the present three-dimensional simulator device.

【図5】図5は、仮想3次元空間演算部の一例を示すブ
ロック図である。
FIG. 5 is a block diagram showing an example of a virtual three-dimensional space calculation unit.

【図6】図6は、表示物情報記憶部に記憶される表示物
情報について説明するための概略説明図である。
FIG. 6 is a schematic explanatory diagram for explaining display object information stored in a display object information storage unit.

【図7】図7は、オブジェクトに設定される表示物情報
について説明するための概略説明図である。
FIG. 7 is a schematic explanatory diagram for explaining display object information set in an object.

【図8】図8(A)、(B)は、位置情報及び方向情報
が同一であり、オブジェクトナンバーが異なる複数の表
示物情報を説明するための概略説明図である。
8A and 8B are schematic explanatory diagrams for explaining a plurality of pieces of display object information having the same position information and direction information but different object numbers.

【図9】図9は、ポリゴン数の異なる複数種類のレーシ
ングカーオブジェクトを示す図である。
FIG. 9 is a diagram showing a plurality of types of racing car objects having different polygon numbers.

【図10】図10は、多いポリゴン数で構成されたコー
スオブジェクトの一例を示す図である
FIG. 10 is a diagram showing an example of a course object composed of a large number of polygons.

【図11】図11は、少ないポリゴン数で構成されたコ
ースオブジェクトの一例を示す図である
FIG. 11 is a diagram showing an example of a course object configured with a small number of polygons.

【図12】図12は、複数のマップブロックに分割され
たマップを示す図である。
FIG. 12 is a diagram showing a map divided into a plurality of map blocks.

【図13】図13は、マップブロックに配置されるマッ
プオブジェクトの概略を示す図である。
FIG. 13 is a diagram showing an outline of a map object arranged in a map block.

【図14】図14は、分割数の異なる複数種類のマップ
ブロックを示す図である。
FIG. 14 is a diagram showing a plurality of types of map blocks having different numbers of divisions.

【図15】図15は、画像供給部の一例を示すブロック
図である。
FIG. 15 is a block diagram illustrating an example of an image supply unit.

【図16】図16は、本実施例における3次元演算処理
について説明するための概略説明図である。
FIG. 16 is a schematic explanatory diagram for explaining the three-dimensional arithmetic processing in this embodiment.

【図17】図17(A)、(B)は、データフォーマッ
ト形成部で形成されるデータフォーマットの一例を示す
図である。
17A and 17B are diagrams showing an example of a data format formed by a data format forming unit.

【図18】図18は、画像合成部の一例を示すブロック
図である。
FIG. 18 is a block diagram illustrating an example of an image combining unit.

【図19】図19は、テクスチャマッピング手法を説明
するための概略説明図である。
FIG. 19 is a schematic explanatory diagram for explaining a texture mapping method.

【図20】図20(A)〜(K)は、本実施例における
テクスチャマッピング手法を視覚的に表した図である。
20A to 20K are diagrams visually showing a texture mapping method in the present embodiment.

【図21】図21(A)、(B)は、レーシングカーの
オブジェクトにテクスチャマッピングを施した様子を視
覚的に表した図である。
21 (A) and 21 (B) are diagrams visually showing a texture-mapped object of a racing car.

【図22】図22は、テクスチャ情報記憶部により構成
されるテクスチャ記憶平面の一例を示す図である。
FIG. 22 is a diagram showing an example of a texture storage plane configured by a texture information storage unit.

【図23】図23(A)、(B)は、第1、第2の仮想
3次元空間に配置されるマップオブジェクトの一例を示
す図であり、図23(C)は、これらのマップオブジェ
クトにマッピングするテクスチャ情報及びこのテクスチ
ャ情報が格納されるテクスチャ平面の一例を示す図であ
る。
23A and 23B are diagrams showing an example of map objects arranged in first and second virtual three-dimensional spaces, and FIG. 23C is a diagram showing these map objects. It is a figure which shows an example of the texture plane which stores this texture information and the texture information which maps to.

【図24】図24は、サブ画面の他の適用例を説明する
ための概略説明図である。
FIG. 24 is a schematic explanatory diagram for explaining another application example of the sub-screen.

【図25】図25(A)は、3次元シミュレータ装置の
概念を説明するための概略説明図であり、図25(B)
は、この3次元シミュレータ装置により形成される画面
の一例を示す図である。
FIG. 25 (A) is a schematic explanatory diagram for explaining the concept of the three-dimensional simulator device, and FIG.
FIG. 6 is a diagram showing an example of a screen formed by this three-dimensional simulator device.

【符号の説明】[Explanation of symbols]

10 CRT 12 操作部 100 仮想3次元空間演算部 102 処理部 200 画像合成部 210 画像供給部 212 オブジェクト画像情報記憶部 215 処理部 217 データフォーマット形成部 218 座標変換部 220 クリッピング処理部 222 透視変換部 224 ポリゴンデータ変換部 226 ソーティング処理部 228 画像形成部 230 プロセッサ部 242 テクスチャ情報記憶部 244 パレット&ミキサ回路 10 CRT 12 Operation part 100 Virtual three-dimensional space operation unit 102 processing unit 200 Image synthesizer 210 Image Supply Unit 212 Object Image Information Storage Unit 215 Processor 217 Data format formation unit 218 Coordinate conversion unit 220 Clipping processing unit 222 Perspective transformation unit 224 Polygon data converter 226 Sorting processing unit 228 Image forming unit 230 processor 242 Texture information storage unit 244 Pallet & Mixer Circuit

───────────────────────────────────────────────────── フロントページの続き (58)調査した分野(Int.Cl.7,DB名) A63F 13/00 - 13/12 A63F 9/24 G09B 9/00 - 9/52 G06T 15/00 H04N 7/18 ─────────────────────────────────────────────────── ─── Continued Front Page (58) Fields surveyed (Int.Cl. 7 , DB name) A63F 13/00-13/12 A63F 9/24 G09B 9/00-9/52 G06T 15/00 H04N 7 / 18

Claims (2)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 仮想3次元空間を構成する複数の表示物
の位置あるいは位置及び方向を設定することで仮想3次
元空間の形成演算を行う仮想3次元空間演算手段と、 表示物を構成するポリゴンに対してテクスチャを施すた
めの演算を行うテクスチャ演算手段と、 該テクスチャ演算手段において施されるテクスチャの情
報を記憶するテクスチャ情報記憶手段と、 前記仮想3次元空間演算手段からの演算結果に基づいて
前記仮想3次元空間における任意の視点からの視界画像
を合成する画像合成手段とを含み、前記仮想3次元空間演算手段が、 前記表示物の位置あるいは位置及び方向が同一であり表
示物を構成するポリゴンの数が異なる複数の仮想3次元
空間を形成する演算を行い、 前記テクスチャ演算手段が、 前記異なる仮想3次元空間において位置あるいは位置及
び方向が同一の前記表示物の一部又は全部に対して前記
テクスチャ情報記憶手段に記憶されるテクスチャ情報を
共通に使用する手段を含むことを特徴とする3次元シミ
ュレータ装置。
1. A virtual three-dimensional space calculating means for performing a calculation operation for forming a virtual three-dimensional space by setting positions or positions and directions of a plurality of display objects forming the virtual three-dimensional space, and polygons forming the display object. Texture calculation means for performing a calculation for applying a texture to the texture, a texture information storage means for storing texture information applied in the texture calculation means, and a calculation result from the virtual three-dimensional space calculation means An image synthesizing unit for synthesizing a view image from an arbitrary viewpoint in the virtual three-dimensional space, wherein the virtual three-dimensional space computing unit has the same position or the same position and direction as the display object.
Multiple virtual three-dimensional images with different numbers of polygons
The texture calculation means performs a calculation for forming a space, and the texture calculation means calculates a position or a position in the different virtual three-dimensional space.
And the same direction for all or part of the display object
The texture information stored in the texture information storage means
A three-dimensional spot characterized by including means commonly used
Generator device.
【請求項2】 仮想3次元空間演算手段により、仮想3
次元空間を構成する複数の表示物の位置あるいは位置及
び方向を設定することで仮想3次元空間の形成演算を行
い、 テクスチャ演算手段により、 表示物を構成するポリゴン
に対してテクスチャを施すための演算を行い、 テクスチャ情報記憶手段により、該テクスチャ演算手段
において施されるテクスチャの情報を記憶し、 画像合成手段により、 前記仮想3次元空間演算手段から
の演算結果に基づいて前記仮想3次元空間における任意
の視点からの視界画像を合成すると共に、 前記仮想3次元空間演算手段により、前記表示物の位置
あるいは位置及び方向が同一であり表示物を構成するポ
リゴンの数が異なる複数の仮想3次元空間を形成する演
算を行い、 前記テクスチャ演算手段により、前記異なる仮想3次元
空間において位置あるいは位置及び方向が同一の前記表
示物の一部又は全部に対して前記テクスチャ情報記憶手
段に記憶されるテクスチャ情報を共通に使用することを
特徴とする3次元シミュレータ装置の画像合成方法。
2. A virtual 3-dimensional space is calculated by the virtual 3- dimensional space computing means.
The formation operation of the virtual three-dimensional space is performed by setting the position or the position and the direction of a plurality of display objects forming the three-dimensional space.
There, the texture operation means, we have row calculation for performing texture against polygons forming the display object, the texture information storing means stores the information of the texture to be applied in the texture operation means, image synthesizing means by the addition to synthesizing the view field image from an arbitrary viewpoint in the virtual three-dimensional space according to the result from the virtual three-dimensional space calculating means, by the virtual three-dimensional space calculating means, the position of the display object
Or the position and direction are the same and
Performance to form multiple virtual three-dimensional spaces with different numbers of ligons
And the different textures are calculated by the texture calculation means.
The table with the same position or position and direction in space
The texture information storage hand for a part or all of the show
Common use of texture information stored in columns
An image synthesizing method of a characteristic three-dimensional simulator device.
JP29231199A 1994-06-17 1999-10-14 3D simulator apparatus and image composition method Expired - Fee Related JP3364456B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP29231199A JP3364456B2 (en) 1994-06-17 1999-10-14 3D simulator apparatus and image composition method

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP15927094 1994-06-17
JP6-159270 1994-06-17
JP29231199A JP3364456B2 (en) 1994-06-17 1999-10-14 3D simulator apparatus and image composition method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP8501944A Division JP3056256B2 (en) 1994-06-17 1995-06-16 Three-dimensional simulator device and image synthesizing method

Publications (2)

Publication Number Publication Date
JP2000105533A JP2000105533A (en) 2000-04-11
JP3364456B2 true JP3364456B2 (en) 2003-01-08

Family

ID=26486123

Family Applications (1)

Application Number Title Priority Date Filing Date
JP29231199A Expired - Fee Related JP3364456B2 (en) 1994-06-17 1999-10-14 3D simulator apparatus and image composition method

Country Status (1)

Country Link
JP (1) JP3364456B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005152068A (en) * 2003-11-21 2005-06-16 Taito Corp Method for displaying target image on monitor for pave penny of air battle game machine
JP2009237680A (en) 2008-03-26 2009-10-15 Namco Bandai Games Inc Program, information storage medium, and image generation system
JP5632657B2 (en) * 2010-06-09 2014-11-26 任天堂株式会社 Image processing program, image processing apparatus, image processing system, and image processing method
WO2017037962A1 (en) * 2015-08-28 2017-03-09 株式会社タカラトミー Information processing device provided with head-mounted display
JP5944600B1 (en) * 2015-08-28 2016-07-05 株式会社タカラトミー Information processing device with head-mounted display
JP6321263B1 (en) * 2017-05-19 2018-05-09 株式会社コロプラ Information processing method, apparatus, and program for causing computer to execute information processing method

Also Published As

Publication number Publication date
JP2000105533A (en) 2000-04-11

Similar Documents

Publication Publication Date Title
JP3056256B2 (en) Three-dimensional simulator device and image synthesizing method
JP2807608B2 (en) Sorting processing apparatus, image synthesizing apparatus using the same, and sorting processing method
US5616079A (en) Three-dimensional games machine
US5577960A (en) Image synthesizing system and game playing apparatus using the same
US5764232A (en) Three-dimensional simulator apparatus and image synthesis method
JP2846252B2 (en) Three-dimensional simulator device and image synthesizing method
JP3638637B2 (en) Polygon data conversion device and three-dimensional simulator device
WO1995009405A1 (en) Clipping processor, three-dimensional simulator and clipping processing method
JP2883514B2 (en) Image synthesis device and game device using the same
JP3420870B2 (en) Image composition method, image composition device, and game device
JP4610748B2 (en) Image generation system, program, and information storage medium
JP3748451B1 (en) Program, information storage medium, and image generation system
JP4749198B2 (en) Program, information storage medium, and image generation system
JP3364456B2 (en) 3D simulator apparatus and image composition method
JP4502678B2 (en) Program, information storage medium, and image generation system
JP3760341B2 (en) Program, recording medium, image generation apparatus, and image generation method
JP4806578B2 (en) Program, information storage medium, and image generation system
JPH08229237A (en) Three-dimensional game machine and image composition method
GB2284526A (en) Image synthesizer and apparatus for playing game using the image synthesizer
JP2010165100A (en) Image generation system, program, and information storage medium
JP4913399B2 (en) Program, information storage medium, and image generation system
JP2990190B2 (en) Three-dimensional simulator device and image synthesizing method
JP3254091B2 (en) Three-dimensional simulator device and image synthesizing method
JP3538248B2 (en) Image composition apparatus and image composition method
JPH11134515A (en) Game device and game screen compositing method

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20021015

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071025

Year of fee payment: 5

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081025

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081025

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091025

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091025

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091025

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101025

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101025

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111025

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111025

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121025

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121025

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131025

Year of fee payment: 11

LAPS Cancellation because of no payment of annual fees