JP3538248B2 - Image composition apparatus and image composition method - Google Patents

Image composition apparatus and image composition method

Info

Publication number
JP3538248B2
JP3538248B2 JP32939694A JP32939694A JP3538248B2 JP 3538248 B2 JP3538248 B2 JP 3538248B2 JP 32939694 A JP32939694 A JP 32939694A JP 32939694 A JP32939694 A JP 32939694A JP 3538248 B2 JP3538248 B2 JP 3538248B2
Authority
JP
Japan
Prior art keywords
vertex
information
image
polygon
texture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP32939694A
Other languages
Japanese (ja)
Other versions
JPH08161515A (en
Inventor
隆正 山田
稔 窪田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Namco Ltd
Original Assignee
Namco Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Ltd filed Critical Namco Ltd
Priority to JP32939694A priority Critical patent/JP3538248B2/en
Publication of JPH08161515A publication Critical patent/JPH08161515A/en
Application granted granted Critical
Publication of JP3538248B2 publication Critical patent/JP3538248B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は、仮想3次元空間におけ
る任意の視点からの視界画像を合成するための画像合成
装置及び画像合成方法に関し、特にテクスチャマッピン
グ手法による画像合成が可能な画像合成装置及び画像合
成方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image synthesizing apparatus and an image synthesizing method for synthesizing a view field image from an arbitrary viewpoint in a virtual three-dimensional space, and in particular, an image synthesizing apparatus capable of synthesizing images by a texture mapping method. And an image composition method.

【0002】[0002]

【従来の技術】従来、例えば3次元ゲームあるいは飛行
機及び各種乗物の操縦シュミレ―タ等に使用される画像
合成装置として種々のものが知られている。このような
画像合成装置では、図15に示す3次元物体300に関
する画像情報が、あらかじめ装置に記憶されている。こ
こで、この3次元物体300は、プレーヤ302がスク
リーン306を介して見ることができる風景等を表すも
のである。そして、この風景等を表す3次元物体300
の画像情報をスクリーン306上に透視投影変換するこ
とにより疑似3次元画像308をスクリーン306上に
画像表示している。この装置では、プレーヤ302が、
操作パネル304により回転、並進等の操作を行うと、
この操作信号に基づいて所定の3次元演算処理が行われ
る。具体的には、まず、操作信号によりプレーヤ302
の視点位置、視線方向あるいはプレーヤ302の搭乗す
る移動体の位置、方向等がどのように変化するかを求め
る演算処理が行われる。次に、この視点位置、視線方向
等の変化に伴い、3次元物体300の画像がスクリーン
306上でどのように見えるかを求める演算処理が行わ
れる。そして、以上の演算処理はプレーヤ302の操作
に追従してリアルタイムで行われる。これによりプレー
ヤ302は、自身の視点位置、視線方向の変化あるいは
自身の搭乗する移動体の位置、方向の変化に伴う風景等
の変化を疑似3次画像としてリアルタイムに見ることが
可能となり、仮想的な3次元空間を疑似体験できること
となる。
2. Description of the Related Art Conventionally, various types of image synthesizing apparatuses used for, for example, three-dimensional games or flight simulators for airplanes and various vehicles are known. In such an image composition device, image information related to the three-dimensional object 300 shown in FIG. 15 is stored in the device in advance. Here, the three-dimensional object 300 represents a landscape or the like that the player 302 can see through the screen 306. Then, a three-dimensional object 300 representing this landscape etc.
The pseudo three-dimensional image 308 is displayed on the screen 306 by performing perspective projection conversion on the image information. In this device, the player 302
When operations such as rotation and translation are performed using the operation panel 304,
A predetermined three-dimensional calculation process is performed based on the operation signal. Specifically, first, the player 302 receives an operation signal.
A calculation process is performed to determine how the viewpoint position, the line-of-sight direction, or the position, direction, etc. of the moving body on which the player 302 is boarding changes. Next, a calculation process is performed to determine how the image of the three-dimensional object 300 looks on the screen 306 in accordance with changes in the viewpoint position, line-of-sight direction, and the like. The above arithmetic processing is performed in real time following the operation of the player 302. As a result, the player 302 can view changes in the viewpoint, the direction of the line of sight, or changes in the scenery accompanying the change in the position and direction of the moving body on which the player 302 is moving in real time as a pseudo tertiary image. It will be possible to experience a simulated three-dimensional space.

【0003】[0003]

【発明が解決しようとする課題】さて、このような画像
合成装置では、表示される画像を高品質にするためにテ
クスチャマッピングと呼ばれる手法が用いられている。
このテクスチャマッピング手法では、表示物を構成する
ポリゴンにテクスチャをマッピングし、これによりリア
ルな表示画像を得ようとするものである。
In such an image synthesizing apparatus, a technique called texture mapping is used in order to make a displayed image high quality.
In this texture mapping method, a texture is mapped to polygons constituting a display object, thereby obtaining a realistic display image.

【0004】このテクスチャマッピング手法において画
像の質を更に高めるためには、ポリゴンにマッピングす
べきテクスチャ情報として絵柄の異なる多種類のテクス
チャ情報を用意すればよい。しかしながら、このテクス
チャマッピング手法においてはテクスチャ情報を記憶す
るテクスチャ情報記憶部が必要であり、多種類のテクス
チャ情報を用意しようとすると、テクスチャ情報記憶部
の記憶容量が膨大化してしまう。特に、多くの場合はこ
のテクスチャ情報記憶部はROM等で構成されており、
大容量のROMを用意することは、回路規模の面、コス
トの面において非常に不利なものとなる。
In order to further improve the image quality in this texture mapping method, various types of texture information with different patterns may be prepared as texture information to be mapped to polygons. However, in this texture mapping method, a texture information storage unit for storing texture information is required, and if many types of texture information are prepared, the storage capacity of the texture information storage unit becomes enormous. In particular, in many cases, this texture information storage unit is composed of a ROM or the like.
Preparing a large-capacity ROM is very disadvantageous in terms of circuit scale and cost.

【0005】また、例えばグーローシェーディングと呼
ばれる手法により表示物に陰影付けを施す場合には、処
理の高速化のために設定する光源の数が制限され、この
ため豊かな表現の表示画像を得ることができないという
問題もあった。
In addition, when a display object is shaded by, for example, a technique called Gouraud shading, the number of light sources set for speeding up the processing is limited, so that a richly expressed display image is obtained. There was also a problem that they could not.

【0006】本発明は、以上ような従来の課題に鑑みな
されたものであり、その目的とするところは、少ない記
憶容量のテクスチャ情報記憶部を用いながらも、得られ
る表示画像の表現を豊かなものとし、表示品質の向上を
図ることができる画像合成装置及び画像合成方法を提供
することにある。
The present invention has been made in view of the above-described conventional problems. The object of the present invention is to provide a rich representation of a display image obtained while using a texture information storage unit having a small storage capacity. It is intended to provide an image composition apparatus and an image composition method capable of improving display quality.

【0007】また、本発明の他の目的は、処理の高速化
を妨げずに豊かな表現の表示画像を得ることができる画
像合成装置及び画像合成方法を提供することにある。
Another object of the present invention is to provide an image synthesizing apparatus and an image synthesizing method capable of obtaining a richly expressed display image without impeding the speeding up of processing.

【0008】[0008]

【課題を解決するための手段及び作用】前記目的を達成
するために、発明は、仮想3次元空間における任意の
視点からの視界画像を合成するための画像合成装置であ
って、表示物を構成するポリゴンの各頂点に対して少な
くとも頂点輝度情報、頂点テクスチャ座標を含む画像情
報を与える画像情報付加手段と、前記画像情報に含まれ
る前記頂点輝度情報に基づいてポリゴン内の各ピクセル
の輝度情報を求めると共に、前記画像情報に含まれる前
記頂点テクスチャ座標に基づいてポリゴン内の各ピクセ
ルのテクスチャ座標を求める描画処理手段と、ポリゴン
へマッピングすべきテクスチャの情報が、前記テクスチ
ャ座標で指定されるアドレス位置に格納されているテク
スチャ情報記憶手段とを含み、前記画像情報付加手段
が、複数のポリゴンに対して同一のテクスチャをマッピ
ングするために同一の前記頂点テクスチャ座標を与える
と共に、前記同一のテクスチャがマッピングされるポリ
ゴン間でポリゴン内のピクセルの輝度情報を異ならせる
ために各ポリゴンに対して与える前記頂点輝度情報を異
ならせる手段を含むことを特徴とする。
In order to achieve the above object, the present invention is an image synthesizing apparatus for synthesizing a visual field image from an arbitrary viewpoint in a virtual three-dimensional space, comprising: Image information adding means for providing image information including at least vertex luminance information and vertex texture coordinates for each vertex of the constituting polygon, and luminance information of each pixel in the polygon based on the vertex luminance information included in the image information And a drawing processing means for obtaining a texture coordinate of each pixel in the polygon based on the vertex texture coordinates included in the image information, and an address specified by the texture coordinates for information on the texture to be mapped to the polygon Texture information storage means stored at a position, and the image information adding means includes a plurality of polygons The same vertex texture coordinates are given to map the same texture to the polygon, and the luminance information of the pixels in the polygon is different between the polygons to which the same texture is mapped. It includes means for making the vertex luminance information different.

【0009】また、発明は、仮想3次元空間における
任意の視点からの視界画像を合成するための画像合成方
法であって、表示物を構成するポリゴンの各頂点に対し
て少なくとも頂点輝度情報、頂点テクスチャ座標を含む
画像情報を与える第1のステップと、前記画像情報に含
まれる前記頂点輝度情報に基づいてポリゴン内の各ピク
セルの輝度情報を求めると共に、前記画像情報に含まれ
る前記頂点テクスチャ座標に基づいてポリゴン内の各ピ
クセルのテクスチャ座標を求める第2のステップと、
該第2のステップで求められたテクスチャ座標に基づい
てポリゴンへマッピングすべきテクスチャの情報を読み
出す第3のステップとを含み、前記第1のステップにお
いて、表示物を構成する複数のポリゴンに対して同一の
テクスチャをマッピングするために同一の前記頂点テク
スチャ座標を与えると共に、前記同一のテクスチャがマ
ッピングされるポリゴン間でポリゴン内のピクセルの輝
度情報を異ならせるために各ポリゴンに対して与える前
記頂点輝度情報を異ならせることを特徴とする。
The present invention also relates to an image composition method for compositing a view image from an arbitrary viewpoint in a virtual three-dimensional space, comprising at least vertex luminance information for each vertex of a polygon constituting a display object, A first step of providing image information including vertex texture coordinates; and determining luminance information of each pixel in the polygon based on the vertex luminance information included in the image information; and the vertex texture coordinates included in the image information A second step of determining the texture coordinates of each pixel in the polygon based on
A third step of reading out information on the texture to be mapped to the polygon based on the texture coordinates obtained in the second step, and in the first step, a plurality of polygons constituting the display object The vertex brightness given to each polygon in order to give the same vertex texture coordinates to map the same texture and to make the brightness information of the pixels in the polygon different between the polygons to which the same texture is mapped It is characterized by different information.

【0010】発明によれば、与えられた頂点輝度情
報、頂点テクスチャ座標に基づいてポリゴン内のピクセ
ルの輝度情報、テクスチャ座標が求められる。そして、
求められたテクスチャ座標に基づいてテクスチャ情報が
読み出されテクスチャマッピングが実現される。この場
合、複数のポリゴンに対して同一の頂点テクスチャ座標
が与えられ、これらの複数のポリゴンに対しては同一の
テクスチャがマッピングされる。一方、こららの複数の
ポリゴンに対しては、各々、異なる頂点輝度情報が与え
られ、これによりポリゴン内のピクセルの輝度情報を異
ならせることができる。以上により、少ない種類のテク
スチャ情報を用いて、豊かな表現の表示画像を得ること
ができる。
According to the present invention, the luminance information and texture coordinates of the pixels in the polygon are obtained based on the given vertex luminance information and vertex texture coordinates. And
Texture information is read based on the obtained texture coordinates, and texture mapping is realized. In this case, the same vertex texture coordinates are given to the plurality of polygons, and the same texture is mapped to the plurality of polygons. On the other hand, different vertex luminance information is given to each of the plurality of polygons, whereby the luminance information of the pixels in the polygon can be made different. As described above, a richly expressed display image can be obtained using a small number of types of texture information.

【0011】また、発明は、上記において、複数のポ
リゴンで構成される表示物の画像情報を格納する画像情
報記憶手段を含み、前記画像情報付加手段が、各頂点に
あらかじめ前記頂点輝度情報が与えられたポリゴンによ
り構成される表示物の画像情報を前記画像情報記憶手段
に対して格納することで、各ポリゴンに対して与える前
記頂点輝度情報を異ならせることを特徴とする。
Further, in the above, includes an image information storage means for storing image information of a display containing material by a plurality of polygons, the image information adding means, advance the vertex brightness information on each vertex By storing image information of a display object constituted by a given polygon in the image information storage means, the vertex luminance information given to each polygon is made different.

【0012】発明によれば、ポリゴンに与えられる頂
点輝度情報が各ポリゴン毎に異なるように表示物の画像
情報を格納できる。これにより、各ポリゴンに対して与
える頂点輝度情報を異ならせることができ、この結果、
少ない種類のテクスチャ情報を用いて、豊かな表現の表
示画像を得ることができる。
According to the present invention, the image information of the display object can be stored so that the vertex luminance information given to the polygon is different for each polygon. As a result, the vertex luminance information given to each polygon can be made different. As a result,
A richly expressed display image can be obtained by using a small number of types of texture information.

【0013】また、発明は、上記のいずれかにおい
て、所定の照明モデルに基づいて表示物を構成するポリ
ゴンの頂点輝度情報を求める頂点輝度演算手段を含み、
該頂点輝度演算手段が、前記画像情報付加手段によりポ
リゴンに対して与えられた前記頂点輝度情報を前記照明
モデルに基づく陰影付けが施されるように変更する手段
を含むことを特徴とする。
The present invention includes any one of the above-described vertex luminance calculation means for obtaining vertex luminance information of polygons constituting the display object based on a predetermined illumination model,
The vertex luminance calculating means includes means for changing the vertex luminance information given to the polygon by the image information adding means so as to be shaded based on the illumination model.

【0014】発明によれば、与える頂点輝度情報を異
ならせることで豊かな表現の表示画像を得ることができ
ると共に、所定の照明モデルに基づく陰影付けも可能と
なる。これにより、得られる表示画像をよりリアルなも
のとすることができる。
According to the present invention, it is possible to obtain a richly expressed display image by changing the vertex luminance information to be given, and to perform shading based on a predetermined illumination model. Thereby, the obtained display image can be made more realistic.

【0015】また、発明は、上記において、前記頂点
輝度演算手段がN個(Nは1以上の整数)の仮想的な光
源からの光に基づいて前記頂点輝度情報を求める演算を
行い、前記画像情報付加手段が、仮想3次元空間内にあ
る一部の表示物がM個(Mは前記N以上の整数)の仮想
的な光源からの光により陰影付けされるように該一部の
表示物に対して前記頂点輝度情報を与えることを特徴と
する。
Also, in the present invention, in the above , the vertex luminance calculating means calculates the vertex luminance information based on light from N (N is an integer of 1 or more) virtual light sources, and The image information adding means displays the partial display so that the partial display object in the virtual three-dimensional space is shaded by light from M (M is an integer equal to or greater than N) virtual light sources. The vertex luminance information is given to an object.

【0016】発明によれば、頂点輝度演算手段がN個
の光源に基づく陰影付けしか施せなかった場合でも、一
部の表示物に対してはM個(N以上)の光源に基づく陰
影付けを行うことが可能となる。
According to the present invention, even when the vertex luminance calculation means can only perform shading based on N light sources, shading based on M (N or more) light sources is applied to some display objects. Can be performed.

【0017】[0017]

【実施例】【Example】

1.装置全体の説明 図1には、本実施例のブロック図が示される。 1. Description of the entire device FIG. 1 shows a block diagram of the present embodiment.

【0018】図1に示すように、本実施例は、プレーヤ
が操作信号を入力する操作部12、所定のゲームプログ
ラムにより仮想3次元空間設定のための演算を行う仮想
3次元空間演算部100、プレーヤの視点位置における
疑似3次元画像を形成する画像合成部200、及びこの
疑似3次元画像を画像出力するディスプレイ10を含
む。
As shown in FIG. 1, in this embodiment, an operation unit 12 for a player to input an operation signal, a virtual 3D space operation unit 100 for performing an operation for setting a virtual 3D space by a predetermined game program, An image composition unit 200 that forms a pseudo 3D image at the viewpoint position of the player, and a display 10 that outputs the pseudo 3D image are included.

【0019】操作部12には、例えば本実施例を未来戦
車ゲームに適用した場合には、未来戦車を操縦するため
のアナログレバー等が接続され、これにより操作信号が
入力される。
For example, when the present embodiment is applied to a future tank game, an analog lever or the like for maneuvering the future tank is connected to the operation section 12, and an operation signal is input thereby.

【0020】仮想3次元空間演算部100では、図2に
示す仮想3次元空間における複数の表示物、例えば大地
76、78、障害物80、82、自機未来戦車20、敵
未来戦車22等の位置あるいは位置及び方向を設定する
演算が行われる。この演算は、操作部12からの操作信
号や、あらかじめ設定記憶されているマップ情報等に基
づいて行われる。
In the virtual three-dimensional space calculation unit 100, a plurality of display objects in the virtual three-dimensional space shown in FIG. 2, such as the earth 76 and 78, obstacles 80 and 82, the own future tank 20, the enemy future tank 22, and the like. A calculation is performed to set the position or position and direction. This calculation is performed based on an operation signal from the operation unit 12, map information set and stored in advance, and the like.

【0021】そして、画像合成部200では、仮想3次
元空間演算部100からの演算結果に基づいて仮想3次
元空間における任意の視点からの視界画像を合成する演
算が行われる。そして、合成された視界画像はディスプ
レイ10より出力される。
Then, the image composition unit 200 performs an operation for synthesizing a view image from an arbitrary viewpoint in the virtual three-dimensional space based on the calculation result from the virtual three-dimensional space calculation unit 100. The synthesized view image is output from the display 10.

【0022】本実施例では、画像合成部200が、オブ
ジェクト画像情報記憶部212、描画処理部229、テ
クスチャ情報記憶部242を含んでいる。ここで、オブ
ジェクト画像情報記憶部(画像情報記憶手段)212
は、複数のポリゴンで構成される表示物を表すオブジェ
クトの画像情報を格納するものである。また、描画処理
部229は、ポリゴンの各頂点に与えられる頂点輝度情
報に基づいてポリゴン内の各ピクセルの輝度情報を求め
ると共に、ポリゴンの各頂点に与えられる頂点テクスチ
ャ座標に基づいてポリゴン内の各ピクセルのテクスチャ
座標を求めるものである。また、テクスチャ情報記憶部
242では、ポリゴンへマッピングすべきテクスチャの
情報がテクスチャ座標で指定されるアドレス位置に格納
されている。
In this embodiment, the image composition unit 200 includes an object image information storage unit 212, a drawing processing unit 229, and a texture information storage unit 242. Here, the object image information storage unit (image information storage means) 212.
Stores image information of an object representing a display object composed of a plurality of polygons. In addition, the drawing processing unit 229 obtains luminance information of each pixel in the polygon based on vertex luminance information given to each vertex of the polygon, and each pixel in the polygon based on vertex texture coordinates given to each vertex of the polygon. The texture coordinates of the pixel are obtained. Further, in the texture information storage unit 242, information on the texture to be mapped to the polygon is stored at the address position specified by the texture coordinates.

【0023】描画処理部229は、オブジェクト画像情
報記憶部212に格納される画像情報に基づいて描画処
理を行う。そして、描画処理により求められたテクスチ
ャ座標に基づいてテクスチャ情報記憶部242からテク
スチャ情報を読み出す。そして、このテクスチャ情報と
描画処理部229で求められた輝度情報とに基づいて、
各ピクセルのRGB情報が求められディスプレイ10に
出力される。
The drawing processing unit 229 performs drawing processing based on the image information stored in the object image information storage unit 212. Then, texture information is read from the texture information storage unit 242 based on the texture coordinates obtained by the drawing process. Based on the texture information and the luminance information obtained by the drawing processing unit 229,
The RGB information of each pixel is obtained and output to the display 10.

【0024】画像情報付加手段120は、複数のポリゴ
ンの各頂点に対して少なくとも頂点輝度情報、頂点テク
スチャ座標を含む画像情報を与えるものである。この画
像情報付加手段120は、仮想3次元空間演算部100
に内蔵させてもよいし外部に設けてもよい。画像情報付
加手段120を内蔵させる場合には、例えばオブジェク
ト画像情報記憶部212をRAM等で構成し、装置のリ
セット後又は電源投入後にこれらの画像情報(頂点輝度
情報、頂点テクスチャ座標等)を画像情報付加手段12
0からオブジェクト画像情報記憶部212に転送する。
また、画像合成処理を行っている間に、画像情報の内容
を変更したり、画像情報を再転送する等の処理を行うこ
とも可能である。また、画像情報付加手段120を外部
に設ける場合には、例えばオブジェクト画像情報記憶部
212をROM等で構成し、表示物の画像情報(頂点輝
度情報、頂点テクスチャ座標等)を画像情報付加手段1
20によりあらかじめ与え、このROM等に格納してお
く。この場合、プログラム等を用いて自動生成した画像
情報を与えてもよいし、設計者が所望する画像情報を与
えてもよい。更に、オブジェクト画像情報記憶部212
の一部をROM、一部をRAMにより構成することもで
きる。この場合には、例えばゲーム中に変化させる必要
がない画像情報はROMに格納し、変化させる必要があ
る画像情報はRAMに格納する。
The image information adding means 120 gives image information including at least vertex luminance information and vertex texture coordinates to each vertex of a plurality of polygons. The image information adding unit 120 includes a virtual three-dimensional space calculation unit 100.
It may be built in or provided outside. When the image information adding means 120 is incorporated, for example, the object image information storage unit 212 is constituted by a RAM or the like, and the image information (vertex luminance information, vertex texture coordinates, etc.) is imaged after the device is reset or powered on. Information adding means 12
The data is transferred from 0 to the object image information storage unit 212.
It is also possible to perform processing such as changing the content of the image information or re-transferring the image information while performing the image composition processing. When the image information adding unit 120 is provided outside, for example, the object image information storage unit 212 is configured by a ROM or the like, and the image information (vertex luminance information, vertex texture coordinates, etc.) of the display object is stored in the image information adding unit 1.
20 is given in advance and stored in this ROM or the like. In this case, image information automatically generated using a program or the like may be given, or image information desired by the designer may be given. Further, the object image information storage unit 212
It is also possible to configure a part of these by ROM and a part by RAM. In this case, for example, image information that does not need to be changed during the game is stored in the ROM, and image information that needs to be changed is stored in the RAM.

【0025】さて、通常、グーローシェーディングと呼
ばれる手法においては、所定の照明モデルとポリゴンの
各頂点に与えられる法線ベクトルとに基づいて、ポリゴ
ンの各頂点における頂点輝度情報を求め、求められた頂
点輝度情報を補間処理することによりポリゴン内の各ピ
クセルの輝度情報を求める演算を行う。このような演算
を行うことで、照明モデルを考慮した陰影付けが可能に
なるとともに、ポリゴンとポリゴンの境界面における
「丸み」を表現できる。この場合、頂点輝度情報を求め
る演算は、ポリゴンの描画処理を行う前に画像合成部2
00内において行われる。
Now, in a technique called Gouraud shading, vertex luminance information at each vertex of a polygon is obtained based on a predetermined illumination model and a normal vector given to each vertex of the polygon. An operation is performed to obtain luminance information of each pixel in the polygon by interpolating the vertex luminance information. By performing such an operation, it is possible to perform shading in consideration of the illumination model and to express “roundness” at the boundary surface between polygons. In this case, the calculation for obtaining the vertex luminance information is performed before the image rendering unit 2 performs the polygon drawing process.
It takes place within 00.

【0026】このように、従来の画像合成装置において
は、頂点輝度情報は照明モデル等に基づく演算を実行す
ることで初めて得られるものであった。これに対して、
本実施例では、設計者が所望する任意の頂点輝度情報
を、画像情報付加手段120により与え、この与えられ
た頂点輝度情報に基づいて描画処理部229において各
ピクセルの輝度情報を求める。このような手法を採用す
ることで、少ない種類のテクスチャ情報を用いて豊かな
表現の表示画像を得ることが可能となる。更に、ポリゴ
ンの各頂点に設計者の所望する頂点輝度情報を与えた
後、画像合成装置内の画像合成処理により照明モデルと
法線ベクトルとに基づくシェーディング演算を行い、こ
れにより与えられた頂点輝度情報を変更し、照明モデル
を考慮した陰影付けをポリゴンに施すことも可能であ
る。
As described above, in the conventional image synthesizing apparatus, the vertex luminance information is obtained for the first time by executing the calculation based on the illumination model or the like. On the contrary,
In this embodiment, arbitrary vertex luminance information desired by the designer is given by the image information adding means 120, and the drawing processing unit 229 obtains luminance information of each pixel based on the given vertex luminance information. By adopting such a method, it is possible to obtain a richly expressed display image using a small number of types of texture information. Furthermore, after giving the vertex brightness information desired by the designer to each vertex of the polygon, the shading calculation based on the illumination model and the normal vector is performed by the image composition processing in the image composition device, and the vertex brightness given thereby It is also possible to change the information and apply shading to the polygon in consideration of the lighting model.

【0027】本実施例では、画像情報付加手段120に
より、0.0〜4.0の範囲の輝度情報を与えることが
できる。そして、0.0の輝度情報を与えると「真っ
黒」の色にすることができ、4.0を与えると「真っ
白」の色にすることができ、1.0を与えると標準的な
輝度の下での色にすることができる。
In this embodiment, luminance information in the range of 0.0 to 4.0 can be given by the image information adding means 120. When 0.0 luminance information is given, a “black” color can be obtained. When 4.0 is given, a “white” color can be obtained. When 1.0 is given, a standard luminance can be obtained. Can be under color.

【0028】例えば図3(A)では、ポリゴンの頂点A
〜Dに例えば(1.0、1.O、1.0、1.0)の輝
度情報が与えられる。すると、図3(G)に示すよう
に、テクスチャ情報記憶部242に格納されているテク
スチャ情報(色情報)が輝度変更されずに、そのままポ
リゴンにマッピングされる。また、図3(B)のように
A点の輝度情報を4.0、C点の輝度を0.0とする
と、図3(H)に示すようなテクスチャをマッピングで
きる。図3(H)ではA点の周囲が明るく(真っ白に)
なっておりC点に近づくにつれて暗く(真っ黒に)なっ
ている。また、図3(C)ではA点、C点の輝度を0.
0としており、これによりA点、C点を結ぶ線の周囲が
暗くなるテクスチャをマッピングできる。また、図3
(D)では、A点、D点の輝度情報を4.0としB点、
C点の輝度情報を0.0としており、これによりA点、
D点からB点、C点にゆくにしたがって暗くなるテクス
チャをマッピングできる。また、図3(E)では全ての
頂点輝度情報を0.0としており、図3(F)では全て
の頂点輝度情報を4.0としている。これにより図3
(K)、(L)に示すように真っ黒なテクスチャ、真っ
白なテクスチャをマッピングできる。
For example, in FIG. 3A, the vertex A of the polygon
For example, luminance information of (1.0, 1.O, 1.0, 1.0) is given to .about.D. Then, as shown in FIG. 3G, the texture information (color information) stored in the texture information storage unit 242 is directly mapped to the polygon without changing the luminance. As shown in FIG. 3B, when the luminance information at point A is 4.0 and the luminance at point C is 0.0, a texture as shown in FIG. 3H can be mapped. In FIG. 3 (H), the area around point A is bright (white).
It becomes darker (black) as it approaches point C. In FIG. 3C, the luminance at points A and C is set to 0.
As a result, it is possible to map a texture in which the periphery of a line connecting points A and C becomes dark. In addition, FIG.
In (D), the luminance information of point A and point D is set to 4.0, point B,
The luminance information at point C is set to 0.0.
Textures that become darker from point D to point B and point C can be mapped. In FIG. 3E, all vertex luminance information is set to 0.0, and in FIG. 3F, all vertex luminance information is set to 4.0. As a result, FIG.
As shown in (K) and (L), a black texture and a white texture can be mapped.

【0029】このように本実施例によれば、1種類のテ
クスチャ情報(図3(G))を用いて、図3(H)、
(I)、(J)、(K)、(L)に示すような複数種類
の模様を表現できる。
As described above, according to this embodiment, using one type of texture information (FIG. 3G), FIG.
Multiple types of patterns as shown in (I), (J), (K), and (L) can be expressed.

【0030】さて、図4(A)には、複数のポリゴンで
構成される表示物(オブジェクト)600に対して、光
源602からの光に基づくグーローシェーディングを施
した場合の表示画像の例が示される。このようなグーロ
ーシェーディングを施すことで頂点Aの付近が明るく陰
影付けされた表示画像が得られる。このようなグーロー
シェーディングの演算は画像合成装置内において行われ
るが、この種の画像合成装置は1フィールド期間(例え
ば1/60秒)内に全ての描画処理を完了しなければな
らないため処理の高速性が要求される。従って、グーロ
ーシェーディング演算も高速に行わなければならない。
一方、グーローシェーディングは、光源を設定しこの光
源からの光に基づいて仮想3次元空間内の全てのポリゴ
ンの頂点輝度情報を演算するものであるため、光源の数
が多いほど演算処理に時間を要する。従って、グーロー
シェーディング演算を高速化するためには光源の数をな
るべく少なくする必要があり、本実施例では光源の数は
1個となっている。このようなシステムにおいては2つ
の光源からの光に基づく陰影付けを施すことができな
い。そこで、本実施例では、図4(B)において、頂点
Fに輝度が明るくなるような輝度情報を与え、これによ
り、あたかも2つの光源からの光により陰影付けされて
いるかのような表示画像を得ている。グーローシェーデ
ィングによりこのように複数の光源からの陰影付けを行
おうとすると、全ての表示物に対して陰影付けが施され
ことになるため、処理の高速化が妨げられる。これに対
して、本実施例によれば設計者の所望する表示物に対し
てのみ複数の光源による陰影付けを施すことができ、こ
れにより、処理を高速化できると共に高品質の表示画像
を得ることができる。
FIG. 4A shows an example of a display image when Gouraud shading based on light from the light source 602 is applied to a display object (object) 600 composed of a plurality of polygons. Indicated. By performing such Gouraud shading, a display image in which the vicinity of the vertex A is brightly shaded is obtained. Such Gouraud shading calculation is performed in the image synthesizer. Since this type of image synthesizer must complete all the drawing processes within one field period (for example, 1/60 second), High speed is required. Therefore, Gouraud shading calculation must be performed at high speed.
On the other hand, Gouraud shading sets the light source and calculates the vertex luminance information of all the polygons in the virtual three-dimensional space based on the light from this light source. Cost. Therefore, in order to speed up the Gouraud shading calculation, it is necessary to reduce the number of light sources as much as possible. In this embodiment, the number of light sources is one. In such a system, shading based on light from two light sources cannot be performed. Therefore, in this embodiment, in FIG. 4B, luminance information is given to the vertex F so as to increase the luminance, and as a result, a display image as if shaded by light from two light sources is displayed. It has gained. If shading from a plurality of light sources is performed in this way by Gouraud shading, all the display objects are shaded, which hinders the speeding up of processing. On the other hand, according to the present embodiment, it is possible to apply shading with a plurality of light sources only to a display object desired by the designer, thereby speeding up the process and obtaining a high-quality display image. be able to.

【0031】更に、本実施例によれば、頂点A〜H(H
は図示せず)に設計者の所望する頂点輝度情報を与える
ことで、図4(C)、(D)、(E)に示すように、種
々の表示画像を得ることが可能となる。即ち、図4
(A)に示す表示画像とは異なった模様が施されたよう
に見える種々の表示画像を得ることができる。
Furthermore, according to this embodiment, the vertices A to H (H
4), it is possible to obtain various display images as shown in FIGS. 4C, 4D, and 4E. That is, FIG.
Various display images that appear to have a pattern different from the display image shown in FIG.

【0032】また、本実施例によれば、グーローシェー
ディングでは表現することが困難なハイライト表示を、
簡易に実現できる。そして、このハイライト表示によ
り、例えば窓における反射光等を表現することが可能と
なる。
Further, according to the present embodiment, a highlight display that is difficult to express by Gouraud shading is provided.
It can be realized easily. The highlight display makes it possible to express, for example, reflected light in a window.

【0033】2.仮想3次元空間演算部についての説明 次に、仮想3次元空間演算部100の具体的構成の一例
について説明する。
2. Description of Virtual Three-Dimensional Space Calculation Unit Next, an example of a specific configuration of the virtual three-dimensional space calculation unit 100 will be described.

【0034】図5に示すように、仮想3次元空間演算部
100は、処理部102、仮想3次元空間設定部10
4、移動情報演算部106、オブジェクト情報記憶部1
08、画像情報付加手段120を含む。
As shown in FIG. 5, the virtual three-dimensional space calculation unit 100 includes a processing unit 102 and a virtual three-dimensional space setting unit 10.
4, movement information calculation unit 106, object information storage unit 1
08, which includes image information adding means 120.

【0035】ここで、処理部102では、装置全体の制
御が行われる。また、処理部102内に設けられた記憶
部には、所定のゲームプログラムが記憶されている。仮
想3次元空間演算部100は、このゲームプログラム及
び操作部12からの操作信号にしたがって仮想3次元空
間設定の演算を行うことになる。
Here, the processing unit 102 controls the entire apparatus. A predetermined game program is stored in a storage unit provided in the processing unit 102. The virtual three-dimensional space calculation unit 100 calculates a virtual three-dimensional space setting according to the game program and the operation signal from the operation unit 12.

【0036】移動情報演算部106では、操作部12か
らの操作信号及び処理部102からの指示等にしたがっ
て、未来戦車等の移動体の移動情報が演算される。
In the movement information calculation unit 106, movement information of a moving body such as a future tank is calculated in accordance with an operation signal from the operation unit 12, an instruction from the processing unit 102, and the like.

【0037】オブジェクト情報記憶部108には、仮想
3次元空間を構成する物体の数だけの記憶格納エリアが
あり、各エリアには該物体の位置情報・方向情報及びこ
の位置に表示される表示物のオブジェクトナンバーが記
憶されている(以下、この記憶された位置情報・方向情
報及びオブジェクトナンバーをオブジェクト情報と呼
ぶ)。図6には、オブジェクト情報記憶部108に記憶
されるオブジェクト情報の一例が示される。
The object information storage unit 108 has as many storage storage areas as the number of objects constituting the virtual three-dimensional space. In each area, position information / direction information of the objects and display objects displayed at these positions. Are stored (hereinafter, the stored position information / direction information and object number are referred to as object information). FIG. 6 shows an example of object information stored in the object information storage unit 108.

【0038】オブジェクト情報記憶部108に記憶され
ているオブジェクト情報は、仮想3次元空間設定部10
4により読み出される。この場合、オブジェクト情報記
憶部108には、当該フレームの1つ前のフレームにお
けるオブジェクト情報が記憶されている。そして、仮想
3次元空間設定部104では、読み出されたオブジェク
ト情報と、移動情報演算部106で演算された移動情報
とに基づいて、当該フレームにおけるオブジェクト情報
(位置情報、方向情報)が求められる。
The object information stored in the object information storage unit 108 is stored in the virtual three-dimensional space setting unit 10.
4 is read. In this case, the object information storage unit 108 stores object information in a frame immediately before the frame. Then, the virtual three-dimensional space setting unit 104 obtains object information (position information and direction information) in the frame based on the read object information and the movement information calculated by the movement information calculation unit 106. .

【0039】このようにして、仮想3次元空間設定部1
04では、当該フレームにおける仮想3次元空間を構成
する全ての物体のオブジェクト情報が設定されることに
なる。なお、マップ設定部110は、仮想3次元空間上
に分割されたマップを表示する場合の表示に必要な部分
だけのマップの選択設定を行うものである。
In this way, the virtual three-dimensional space setting unit 1
In 04, the object information of all objects constituting the virtual three-dimensional space in the frame is set. Note that the map setting unit 110 selects and sets only a map necessary for display when a map divided in the virtual three-dimensional space is displayed.

【0040】3.画像供給部についての説明 次に、画像供給部210の具体的構成の一例について説
明する。
3. Description of Image Supply Unit Next, an example of a specific configuration of the image supply unit 210 will be described.

【0041】画像供給部210は、図7に示すように、
オブジェクト画像情報記憶部212、処理部215、座
標変換部218、頂点輝度演算部219、クリッピング
処理部220、ポリゴンデータ変換部224、ソーティ
ング処理部226を含んでいる。また、クリッピング処
理部220は、透視投影変換部222を含んでいる。画
像供給部210では、仮想3次元空間演算部100によ
り設定された仮想3次元空間の設定情報にしたがって、
各種の座標変換処理、3次元演算処理が行われる。
As shown in FIG. 7, the image supply unit 210
An object image information storage unit 212, a processing unit 215, a coordinate conversion unit 218, a vertex luminance calculation unit 219, a clipping processing unit 220, a polygon data conversion unit 224, and a sorting processing unit 226 are included. The clipping processing unit 220 includes a perspective projection conversion unit 222. In the image supply unit 210, according to the setting information of the virtual three-dimensional space set by the virtual three-dimensional space calculation unit 100,
Various coordinate conversion processes and three-dimensional calculation processes are performed.

【0042】即ち、まず、図8に示すように、未来戦
車、マップ等を表すオブジェクト300、333、33
4の画像情報を、ローカル座標系からワールド座標系
(XW、YW、ZW)に座標変換する処理が行われる。次
に、これらの座標変換された画像情報を、プレーヤ30
2の視点を基準とした視点座標系(Xv、Yv、Zv)
へ座標変換する処理が行われる。これらの座標変換処理
は、座標変換部218により行われる。その後、いわゆ
るクリッピング処理がクリッピング処理部222により
行われ、次に、スクリーン座標系(XS、YS)への透視
投影変換処理が透視投影変換部222により行われる。
次に、出力されるポリゴンフォーマットの変換処理がポ
リゴンデータ変換部224により行われ、最後に、必要
であればソーティング処理がソーティング処理部226
により行われる。
That is, first, as shown in FIG. 8, objects 300, 333 and 33 representing future tanks, maps and the like.
4 is converted from the local coordinate system to the world coordinate system (XW, YW, ZW). Next, these coordinate-converted image information is stored in the player 30.
Viewpoint coordinate system based on 2 viewpoints (Xv, Yv, Zv)
The process of converting the coordinates to is performed. These coordinate conversion processes are performed by the coordinate conversion unit 218. Thereafter, so-called clipping processing is performed by the clipping processing unit 222, and then perspective projection conversion processing to the screen coordinate system (XS, YS) is performed by the perspective projection conversion unit 222.
Next, conversion processing of the output polygon format is performed by the polygon data conversion unit 224. Finally, if necessary, sorting processing is performed by the sorting processing unit 226.
Is done.

【0043】さて、本実施例においては、位置情報、方
向情報、オブジェクトナンバーを含むオブジェクト情報
は、仮想3次元空間演算部100から処理部215へと
転送される。そして、この転送されたオブジェクトナン
バーをアドレスとして、オブジェクト画像情報記憶部2
12から対応するオブジェクトの画像情報が読み出され
る。オブジェクト画像情報記憶部212には、表示物の
画像情報が複数枚のポリゴンの集合(多面体)として表
現され格納されている。処理部215は、データフォー
マット形成部217によりこの読み出されたデータから
フレームデータ、オブジェクトデータ及びポリゴンデー
タを組にしたデータを形成して、座標変換部218以降
へと順次転送する。
In this embodiment, object information including position information, direction information, and object number is transferred from the virtual three-dimensional space calculation unit 100 to the processing unit 215. The object image information storage unit 2 uses the transferred object number as an address.
12, image information of the corresponding object is read out. In the object image information storage unit 212, image information of a display object is expressed and stored as a set (polyhedron) of a plurality of polygons. The processing unit 215 forms data in which frame data, object data, and polygon data are paired from the data read out by the data format forming unit 217, and sequentially transfers the data to the coordinate conversion unit 218 and subsequent units.

【0044】ここで、フレームデータは、仮想3次元空
間内でのプレーヤ302等の視点情報、視野角、光源ベ
クトル、光源の明るさ、拡散周囲光等のデータを含むも
のである。また、オブジェクトデータは、オブジェクト
の位置情報、回転情報、その他の付属データ等で構成さ
れるデータである。また、ポリゴンデータは、オブジェ
クトを構成するポリゴンについての画像情報であり、ポ
リゴンの頂点座標、頂点テクスチャ座標、頂点輝度情
報、その他の付属データで構成されるデータである。こ
れらのデータは、データフォーマット形成部217によ
り、図9(A)、(B)に示すようなデータフォーマッ
トに変換される。図9(A)に示すように、このデータ
フォーマットでは、フレームデータを先頭に、該フレー
ムにおいて表示されるオブジェクトのデータが連なって
いる。そして、これらのオブジェクトデータを先頭に、
該オブジェクトを構成するポリゴンのデータが連なって
いる。そして、これらの各々のポリゴンデータは、図9
(B)に示すように、ヘッダと、ポリゴンの各頂点に与
えられる頂点輝度情報、頂点テクスチャ座標、頂点座標
とを含んでいる。
Here, the frame data includes data such as viewpoint information of the player 302 in the virtual three-dimensional space, viewing angle, light source vector, light source brightness, diffuse ambient light, and the like. The object data is data including object position information, rotation information, and other attached data. Polygon data is image information about polygons constituting an object, and is data constituted by polygon vertex coordinates, vertex texture coordinates, vertex luminance information, and other attached data. These data are converted into a data format as shown in FIGS. 9A and 9B by the data format forming unit 217. As shown in FIG. 9A, in this data format, the frame data is the head and the data of the object displayed in the frame is continuous. And with these object data at the top,
Polygon data constituting the object is continuous. Each of these polygon data is shown in FIG.
As shown in (B), a header, vertex luminance information given to each vertex of the polygon, vertex texture coordinates, and vertex coordinates are included.

【0045】さて、本実施例では、頂点輝度情報は、画
像情報付加手段120によりあらかじめ与えられている
場合のみ図9(B)のポリゴンデータに含まれている。
従って、画像情報付加手段120により与えられていな
い場合、データフォーマット形成部217から出力され
た段階ではポリゴンデータには頂点輝度情報は含まれて
いない。そして、この場合には、頂点輝度演算部219
によりそのポリゴンについての頂点輝度情報が求められ
る。この頂点輝度演算部219では、座標変換部218
によりワールド座標系に座標変換された法線ベクトル
(ポリゴンの各頂点に与えられる)、フレームデータに
含まれる光源ベクトル・光源の明るさ・拡散周囲光等の
データ、及びランバード拡散反射モデルあるいは鏡面反
射モデル等の照明モデルに基づいて、ポリゴンの頂点輝
度情報を求める演算が行われる。そして、この求められ
た頂点輝度情報は図9(B)に示すフォーマットでポリ
ゴンデータに付加される。
In this embodiment, the vertex luminance information is included in the polygon data shown in FIG. 9B only when it is given in advance by the image information adding means 120.
Therefore, when not provided by the image information adding means 120, the vertex data is not included in the polygon data at the stage of output from the data format forming unit 217. In this case, the vertex luminance calculation unit 219 is used.
To obtain vertex luminance information for the polygon. In the vertex luminance calculation unit 219, the coordinate conversion unit 218
Normal vector (contributed to each vertex of polygon) transformed into world coordinate system by, data such as light source vector, light source brightness, diffuse ambient light, etc. included in frame data, and Lambert diffuse reflection model or specular reflection Based on an illumination model such as a model, a calculation for obtaining vertex luminance information of the polygon is performed. The obtained vertex luminance information is added to the polygon data in the format shown in FIG. 9B.

【0046】例えばランバード拡散反射モデルを用いて
頂点輝度情報を演算する場合は以下のようにする。即ち
光の強度iは、光のスペキュラー(鏡面反射光)成分
(ps)、アンビエント(環境光)成分(pa)とデフュ
ーズ(拡散反射光)成分(pd)により一般的には次式
のように表される。 i=pa+pd×d+ps×s 上式におけるd、sを決め方によって様々なモデルが存
在するが、ランバード拡散反射モデルでは、光の強度を
求める際に光のアンビエント成分とデフューズ成分だけ
を考慮する。従って、このモデルは次式のように表すこ
とができる。 i=pa+pd×d 上式におけるデフューズ成分の係数dは、法線ベクトル
Nと光線ベクトルLの内積N・Lにより次式のように表
される。
For example, when the vertex luminance information is calculated using the Lambert diffuse reflection model, the following is performed. That light intensity i, the optical specular (specular reflection light) component (p s), generally following equation by ambient (environmental light) component (p a) and Defuyuzu (diffuse reflected light) component (p d) It is expressed as i = p a + p d × d + p s × s d in the above formula, but different models by way decided s are present, the Lambert diffuse reflection model, only ambient component and Defuyuzu component of light in determining the intensity of light Consider. Therefore, this model can be expressed as: i = p a + p d × coefficient of Defuyuzu components in d above formula d is the inner product N · L of the normal vector N and the light vector L is expressed by the following equation.

【0047】d=max(0、N・L) このように、照明モデルを用いる場合には、法線ベクト
ルN、光線ベクトルN等を用いて頂点輝度情報が求めら
れる。これに対して本実施例では、一部の表示物を構成
するポリゴンに対しては、照明モデルにより頂点輝度情
報を求めるのではなく、設計者の所望する任意の頂点輝
度情報を画像情報付加手段120により与える。これに
より、ポリゴン内の各ピクセルの輝度を照明モデルとは
無関係に制御することができ、前述の図3(G)〜
(L)に示すように1種類のテクスチャ情報を用いて種
々の表現が可能となる。
D = max (0, N · L) As described above, when the illumination model is used, vertex luminance information is obtained using the normal vector N, the light vector N, and the like. On the other hand, in this embodiment, for the polygons constituting a part of the display object, the vertex luminance information is not obtained by the illumination model, but the arbitrary vertex luminance information desired by the designer is used as the image information adding means. 120. Thereby, the brightness of each pixel in the polygon can be controlled regardless of the illumination model.
As shown in (L), various expressions are possible using one type of texture information.

【0048】もちろん、このようにして与えた頂点輝度
情報に対して、上記に示したような照明モデルを用いて
変更処理を加えることも可能である。これにより、例え
ば、複数の光源により陰影付けされる等の豊かな表現の
表示画像を得ることができる。
Of course, it is possible to add a change process to the vertex luminance information given in this way using the illumination model as described above. Thereby, for example, it is possible to obtain a display image with rich expression such as being shaded by a plurality of light sources.

【0049】5.画像形成部についての説明 次に、画像形成部228の具体的構成の一例について説
明する。
5. Description of Image Forming Unit Next, an example of a specific configuration of the image forming unit 228 will be described.

【0050】画像形成部228は、画像供給部210か
ら与えられたポリゴンの各頂点の画像情報に基づいてポ
リゴン内の各ピクセルの画像情報を求め、これをディス
プレイ10に出力るものであり、図10に示すように、
描画処理部229、テクスチャ情報記憶部242、パレ
ット&ミキサ回路244を含む。
The image forming unit 228 obtains image information of each pixel in the polygon based on the image information of each vertex of the polygon given from the image supply unit 210, and outputs the image information to the display 10. As shown in Figure 10,
A drawing processing unit 229, a texture information storage unit 242, and a palette & mixer circuit 244 are included.

【0051】まず、テクスチャマッピング手法、グーロ
ーシェーディング手法について簡単に説明する。
First, the texture mapping method and the Gouraud shading method will be briefly described.

【0052】図11には、テクスチャマッピング手法の
概念について示される。
FIG. 11 shows the concept of the texture mapping method.

【0053】図11に示すようなオブジェクト332の
各面に例えば格子状、縞状の模様等が施されたものを画
像合成する場合には、従来は、オブジェクトをポリゴン
(1)〜(80)(ポリゴン(41)〜(80)については図示せず)
に分割し、これらの全てのポリゴンに対して画像処理を
行っていた。その理由は、従来の画像合成装置では、1
つのポリゴン内の色の塗りつぶしは、指定された一つの
色でしか行えなかったためである。この結果、複雑な模
様等が施された高品質な画像を合成する場合には、ポリ
ゴン数が非常に増加してしまうため、実質的に、このよ
うな高品質の画像を合成することは不可能であった。
For example, in the case of compositing an image in which each surface of an object 332 as shown in FIG. 11 is provided with, for example, a grid pattern or a striped pattern, the object is a polygon.
(1) to (80) (Polygons (41) to (80) are not shown)
The image processing is performed on all these polygons. The reason is that in the conventional image synthesizing apparatus, 1
This is because the color in one polygon can only be filled with one specified color. As a result, when a high-quality image with a complicated pattern or the like is synthesized, the number of polygons is greatly increased. Therefore, it is virtually impossible to synthesize such a high-quality image. It was possible.

【0054】そこで、本実施例では、オブジェクト33
2の回転、並進、透視投影変換等の座標変換及びクリッ
ピング等の処理を、各面を構成するポリゴンA、B、C
ごとに行い(具体的には各ポリゴンの頂点ごと)、格子
状、縞状の模様については、テクスチャとして取り扱
い、ポリゴンの処理と分割して処理を行っている。即
ち、図10に示すように画像形成部228内にはテクス
チャ情報記憶部242が設けられ、この中には各3次元
ポリゴンにマッピングすべきテクスチャ情報、つまり格
子状、縞状の模様等の画像情報が記憶されている。
In this embodiment, therefore, the object 33
The polygons A, B, and C constituting each surface are subjected to coordinate transformation such as rotation, translation, perspective projection transformation, and clipping of 2 and clipping.
(Specifically, for each vertex of each polygon), and the grid-like and striped patterns are handled as textures, and are processed separately from polygon processing. That is, as shown in FIG. 10, a texture information storage unit 242 is provided in the image forming unit 228, in which texture information to be mapped to each three-dimensional polygon, that is, an image such as a grid pattern or a striped pattern. Information is stored.

【0055】そして、このテクスチャ情報を指定するテ
クスチャ情報記憶部242のアドレスを、各3次元ポリ
ゴンの頂点テクスチャ座標VTX、VTYとして与えてお
く。具体的には、図11に示すように、ポリゴンAの各
頂点に対しては、(VTX0、VTY0)、(VTX1、VT
Y1)、(VTX2、VTY2)、(VTX3、VTY3)の頂点
テクスチャ座標が設定される。
The address of the texture information storage unit 242 for designating the texture information is given as vertex texture coordinates VTX and VTY of each three-dimensional polygon. Specifically, as shown in FIG. 11, for each vertex of the polygon A, (VTX0, VTY0), (VTX1, VT
The vertex texture coordinates of (Y1), (VTX2, VTY2), (VTX3, VTY3) are set.

【0056】画像形成部228内の描画処理部229で
は、この頂点テクスチャ座標VTX、VTYから、ポリゴ
ン内の全てのドットについてのテクスチャ座標TX、TY
が求められる。そして、求められたテクスチャ座標T
X、TYにより、テクスチャ情報記憶部242から対応す
るテクスチャ情報が読み出され、パレット&ミキサ回路
244に出力される。これにより、図11に示すよう
な、格子状、縞状等のテクスチャがマッピングされた3
次元オブジェクトを画像合成することが可能となる。
次に、グーローシェーディング手法について説明する。
In the drawing processing unit 229 in the image forming unit 228, the texture coordinates TX, TY for all the dots in the polygon are obtained from the vertex texture coordinates VTX, VTY.
Is required. And the obtained texture coordinate T
The corresponding texture information is read from the texture information storage unit 242 by X and TY, and is output to the palette & mixer circuit 244. As a result, as shown in FIG.
It becomes possible to synthesize a dimensional object.
Next, the Gouraud shading method will be described.

【0057】本実施例ではオブジェクト332をポリゴ
ンの固まりとして表現している。従って、各ポリゴンの
境界における輝度情報の連続性が問題となる。例えば複
数のポリゴンを用いて球を表現しようとする場合、ポリ
ゴン内の全ドットが全て同じ輝度に設定されると、実際
は「丸み」を表現したいのに、図12のKに示すように
各ポリゴンの境界が「丸み」として表現されない事態が
生じる。そこで、本実施例では、グーローシェーディン
グと呼ばれる手法によりこれを回避している。この手法
では、前記したテクスチャマッピング手法と同様に、3
次元ポリゴンの各頂点に図11に示すように頂点輝度情
報VBRI0〜VBRI3を与えておき、画像形成部22
8で最終的に画像表示する際に、この頂点輝度情報VB
RI0〜VBRI3より3次元ポリゴン内の全てのドット
についての輝度情報を補間により求めている。これによ
り図12のLに示すように境界における「丸み」を表現
することが可能になる。また、所定の照明モデルに基づ
いた陰影付けが可能となる。 図13(A)〜(K)に
は、画像形成部228で行われる演算処理の流れが視覚
的に示されている。画像形成部228では、ポリゴンの
頂点の画像情報から各ピクセルにおける画像情報が求め
られるが、図13(A)〜(K)では、画像情報の中の
テクスチャ座標を求める演算処理が視覚的に示されてい
る。
In this embodiment, the object 332 is expressed as a block of polygons. Therefore, the continuity of luminance information at the boundary of each polygon becomes a problem. For example, when a sphere is expressed using a plurality of polygons, if all the dots in the polygon are set to the same brightness, each polygon is actually shown as “K” in FIG. There is a situation where the boundary is not expressed as "roundness". Therefore, in this embodiment, this is avoided by a technique called Gouraud shading. In this method, as in the texture mapping method described above, 3
The vertex luminance information VBRI0 to VBRI3 is given to each vertex of the three-dimensional polygon as shown in FIG.
8 when the image is finally displayed.
Luminance information for all dots in the three-dimensional polygon is obtained by interpolation from RI0 to VBRI3. This makes it possible to express “roundness” at the boundary as indicated by L in FIG. In addition, shading based on a predetermined illumination model is possible. FIGS. 13A to 13K visually show the flow of arithmetic processing performed in the image forming unit 228. In the image forming unit 228, image information at each pixel is obtained from the image information of the vertices of the polygons. In FIGS. 13A to 13K, a calculation process for obtaining the texture coordinates in the image information is visually shown. Has been.

【0058】そして、頂点輝度情報については、テクス
チャ座標を求める場合と同様の処理で求められる。
The vertex luminance information is obtained by the same process as that for obtaining the texture coordinates.

【0059】ポリゴンにマッピングすべきテクスチャ情
報は、テクスチャ情報記憶部242に記憶されており、
このテクスチャ情報を読み出すために、テクスチャ座標
TX、TYが必要となる。図13(F)、(G)、
(H)、(I)には、ポリゴン内のピクセルの透視投影
変換テクスチャ座標TX*、TY*を求める演算処理が視覚
的に示されている。また、図13(B)、(C)、
(D)、(E)には、テクスチャを表示すべき座標であ
る透視投影変換表示座標X*、Y*を求める演算処理の様
子が視覚的に示されている。以上の演算は描画処理部2
29により行われる。そして、図13(J)に示すよう
に、演算された透視投影変換テクスチャ座標TX*、TY*
はテクスチャ座標TX、TYに逆透視投影変換され、この
逆透視投影変換されたテクスチャ座標TX、TYにより、
テクスチャ情報記憶部242からテクスチャ情報が読み
出される。最後に、図13(K)に示すように、演算さ
れたX*、Y*の座標位置に、読み出されたテクスチャ情
報を対応づけることで、画像合成が実現される。
The texture information to be mapped to the polygon is stored in the texture information storage unit 242.
In order to read out the texture information, texture coordinates TX and TY are required. 13 (F), (G),
In (H) and (I), arithmetic processing for obtaining perspective projection transformation texture coordinates TX * and TY * of pixels in a polygon is visually shown. In addition, FIGS. 13B, 13C,
In (D) and (E), the state of calculation processing for obtaining perspective projection transformation display coordinates X * and Y * , which are coordinates for displaying a texture, is visually shown. The above calculation is performed by the drawing processing unit 2.
29. Then, as shown in FIG. 13J, the calculated perspective projection transformation texture coordinates TX * , TY *
Is subjected to inverse perspective projection conversion to texture coordinates TX and TY, and by the texture coordinates TX and TY subjected to inverse perspective projection conversion,
Texture information is read from the texture information storage unit 242. Finally, as shown in FIG. 13 (K), image synthesis is realized by associating the read texture information with the calculated coordinate positions of X * and Y * .

【0060】図14には、テクスチャ情報記憶部242
により構成されるテクスチャ記憶平面の一例が示され
る。このテクスチャ情報記憶部242には各種のテクス
チャの情報(色情報等)が記憶されている。そして、こ
のテクスチャ情報記憶部242は、通常、ROM等で構
成されるため、記憶されるテクスチャの種類を増やすと
メモリが大容量化し、これは回路の大規模化、コストの
上昇を招く。これに対して、本実施例では、表示物に所
望の模様が表現されるように表示物を構成するポリゴン
に対して頂点輝度情報を付与することで、少ない種類の
テクスチャ情報を用いて種々の表現が可能となる。これ
により、テクスチャ情報記憶部242を小容量化し、コ
ストの低減化を図ることが可能となる。
FIG. 14 shows a texture information storage unit 242.
An example of a texture storage plane constituted by is shown. The texture information storage unit 242 stores various types of texture information (color information and the like). Since the texture information storage unit 242 is normally composed of a ROM or the like, if the number of stored textures is increased, the memory becomes larger in capacity, which leads to an increase in circuit scale and cost. On the other hand, in the present embodiment, vertex luminance information is given to the polygons constituting the display object so that a desired pattern is expressed on the display object, so that various kinds of texture information can be used. Expression is possible. Thereby, the capacity of the texture information storage unit 242 can be reduced, and the cost can be reduced.

【0061】パレット&ミキサ回路244は、描画処理
部229により得られた輝度情報、テクスチャ情報記憶
部242から読み出されたテクスチャ情報等に基づい
て、各ピクセルについてRGBデータを生成するもので
ある。このパレット&ミキサ回路244で生成されたR
GBデータはディスプレイ10に出力され、これにより
表示画像を得ることができる。
The palette & mixer circuit 244 generates RGB data for each pixel based on the luminance information obtained by the drawing processing unit 229, the texture information read from the texture information storage unit 242, and the like. R generated by the palette & mixer circuit 244
The GB data is output to the display 10, whereby a display image can be obtained.

【0062】なお、本発明は上記実施例に限定されるも
のではなく、本発明の要旨の範囲内で種々の変形実施が
可能である。
It should be noted that the present invention is not limited to the above-described embodiments, and various modifications can be made within the scope of the gist of the present invention.

【0063】例えば、本発明は、業務用の3次元ゲーム
のみならず、例えば、家庭用のゲーム装置、フライトシ
ミュレータ、教習所等で使用されるドライビングシミュ
レータ等にも適用することができる。更に、多数のプレ
ーヤが参加する大型アトラクション型のゲーム装置、シ
ミュレーション装置にも適用できる。
For example, the present invention can be applied not only to a commercial three-dimensional game but also to, for example, a home game device, a flight simulator, a driving simulator used in a school, and the like. Furthermore, the present invention can be applied to a large attraction type game apparatus and simulation apparatus in which a large number of players participate.

【0064】また、本発明において仮想3次元空間演算
手段、画像合成手段等において行われる演算処理は、専
用の画像処理デバイスを用いて処理してもよいし、汎用
のマイクロコンピュータ、DSP等を利用してソフトウ
ェア的に処理してもよい。
In the present invention, the arithmetic processing performed in the virtual three-dimensional space arithmetic means, the image synthesizing means, etc. may be performed using a dedicated image processing device, or a general-purpose microcomputer, DSP or the like is used. Then, it may be processed by software.

【0065】更に、仮想3次元空間演算手段、画像合成
手段等で行われる演算処理も本実施例で説明したものに
限定されるものではなく、例えばテクスチャマッピング
の手法等も上記に説明したものに限られない。
Further, the arithmetic processing performed by the virtual three-dimensional space arithmetic means, the image synthesizing means, etc. is not limited to the one described in the present embodiment, and the texture mapping method and the like are also as described above. Not limited.

【0066】また、本発明により画像合成された疑似3
次元画像は、ヘッドマウントディスプレイ(HMD)と
呼ばれるディスプレイにも当然に表示できる。
In addition, the pseudo-3 synthesized image according to the present invention.
The dimensional image can naturally be displayed on a display called a head mounted display (HMD).

【0067】[0067]

【発明の効果】発明によれば、少ない種類のテクスチ
ャ情報を用いて、豊かな表現の表示画像を得ることがで
きる。これにより、テクスチャ情報を記憶するテクスチ
ャ情報記憶手段の記憶容量を少なくすることができコス
トの低減化を図ることができると共に、得られる表示画
像のバラエティを高めることができ、高品質の表示画像
を得ることができる。
According to the present invention, a richly expressed display image can be obtained by using a small number of types of texture information. As a result, the storage capacity of the texture information storage means for storing the texture information can be reduced, the cost can be reduced, the variety of display images obtained can be increased, and a high quality display image can be obtained. Can be obtained.

【0068】また、発明によれば、ポリゴンに与えら
れる頂点輝度情報が各ポリゴン毎に異なるように表示物
の画像情報を画像情報記憶手段に格納することで、少な
い記憶容量のテクスチャ情報記憶手段を用いて、豊かな
表現の表示画像を得ることができる。
Further, according to the present invention, the texture information storage means having a small storage capacity can be obtained by storing the image information of the display object in the image information storage means so that the vertex luminance information given to the polygon differs for each polygon. Can be used to obtain a richly displayed image.

【0069】また、発明によれば、照明モデルに基づ
く陰影付けが施された、よりリアルな表示画像を得るこ
とができる。
Further, according to the present invention, it is possible to obtain a more realistic display image that is shaded based on the illumination model.

【0070】また、発明によれば、仮想3次元空間内
の一部の表示物に対して多数の光源に基づく陰影付けを
行うことができる。これにより、処理の高速化を妨げず
に表示画像の表現を豊かにすることができる。
Further, according to the present invention, it is possible to perform shading based on a large number of light sources on some display objects in the virtual three-dimensional space. As a result, it is possible to enrich the display image without impeding the speeding up of processing.

【0071】[0071]

【図面の簡単な説明】[Brief description of the drawings]

【図1】本実施例のブロック図の一例であるFIG. 1 is an example of a block diagram of the present embodiment

【図2】仮想3次元空間を説明するための図である。FIG. 2 is a diagram for explaining a virtual three-dimensional space.

【図3】図3(A)〜(F)は、ポリゴンの各頂点に種
々の輝度情報を与えた場合の例を示す図であり、図3
(G)〜(L)は、この時に得られる表示画像の例を示
す図である。
3 (A) to 3 (F) are diagrams showing an example in which various luminance information is given to each vertex of a polygon.
(G)-(L) are figures which show the example of the display image obtained at this time.

【図4】図4(A)〜(E)は、本実施例より得られる
種々の表示画像を示す図である。
4A to 4E are diagrams showing various display images obtained from this embodiment. FIG.

【図5】仮想3次元空間演算部の詳細な構成の一例を示
すブロック図の一例である。
FIG. 5 is an example of a block diagram illustrating an example of a detailed configuration of a virtual three-dimensional space calculation unit.

【図6】オブジェクト情報記憶部に記憶されるオブジェ
クト情報について説明するための図である。
FIG. 6 is a diagram for explaining object information stored in an object information storage unit;

【図7】画像供給部の詳細な構成の一例を示すブロック
図である。
FIG. 7 is a block diagram illustrating an example of a detailed configuration of an image supply unit.

【図8】本実施例における3次元演算処理について説明
するための図である。
FIG. 8 is a diagram for explaining a three-dimensional calculation process in the embodiment.

【図9】図9(A)、(B)は、データフォーマット形
成部で形成されるデータフォーマットの一例を示す図で
ある。
FIGS. 9A and 9B are diagrams illustrating an example of a data format formed by a data format forming unit.

【図10】画像形成部の詳細な構成の一例を示すブロッ
ク図である。
FIG. 10 is a block diagram illustrating an example of a detailed configuration of an image forming unit.

【図11】テクスチャマッピング手法を説明するための
図である。
FIG. 11 is a diagram for explaining a texture mapping method;

【図12】グーローシェーディング手法を説明するため
の図である。
FIG. 12 is a diagram for explaining a Gouraud shading method;

【図13】図13(A)〜(K)は、本実施例における
テクスチャマッピング手法を視覚的に表した図である。
FIGS. 13A to 13K are diagrams visually showing a texture mapping method in the present embodiment.

【図14】テクスチャ情報記憶部により構成されるテク
スチャ記憶平面の一例を示す図である。
FIG. 14 is a diagram illustrating an example of a texture storage plane configured by a texture information storage unit.

【図15】3次元の画像合成装置の概念を説明するため
の概略説明図である。
FIG. 15 is a schematic explanatory diagram for explaining the concept of a three-dimensional image composition device.

【符号の説明】[Explanation of symbols]

10 ディスプレイ 12 操作部 100 仮想3次元空間演算部 102 処理部 104 仮想3次元空間設定部 106 移動情報演算部 108 オブジェクト情報記憶部 110 マップ設定部 120 画像情報付加手段 200 画像合成部 210 画像供給部 212 オブジェクト画像情報記憶部 215 処理部 217 データフォーマット形成部 218 座標変換部 219 頂点輝度演算部 220 クリッピング処理部 222 透視投影変換部 224 ポリゴンデータ変換部 228 画像形成部 226 ソーティング処理部 229 描画処理部 242 テクスチャ情報記憶部 244 パレット&ミキサ回路 10 display 12 Operation unit 100 Virtual three-dimensional space calculation unit 102 processing unit 104 Virtual 3D space setting unit 106 Movement information calculation unit 108 Object information storage unit 110 Map setting section 120 Image information adding means 200 Image composition part 210 Image supply unit 212 Object image information storage unit 215 processing section 217 Data format forming part 218 Coordinate converter 219 Vertex luminance calculation unit 220 Clipping processing unit 222 Perspective projection converter 224 Polygon data converter 228 Image forming unit 226 Sorting processor 229 Drawing processing unit 242 Texture information storage unit 244 Pallet & mixer circuit

フロントページの続き (58)調査した分野(Int.Cl.7,DB名) G06T 15/00 - 15/60 A63F 13/00 Continued from front page (58) Fields surveyed (Int.Cl. 7 , DB name) G06T 15/00-15/60 A63F 13/00

Claims (6)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 仮想3次元空間における任意の視点から
の視界画像を合成するための画像合成装置であって、 表示物を構成するポリゴンの各頂点に対して少なくとも
頂点輝度情報、頂点テクスチャ座標を含む画像情報を与
える画像情報付加手段と、 前記画像情報に含まれる前記頂点輝度情報に基づいてポ
リゴン内の各ピクセルの輝度情報を求めると共に、前記
画像情報に含まれる前記頂点テクスチャ座標に基づいて
ポリゴン内の各ピクセルのテクスチャ座標を求める描画
処理手段と、 ポリゴンへマッピングすべきテクスチャの情報が、前記
テクスチャ座標で指定されるアドレス位置に格納されて
いるテクスチャ情報記憶手段と 所定の照明モデルに基づいて表示物を構成するポリゴン
の頂点輝度情報を求める頂点輝度演算手段とを含み、 前記画像情報付加手段が、複数のポリゴンに対して同一
のテクスチャをマッピングするために同一の前記頂点テ
クスチャ座標を与えると共に、前記同一のテクスチャが
マッピングされるポリゴン間でポリゴン内のピクセルの
輝度情報を異ならせるために各ポリゴンに対して与える
前記頂点輝度情報を異ならせ 該頂点輝度演算手段が、前記画像情報付加手段によりポ
リゴンに対して与えられた前記頂点輝度情報を前記照明
モデルに基づく陰影付けが施されるように変更する こと
を特徴とする画像合成装置。
1. An image synthesizing apparatus for synthesizing a field-of-view image from an arbitrary viewpoint in a virtual three-dimensional space, comprising at least vertex luminance information and vertex texture coordinates for each vertex of a polygon constituting a display object. Image information adding means for providing image information including; obtaining luminance information of each pixel in the polygon based on the vertex luminance information included in the image information; and polygon based on the vertex texture coordinates included in the image information a drawing processing means for obtaining the texture coordinates of each pixel of the inner, texture information to be mapped to the polygon, and texture information storing means stored in the address location specified by the texture coordinates, based on a predetermined illumination model Polygons that make up the display
Vertex luminance calculation means for obtaining the vertex luminance information of the image , and the image information adding means provides the same vertex texture coordinates for mapping the same texture to a plurality of polygons, and the same texture is The vertex luminance information given to each polygon in order to make the luminance information of the pixels in the polygons different among the polygons to be mapped , and the vertex luminance calculation means is set by the image information adding means.
The vertex luminance information given to the LIGON
An image synthesizing apparatus that is modified so as to be shaded based on a model .
【請求項2】 請求項1において、 複数のポリゴンで構成される表示物の画像情報を格納す
る画像情報記憶手段を含み、 前記画像情報付加手段が、各頂点にあらかじめ前記頂点
輝度情報が与えられたポリゴンにより構成される表示物
の画像情報を前記画像情報記憶手段に対して格納するこ
とで、各ポリゴンに対して与える前記頂点輝度情報を異
ならせることを特徴とする画像合成装置。
2. The image information storage means according to claim 1, further comprising image information storage means for storing image information of a display object composed of a plurality of polygons, wherein the image information adding means is provided with the vertex luminance information in advance for each vertex. An image synthesizing apparatus characterized in that the vertex luminance information given to each polygon is made different by storing image information of a display object composed of polygons in the image information storage means.
【請求項3】 請求項1又は2において、 前記頂点輝度演算手段がN個(Nは1以上の整数)の仮
想的な光源からの光に基づいて前記頂点輝度情報を求め
る演算を行い、前記画像情報付加手段が、仮想3次元空
間内にある一部の表示物がM個(Mは前記N以上の整
数)の仮想的な光源からの光により陰影付けされるよう
に該一部の表示物に対して前記頂点輝度情報を与えるこ
とを特徴とする画像合成装置。
3. The vertex luminance calculation means according to claim 1 , wherein the vertex luminance calculation means performs an operation for obtaining the vertex luminance information based on light from N (N is an integer of 1 or more) virtual light sources, and The image information adding means displays the partial display so that the partial display object in the virtual three-dimensional space is shaded by light from M (M is an integer equal to or greater than N) virtual light sources. An image synthesizing apparatus that gives the vertex luminance information to an object.
【請求項4】 仮想3次元空間における任意の視点から
の視界画像を合成するための画像合成方法であって、 表示物を構成するポリゴンの各頂点に対して少なくとも
頂点輝度情報、頂点テクスチャ座標を含む画像情報を与
える第1のステップと、 前記画像情報に含まれる前記頂点輝度情報に基づいてポ
リゴン内の各ピクセルの輝度情報を求めると共に、前記
画像情報に含まれる前記頂点テクスチャ座標に基づいて
ポリゴン内の各ピクセルのテクスチャ座標を求める第2
のステップと、 該第2のステップで求められたテクスチャ座標に基づい
てポリゴンへマッピングすべきテクスチャの情報を読み
出す第3のステップと 所定の照明モデルに基づいて表示物を構成するポリゴン
の頂点輝度情報を求める第4のステップとを含み、 前記第1のステップにおいて、表示物を構成する複数の
ポリゴンに対して同一のテクスチャをマッピングするた
めに同一の前記頂点テクスチャ座標を与えると共に、前
記同一のテクスチャがマッピングされるポリゴン間でポ
リゴン内のピクセルの輝度情報を異ならせるために各ポ
リゴンに対して与える前記頂点輝度情報を異ならせ、 前記第4のステップにおいて、前記第1のステップでポ
リゴンに対して与えられた前記頂点輝度情報を前記照明
モデルに基づく陰影付けが施されるように変更する こと
を特徴とする画像合成方法。
4. An image composition method for compositing a view image from an arbitrary viewpoint in a virtual three-dimensional space, wherein at least vertex luminance information and vertex texture coordinates are obtained for each vertex of a polygon constituting a display object. A first step of providing image information including: obtaining luminance information of each pixel in the polygon based on the vertex luminance information included in the image information; and a polygon based on the vertex texture coordinates included in the image information Second to find the texture coordinates of each pixel in
Polygons constituting the steps, a third step of reading information of the texture to be mapped to the polygon based on the texture coordinates determined by the second step, a display object based on the predetermined illumination model
A fourth step of obtaining vertex luminance information of the same, and in the first step, giving the same vertex texture coordinates to map the same texture to a plurality of polygons constituting the display object, thereby varies the vertex brightness information given to each polygon in order to vary the luminance information of the pixels in the polygon between polygons the same texture is mapped, in the fourth step, in the first step Po
The vertex luminance information given to the LIGON
A method of synthesizing an image, wherein the image is modified so that shading based on the model is applied .
【請求項5】 請求項4において、 前記第1のステップでは、各頂点にあらかじめ前記頂点
輝度情報が与えられたポリゴン により構成される表示物
の画像情報を、複数のポリゴンで構成される表示物の画
像情報を格納する画像情報記憶手段に対して格納するこ
とで、各ポリゴンに対して与える前記頂点輝度情報を異
ならせることを特徴とする画像合成方法。
5. A method according to claim 4, wherein in said first step, each vertex is preliminarily assigned to said vertex.
Display object composed of polygons given brightness information
Image information of the display object consisting of multiple polygons
Stored in image information storage means for storing image information.
And the vertex luminance information given to each polygon is different.
An image composition method characterized in that
【請求項6】 請求項4又は5において、 前記第4のステップでは、N個(Nは1以上の整数)の
仮想的な光源からの光に基づいて前記頂点輝度情報を求
める演算を行い、前記第1のステップでは、仮想3次元
空間内にある一部の表示物がM個(Mは前記N以上の整
数)の仮想的な光源からの光により陰影付けされるよう
に該一部の表示物に対して前記頂点輝度情報を与えるこ
とを特徴とする画像合成方法。
6. The method according to claim 4, wherein in the fourth step, N (N is an integer of 1 or more).
The vertex luminance information is obtained based on light from a virtual light source.
In the first step, a virtual three-dimensional
There are M display objects in the space (M is an integer greater than or equal to N).
To be shaded by light from a number of virtual light sources
The vertex luminance information is given to the partial display object.
An image composition method characterized by the above.
JP32939694A 1994-12-02 1994-12-02 Image composition apparatus and image composition method Expired - Lifetime JP3538248B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP32939694A JP3538248B2 (en) 1994-12-02 1994-12-02 Image composition apparatus and image composition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP32939694A JP3538248B2 (en) 1994-12-02 1994-12-02 Image composition apparatus and image composition method

Publications (2)

Publication Number Publication Date
JPH08161515A JPH08161515A (en) 1996-06-21
JP3538248B2 true JP3538248B2 (en) 2004-06-14

Family

ID=18220972

Family Applications (1)

Application Number Title Priority Date Filing Date
JP32939694A Expired - Lifetime JP3538248B2 (en) 1994-12-02 1994-12-02 Image composition apparatus and image composition method

Country Status (1)

Country Link
JP (1) JP3538248B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1642624A3 (en) * 1997-02-18 2007-02-28 Sega Enterprises, Ltd. Image processing device and image processing method

Also Published As

Publication number Publication date
JPH08161515A (en) 1996-06-21

Similar Documents

Publication Publication Date Title
US5966132A (en) Three-dimensional image synthesis which represents images differently in multiple three dimensional spaces
JP2807608B2 (en) Sorting processing apparatus, image synthesizing apparatus using the same, and sorting processing method
US6100895A (en) Apparatus and method of image synthesization
US5577960A (en) Image synthesizing system and game playing apparatus using the same
JP2846252B2 (en) Three-dimensional simulator device and image synthesizing method
JP3638637B2 (en) Polygon data conversion device and three-dimensional simulator device
CN111047506A (en) Environmental map generation and hole filling
JP4804122B2 (en) Program, texture data structure, information storage medium, and image generation system
JP3748451B1 (en) Program, information storage medium, and image generation system
JP4749198B2 (en) Program, information storage medium, and image generation system
US5598516A (en) Image synthesizing system and video game apparatus using the same
US5880735A (en) Method for and apparatus for transparency conversion, image processing system
JP4827250B2 (en) Program, information storage medium, and image generation system
JP2001134779A (en) Method and device for providing non-realistic comic contour line in three-dimensional video graphics system
JP2008077408A (en) Program, information storage medium, and image generation system
JP3538248B2 (en) Image composition apparatus and image composition method
GB2284526A (en) Image synthesizer and apparatus for playing game using the image synthesizer
JP3364456B2 (en) 3D simulator apparatus and image composition method
US7710419B2 (en) Program, information storage medium, and image generation system
JP2763481B2 (en) Image synthesizing apparatus and image synthesizing method
JP4488346B2 (en) Program, information storage medium, and image generation system
JP4913399B2 (en) Program, information storage medium, and image generation system
JP3850080B2 (en) Image generation and display device
US7724255B2 (en) Program, information storage medium, and image generation system
JP2990190B2 (en) Three-dimensional simulator device and image synthesizing method

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040114

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040316

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040319

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080326

Year of fee payment: 4

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080326

Year of fee payment: 4

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080326

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090326

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100326

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100326

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100326

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110326

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110326

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120326

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120326

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120326

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130326

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130326

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140326

Year of fee payment: 10

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term